受器,电信号传递到大脑,产生兴奋感和一些超常举动。我们也希望这个小东西能够给沉闷已久的学界带来一些新鲜刺激。
主持人:说得太好了宋教授,那么能否请您用比较浅显易懂的语言向观众们介绍一下这套系统的工作原理呢。
宋教授:有点难,我试试吧。大家知道,人工智能发展其中一个重要方向就是让机器模拟人类大脑的思考过程,而最关键的第一步就是让机器学会像人一样接受信息。人类有非常复杂的感官系统,但信息最主要的输入方式还是视觉,这就涉及两大领域的识别:文字和图像。目前在浅层感知领域,语音识别、文本分词、人脸识别等已经比较成熟了,但从浅层感知到特定语义组合的映射,比如从动作姿态来分辨一张全家福中不同成员之间的关系,对一首诗歌里的情感指向进行分类,目前还只能在限定领域通过大量训练来实现过得去的效果。至于像人类那样复杂的认知能力,机器其实还处于非常早期的阶段,大家可以看这张图。
(屏幕上出现4乘4的图片矩阵,每张图都是关于猫的,在不同环境下、从不同角度拍摄的不同种类的猫。)
宋教授:啊,这是我女儿挑的照片。对于人类来说,即便是一个小孩,只要他见过猫,不管是大猫小猫,黑猫白猫,猫头猫尾,他都能够分辨出来。但对于机器则不是这样。
(16张图中的13张都被打上红叉,只剩下3张猫咪头部正面特写,萌态可掬。)
宋教授:之前我们做的机器图像识别,无法像人一样从事物的不同状态中提取出某种底层不变性。抱歉我又要拿猫举例子,一只猫胖了瘦了,掉毛了生病了,或者给它穿戴上各种装饰品,它打个呵欠、发怒、舔舌头,它都是同一只猫。而对于机器来说,图像的尺寸、背景、光照、位移、旋转、畸变、遮挡……都会影响它的判断,它只能根据既定算法进行有限层级的映射,而无法模仿人脑通过多层神经网络进行分层递阶的多粒度计算……
主持人:抱歉打断您一下,这部分内容或许对于欠缺背景知识的我们来说有点难以理解,那么您发明的CATNIP系统是如何解决这个问题的呢?
宋教授面露尴尬:不好意思一不小心就说多了。确切地说,我们的一只脚才刚刚跨过门槛,离真正解决问题还早着呢,这个系统也只是整个大计划中的一个前驱项目。我们的灵感其实来自语义分析,大家知道,信息的意义其实并不在于信息本身,而存在于其结构中,就像文本意义存在于上下文,图像的意义存在于时空结构之中。我们能否通过索引对象存在于整个时空结构中的信息来帮助机器识别对