宋教授:所以我们采取了邀请制,所有对象都必须经过资格筛选,并签署具有法律效力的协议书。
主持人:之前网上讨论得非常火热的是,一些受邀请的用户晒出了CATNIP给自己拍摄的照片,并分享了他们的感受,其中有人说,这些由机器拍出的照片“比真人拍摄更有感情”,甚至能够“触动心灵深处”。对此您有何评论?
宋教授:这个,我只能说,机器所有的行为都是受程序及算法控制,它是camera而不是cameraman,那种能够产生情感的机器只存在于科幻电影里。
主持人:您自己用
象,这是整个项目灵感的源起。
主持人:我问一个外行话,如果机器都无法准确识别对象,怎么能去寻找它存在于,嗯,所谓时空结构中的信息呢?
宋教授:你这个问题提得非常好。就像照片里的小猫,你是先知道什么是猫,再去找猫在哪儿,还是先知道猫在哪儿,再去识别什么是猫?这就是一个“鸡生蛋蛋生鸡”的悖论。目前我们的神经科学和生理学知识尚无法解释人类的认知过程是如何发生的,更不用说教会机器了。于是我们采用了另一种思路。
主持人:这听起来就像是推理小说啊。
宋教授:呵呵,这个比喻有意思。我们是这么做的,从语义上给定一个对象,通过对接外部数据库去抓取相关的信息,包括语义和图像,并按时间序列构建起意义连续体,然后我们把真实的对象摆到机器面前,比如说,一只猫,机器会在捕捉到的动态画面与意义连续体之间寻找可能的流形映射,当它确定两者之间能够建立映射时,也就是说它“认出”这只猫时,就会“咔嚓”一下,按下快门。当然这只是个简化的比喻,背后有许多艰深的算法,我们希望以这种倒推方式找到提升机器识别能力的办法,它更多的是一个数学上的问题。
主持人:听起来蛮有意思的,那怎么会想到把这项技术从实验室里带到CCES呢?
宋教授:嗯,这个我不确定能不能说,之后我跟领导确认一下,如果不方便公布你们就剪掉吧。
主持人:没问题。
宋教授:其实这个项目除了来自国家的专项基金外,还有几家大科技公司的资助,他们希望能从前期介入,看看这项技术商业化的前景如何,另外一点,我们需要更多的样本帮助机器进行深度学习,而真实环境中的对象远远比实验室里的模拟条件来得复杂。正好我的组里有一个狂热的摄影爱好者,他帮忙设计了这个,被我们认为“锦上添花”的照相模块,包括调焦、光圈、快门以及滤镜库的调用等功能。
主持人:这会不会涉及到数据隐私的问题?