从看脸到读心:深度理解人的视觉技术走到哪了?
作者 | 蒋宝尚 编辑 | 贾伟 AI 正在尝试攻克“读心术”。本文基于计算所山世光报告整理,链接见文末 随着人脸识别为代表的“看脸”技术已经逐渐走向成熟,越来越多的科学家正在攻克这个难题。利用AI算法,捕捉面部特征所承载的多维信息,分析推断一个人精神状况,从人工智能的角度就变成了输入表情,输出性格、情绪、心理活动的“函数”映射问题。其中输入的特征可以是微表情,也可以是视线等;输出结果可以是喜怒哀乐等情绪。 举例来说,荷兰阿姆斯特丹大学的尼克·瑟比博士曾利用现代的深度学习方法对蒙娜丽莎的“情绪"进行破解,发现蒙娜丽莎有83%的快乐,9%的厌恶,6%的恐惧,还有2%的愤怒。 蒙娜丽莎情绪分析或许有些“玩”的意味,但是它背后所采用的技术对于医学、情感陪伴、金融保险都有非常重要的意义。例如客观化、易于实施的自闭症儿童早期诊断技术、能读懂老人情感和状态的机器人交互技术、对司机危险驾驶行为的监控和报技术等等。 具体来看,目前医学上在精神疾病的诊断更多依赖于量表测试和医生面诊,诊断结果更偏向主观性。看病就医时,中医通过“望闻问切”的“望”来了解患者的病征,作出诊断;而心理医生面诊时也会通过观察病人面容来判断病人在精神层面的状态。以抑郁症患者为例,传统方法下,医生通常会采取三种检查手段来判断病人是否患有抑郁症以及患病的程度,分别是:面诊、量表测试和脑电波测试