查看原文
其他

人工智能与可穿戴技术结合 实时检测人类情绪变化

2017-02-03 John IntelligentThings

导读


一次谈话,会让人们产生不同情绪,例如高兴、悲伤、压抑、兴奋等。美国科研人员发明一种结合人工智能和可穿戴技术的系统,它能够基于个人的言语方式和生命体征,判断出谈话是愉快的、悲伤的或是中性的。


(图片来源于:MIT)


简介


该系统由麻省理工学院计算机科学和人工智能实验室(CSAIL)和医学工程和科学研究所(IMES)联合开发。研究生 Tuka Alhanai 与博士生 Mohammad Ghassemi 合著了一篇相关的论文,并且将在下周于旧金山召开的美国人工智能协会(AAAI)的会议上发表。


对于这个研究的意义,我们先看看研究的领头人Tuka Alhanai 怎么说:


“我们可以想象,在对话结束时,如果你能够回顾整个过程,就会看到周围的人感到十分焦虑的时刻。我们的工作在此方向上已迈出一步,可能离人们在口袋中拥有人工智能教练的那一天不远了。”


当实验参与者讲述一个故事时,系统会分析讲话的语音、文字、以及心理信号,从而得出故事的整体基调,准确率可达83%。系统通过使用深度学习技术,每隔五秒钟提供一次“情绪分”。


隐私保护


研究人员称,人们通过使用智能手表上的人工智能系统,在多人谈话中创造出更多可由算法分析的数据,进一步提高系统性能。团队指出他们已经开发了一个具有强烈隐私性的系统:可以在用户的设备上本地运行算法,保护用户的个人隐私信息(Alhanai 称消费者版本,将需要明确的协议,在争得人们的同意得基础上,加入他们的对话中。)


工作方式


许多与情绪检测相关得研究,都通过向参与者展示“高兴”和“悲哀”的视频,或者让他们表现出特殊的情绪状态。但是为了引起更多自然的情绪,相反地,团队让受测试者自己选择讲述一个“高兴”或者“悲伤”的故事。


受测试者佩戴三星智能手环 Simband ,该设备可以捕捉高分辨率的生理波形,测量运动、心率、血压、血流和皮肤温度。系统也可捕捉音频数据和文字内容,从而分析讲话者的语调、音高、音量和词汇。


(图片来源于:MIT)


团队捕捉了31种为时几分钟谈话内容,训练两种数据算法:一种将整个对话分为高兴或者悲哀,而第二种将每五秒钟的谈话分为积极、消极、或者中性。


Alhanai 注意到,在传统的神经网络中,所有数据相关特征都提供给基础网络算法。相对而言,她的团队发现他们可以让网络的不同层,组织不同的特征,从而提高算法。


结论


算法的发现和人类的观察一致。例如,长时间停顿或者单调的语调,和令人悲伤的故事相关,而精力充沛的各种讲话和高兴的故事相关。考虑到肢体语言,悲伤的故事和坐立不安以及心血管活动相关,也和某些特定的姿势,例如把手放在脸上相关。


平均来说,这个模型可以区分每五秒间隔的讲话情绪,准确率比随机水平高18%,比目前的方案要高7.5%。


(图片来源于:MIT)


未来


作为社交教练,这种算法目前还不够可靠,但是 Alhanai 称他们正在向这个目标迈进。未来,团队计划更大范围的搜集数据,使用例如 Apple Watch 等商用设备,让他们可以在现实世界中更好地实现该系统。


另外,这款产品有望能用于帮助埃斯博格综合征或自闭症患者。


Alhanai 说:


“我们的下一步,就是提高算法的情感粒度,这样可以更加精确地检测出厌烦、紧张和激动的时刻,比那种‘积极’或者‘消极’的标签更加准确。开发这项技术可以利用人类情感脉冲,动态地提高我们之间的相互交流。”


参考资料


【1】http://news.mit.edu/2017/wearable-ai-can-detect-tone-conversation-0201


相关阅读





需要咨询或者讨论,可以评论留言,也可以联系微信:JohnZh1984。

如果您想了解更多的前沿

技术文章,直接点击“阅读原文”。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存