我的订单|我的收藏|我的商城|帮助中心|返回首页
虚拟现实新闻>创客>创客创意>应用方案

情感识别:人机交互的新方向

文章来源: 作者:VRFans 发布时间:2012年12月26日 点击数: 字号:

在最近几年,语音识别这一高新技术得到了突飞猛进的进展,Siri 、Google Now 之类的语音助手变得越来越实用,人们与机器之间的交互似乎也变得更加容易。科研人员们并不满足于此,他们还在努力使机器变得更聪明,例如识别人类的情感。
 目前的语音识别技术还处在初级阶段,主要用的还是关键字识别技术。语音引擎把人们说的话转换成基本的发音,再从庞大的语音数据库里寻找相近的字和词组进行匹配,接着找出相对应的答案。这导致语音助手们回答的问题都相对机械,而且有时候识别不准。我们可能认为我们在使用语音助手的时候是在训练计算机,让它们适应我们。但从目前来看,结论恰好相反:我们在很多时候不得不去适应计算机,放慢语速,纠正口音来让它们听懂。
 剑桥大学计算机实验室的教授彼得·罗宾逊希望改变这一切,它认为计算机不光要知道我们说了些什么,还要知道我们想要表达些什么。人在说话时,除了语音以外,还有表情、肢体语言、说话的语气等“潜台词”,我们常常说的察颜观色就是这个意思。考虑到这一点,罗宾逊在他的计算机里输入了400多种预先定义的精神状态,计算机则通过麦克风和摄像头来试图阅读人的表情。通过实验,计算机能正确理解罗宾逊70%的表情,实验取得了初步成功。
 罗宾逊仍然没有满足:“光是能读懂认得情绪还不够,未来计算机还要有自己的情感,和人类产生有感情的互动。”
  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料