我的订单|我的收藏|我的商城|帮助中心|返回首页
虚拟现实新闻>AI>行业资讯>国内

又一轮对人工智能的炒作?

文章来源:纽约客 作者: 发布时间:2014年01月06日 点击数: 字号:
按照纽约时报的说法,真正的人工智能似乎是指日可待的。一年前,该报头版刊登了一整页有关新技术奇迹的报道,包括深度学习(神经元启发人工智能)的统计分析技术。然后,又有一篇报道了IBM的Watson如何改变用途成为一个厨师,接着(2013/05/16)刊发了有关量子计算的乐观报道。上周日,该报又在头版刊登了关于“生物启发式处理器”,“类大脑的计算机”等从经验中学习的故事。

  

智能家居

 

  在上周日的报道中,John Markoff宣称,“计算机已经进入能够从自己的错误中学习的时代,进化到了开启头脑数字世界的时期”。一年前,也是Markoff告诉我们,“深度学习这样的人工智能技术已经进步到了可以识别人类一些活动,如看、听和思考等模式的程度,这样机器就可能干得与人类一样了”。对于“星际争霸”的Galactica粉们来讲,这听起来像是令人兴奋的东西。

  但仔细读来,该文章显得热闹有余回味不足。我以前就说过,Watson的故事没谱,深度学习网络也是有疑问的。(Markoff)星期天的报道充其量说是混乱的。计算机没能从他们的错误中吸取教训;相反,该文似乎是用“类大脑”的算法来构筑计算机芯片,可算法本身不是新的。就像作者顺带说明的那样, “新的计算方法已经被大型科技公司使用过”。特别是,文章似乎是有关神经形态处理器的,即以类大脑的方式组织的计算机处理器。可正如其中一段所说的那样,自二十世纪八十年代它们就有了。事实上,周日的文章中的核心观点是基于“从经验中学习...类神经元元素构成的大型群体”网的,这种感知网络,可以追溯到50年前,是由弗兰克·罗森布拉特在1957年建成的。 (如果您查看档案,纽约时报标榜它是一场革命,标题却是“通过做来学习新的海军设备”,而纽约客杂志也同样称赞了这次进步 )。(Markoff)文章提到的唯一的新东西是计算机芯片,尚未得到证实但预计今年得到释放。它声称可以“(潜在地)让‘计算机崩溃'一词过时”。Steven Pinker阅读了纽约时报的报道后给我写了一封电子邮件说:“我们回到了1985 ! ” - 也就是上一次主流媒体对神经网络狂炒的时候。

  有什么危害?纽约大学,刚刚上任去运营Facebook新的人工智能研究员实验室的Yann LeCun,几个月前在Google+发了一个帖子(一种对媒体的公开信)。就像他在帖子中所说的那样, “ 在差不多五十年内四轮炒作中,有人经常(对潜在投资者或资助机构)作出随意承诺,AI 已死,(AI承诺)已经无法兑现。(神经元网络)会反过来被强烈抵制。这事在神经网络已经发生了两次:一次是在60年代末,还有一次是在90年代中期。”

  现在的AI肯定比以前强得多。谷歌、苹果、IBM 、Facebook和微软都在这方面进行了较大的商业投资。也出现了真正的创新产品,如可能很快就会商业化的无人驾驶汽车。神经形态工程学和深度学习的发展固然令人兴奋,但它们能否真的产生人类级别的AI,目前尚不清楚——尤其是在涉及到诸如自然语言理解等一些充满挑战性问题的时候。

  以我的了解来看,周日纽约时报提到的,类大脑的IBM系统并末应用到语言或者其它复杂形态的学习中。深度学习已经被用来理解自然语言,但现有的成效都显得脆弱。在已经公开的系统中,斯坦福大学的"深度电影"项目可能就是最好的了。它用深度学习来理解影评。非常“酷”的一点就是你可以自己尝试剪切和粘贴评论内容,然后马上就能看到程序对它的分析结果。你甚至还可以教它改进。但不那么“酷”的是这个深度学习系统实际上什么也不懂。

  但它无法像六年级小学生那样讲述影评的大意或说出电影那块儿是评论员喜欢的。这个系统大概唯一能做的事情,是所谓的情感分析,即判断这篇评论伸出的大姆指到底是冲上还是冲下。可即便这样也还是不尽人意:我输入了“better than 'Cats' !”,系统确实能正确地理解这句意思是正面的;然后我测试了一下我刚看的电影“American Hustle”(美国骗局),从Rotten Tomatoes(烂番茄)网站上摘出这样一段评论,“A sloppy, miscast, hammed up, overlong, overloud story that still sends you out of the theater on a cloud of rapture.”(”这是结构松散、角色失配、行为夸张、时间超长、过于喧闹的故事,但走出影院又有种飘然的喜悦")。这个深度学习系统告诉不了我这篇评论说的是反话或者说评论者认为虽然细节不太好但整体感还不错。它只是错误地告诉我这则影评是非常负面的(差评)。我把演示系统给我的同事Ernest Daviset,他的运气也不怎么样。Ernie输入了”This is not a book to be ignored” (这是一本不可错过的书)and “No one interested in the subject can afford to ignore this book.”(“不对这个主题不关心就不会对这本书失去兴趣”)。结果第一个被视为差评,第二个视为中性的。如果说“深度电影”已经是最好的了,那么人工智能,要想像人类那样阅读报纸,成为真正的人工智能,还有很长的路要走!

  言过其实地宣传新技术,可以激发出一时的狂热,但也常常会导致长期的失望。正如LeCun在Google+帖子上说的那样:如果初创公司声称对一些随机任务有“90%的准确度”,不必认为这有任何新闻价值;如果这个公司还说“我们正在按照人脑的计算原则,开发机器学习软件”,那就更不靠谱了。

  我在最近的博文中提过,AI面临的最大挑战跟常识性推理有关。像深度学习和神经形态工程学这样的时髦新技术,使得人工智能程序员侧重于,如对常见的输入进行分类,这种某个特定类型的问题上。但当遇到我们以前没有见过的东西时,就不知所措了。机器对它们可以识别的进行分类就做得比较好,比如语音识别这类任务,就获得了明显改善;但在另外的地方,比如理解一个说话人的实际意思,进展就比较缓慢。神经形态工程可能会出现令人兴奋的进展,但也许来日方长。近日有报道说,包括(欧洲模拟人类大脑项目的主管)Henry Markram在内的一些神经科学家,对目前实施的神经形态系统表示怀疑,因为它们对大脑的表示方法过于简单化和抽象了。

  作为一个认知科学家,我同意Markram的看法。旧学校出来的行为心理学者,同现在的很多AI程序员一样,似乎都着重于寻找一个单一的强大机制(深度学习、神经形态工程学、量子计算,或其他东西),以便从统计数据中推导出所有的东西。这就非常像心理学家B.F.Skinner上世纪50年代的想法,他推断所有人类的思想可以通过联想的机制加以解释,而整个认知心理领域也就是在这种过于简单化的假设中涅槃重生的。

  到了这时候,我觉得应记住一个基本真理,即人类大脑是已知宇宙中最复杂的器官,我们几乎仍然不知道它是如何工作的。谁敢说复制出人类大脑那种无穷威力是件容易的事?

  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料