深度学习辛顿段子集:他远离江湖,江湖却充满他的传说
昨天,雷锋网(公众号:雷锋网)介绍了(AI)领域深度学习的研究鼻祖杰夫·辛顿:。毫无疑问,他是学界公认的大牛,因为,江湖充满他的传说。比如,辛顿的学生、纽约大学教授燕乐存(Yann LeCun)就搜集了一筐关于辛顿的段子……
Yann LeCun同是人工的先驱,早在20世纪80年代末,LeCun就作为贝尔实验室的研究员开发出了卷积网络技术,并展示如何使用它来大幅度提高手写识别能力;目前美国许多手写支票依然是用他的方法在进行处理。上世纪末本世纪初,当失宠,LeCun是少数几名一直坚持研究的科学家之一。他于2003年成为纽约大学教授,并从此引领了深度学习的发展。如今,LeCun是Facebook人工智能负责人。
2012年1月,LeCun发了一条Google+(Google的社交网络应用),复制了当时辛顿和机器学习大牛Radford Neal之间的对话。当时, Radford正在2004年在CIfAR上发表演讲:
Radford Neal:我认为贝叶斯统计法并非所有情况下都是最好的方法……
杰夫·辛顿:很抱歉Radford,我对你说的这番话先验概率为0,所以我听不到你说什么。
(看不懂?可以先去了解一下贝叶斯统计中的先验概率论)
这么个性的回答,然而也只是辛顿段子人生的冰山一角:
杰夫·辛顿不需要构造隐藏单元 。当他开始处理时,它们会自己隐藏起来……
杰夫·辛顿不会不同意你的观点,他会对比性地表示分歧。
深度信念网络实际上深度信任杰夫·辛顿。
杰夫·辛顿发现了大脑是如何工作的。是的,过去的25年里他一年发现一次。
马尔科夫随机场(无向图模型)派的都将杰夫·辛顿视作桀骜不驯的老爷子。
如果你要对抗杰夫·辛顿,他会马上将你的信息熵(热力学函数)最大化,你的自由能(在某一个热力学过程中,系统减少的内能中可以转化为对外作功的部分)会在能量达到平衡之前消失。
杰夫·辛顿可以让你后悔到没有边界。
杰夫·辛顿不需要支持向量(机器学习在间隔区边缘的训练样本点),他自己的小指头都可以支持高维空间的超平面(一个支持向量机构造一个超平面)。
杰夫•辛顿一个鲜为人知的事实:他经常使用贝叶斯的先验概念。
遇到杰夫·辛顿后,支持向量都变得逻辑错乱。
杰夫•辛顿的概括是无穷无尽的。
唐诗宋词今段子,有段子的人生才是伟大的人生。