杰弗里·埃弗里斯特·辛顿,(英语:Geoffrey Everest Hinton,1947年12月6日-),英国出生的加拿大计算机学家和心理学家,多伦多大学教授。以其在类神经网络方面的贡献闻名。Hinton是反向传播算法和对比散度算法的发明人之一,也是深度学习的积极推动者,被誉为“深度学习之父”。Hinton因在深度学习方面的贡献与 Yoshua Bengio(约书亚·本希奥)和 Yann LeCun(杨立昆)一同被授予了2018年的图灵奖。
教育经历Hinton于1970年在英国剑桥大学获得实验心理学学士学位。此后于1978年在爱丁堡大学获得人工智能博士学位。此后曾在萨塞克斯大学、加州大学圣迭戈分校、剑桥大学、卡内基梅隆大学和伦敦大学学院工作。他是盖茨比计算神经科学中心的创始人,目前担任多伦多大学计算机科学系教授。Hinton是机器学习领域的加拿大首席学者,也是加拿大高等研究院赞助的“神经计算和自适应感知”项目的领导者。Hinton在2013年3月加入Google,同时Google并购了他创办的DNNresearch公司。你可以在Google Research上了解其更多信息,https://research.google/people/GeoffreyHinton/
研究成果Hinton的研究调查了将神经网络用于机器学习、记忆、感知和符号处理的方法,他撰写或与人合著了200多篇同行评审的出版物。在2022年神经信息处理系统大会(NeuRIPS)上,Hinton介绍了一种新的神经网络学习算法,他称之为“Forward-Forward”算法。新算法的思想是用两个正向通路取代反向传播的传统正向-反向通路,一个具有正(即真实)数据,另一个具有负数据,这可以由网络本身生成。
Hinton在卡内基梅隆大学担任教授期间(1982-1987),David E.Rumelhart和Hinton以及Ronald J.Williams将反向传播算法应用于多层神经网络。他们的实验表明,这种网络可以学习有用的数据内部表示。在2018年的一次采访中,Hinton表示,“David E.Rumelhart提出了反向传播的基本想法,所以这是他的发明。”尽管这项工作对推广反向传播很重要,但他并不是第一个提出这种方法的人。Seppo Linnainmaa于1970年提出了反向模式自动微分,反向传播是其中的一个特例,Paul Werbos于1974年提出使用它来训练神经网络。
在同一时期,Hinton与David Ackley和Terry Sejnowski共同发明了玻尔兹曼机。他对神经网络研究的其他贡献包括分散表示、时延神经网络、专家混合系统和亥姆霍兹机器。2007年,Hinton与人合著了一篇无监督学习论文,题为图像转换的无监督学习。Hinton的研究简介可以在他1992年9月和1993年10月发表在《科学美国人》上的文章中找到。
获奖荣誉美国人工智能协会会士(1990)皇家学会会士(1998)鲁梅尔哈特奖(2001)IJCAI优秀研究奖(2005)IEEE弗兰克·罗森布拉特奖(2014)詹姆斯·克拉克·马克士威奖章(2016)BBVA基金会知识前沿奖(2016)图灵奖(2018)阿斯图里亚斯亲王奖(2022)