更新时间:2024-09-20
被誉为“计算机界诺贝尔奖”的图灵奖在27日发布了得奖人,ACM宣告,深度自学的三位创造者YoshuaBengio、YannLeCun以及GeoffreyHinton取得了2018年的图灵奖,以表扬他们给人工智能带给的重大突破,这些突破使深度神经网络沦为计算出来的关键组成部分。预计,这三位得奖人士将共享100万美元的奖金。众所周知,在人工智能时代,深度自学是最关键的基础技术之一,在当前的计算机视觉、语音辨识、自然语言处置以及机器人等领域,深度自学作出了极大的贡献。据报,这也是图灵奖1966年创建以来鲜有的一年颁奖典礼给三位获奖者。
ACM在公告分别陈述了三位科学奖在深度自学领域作出的突出贡献。YannLeCunYannLeCun是纽约大学教授、Facebook副总裁兼人工智能首席科学家,他也被誉为“卷积神经网络之父”。所以YannLeCun的代表贡献之一是卷积神经网络。
1980年代,LeCun发明者了机器学习领域的基础技术之卷积神经网络,让深度自学效率更高。YannLeCun在多伦多大学和贝尔实验室工作期间,首次将卷积神经网络用作手写数字辨识。如今,卷积神经网络早已成普遍用作计算机视觉、语音辨识、语音合成、图片制备、自然语言处置等学术方向,以及自动驾驶、医学图片辨识、语音助手、信息过滤器等工业应用于方向。
LeCun的第二个最重要贡献是改良了偏移传播算法。他明确提出了一个早期的偏移传播算法backprop,根据变分原理得出了一个简练的推论,让偏移传播算法更加慢。
他的第三个贡献则是扩展了神经网络的应用于范围,他把神经网络变为了一个可以已完成大量有所不同任务的计算出来模型。他早期引入的一些工作现在早已沦为了人工智能的基础概念,例如在图片辨识领域,他研究了如何让神经网络自学层次特征,这一方法现在早已用作很多日常的辨识任务。YoshuaBengio目前,Bengio是蒙特利尔大学教授,也是魁北克人工智能研究所Mila的科学主任。
YoshuaBengio的贡献主要是他在1990年代发明者的序列的概率模型,该理论将神经网络和概率模型融合,顺利用新技术辨识手写的支票,而现代深度自学技术中的语音辨识也是在此基础上展开拓展。此外Bengio公开发表的论文“ANeuralProbabilisticLanguageModel”,用于了高维词向量来密切相关自然语言。他的团队还引进了注意力机制,让机器翻译取得技术突破,沦为深度自学处置序列的最重要技术。
GeoffreyHintonGeoffreyHinton是谷歌副总裁兼工程研究员、Vector研究所首席科学顾问、多伦多大学名誉教授。他最重要的贡献还包括偏移传播的论文“LearningInternalRepresentationsbyErrorPropagation”,论文提及偏移传播能让神经网络发现自己内部的数据密切相关,这样之后可以处置以往无法解决问题的问题。
本文来源:十大靠谱外围买球网站-www.lsltjz.com