Google收购了一个由Geoffrey Hinton和他的两个研究学生Alex Krizhevsky和Ilya Sutskever组成的神经网络初创公司,以帮助计算机理解人的意思。
多伦多大学计算机科学教授Geoffrey Hinton和他的DNNresearch团队在“深度学习”网络领域工作。
这项研究对Google至关重要,Google采取了非同寻常的步骤,将Hinton纳入了薪资范围,同时让他可以将自己在多伦多的大学研究与在Mountain View的Google总部的工作区分开来。谷歌还同意为DNNresearch提供60万美元的资金,以支持神经网络的进一步工作。
Hinton在他的Google+信息页上发布的便条解释了他此举的动机:
去年夏天,我花了几个月的时间与Google在山景城的Knowledge团队合作,与Jeff Dean和一群不可思议的科学家和工程师合作,他们在机器学习方面取得了令人瞩目的进步。我和我最近的两名研究生Ilya Sutskever和Alex Krizhevsky(赢得了2012年ImageNet竞赛)一起,押宝Google的团队成为未来突破的中心。这意味着我们将很快加入Google,与一些最聪明的工程专家一起解决计算机科学领域的一些最大挑战。
去年秋天参加了由Geoffrey Hinton教授的Coursera的“机器学习神经网络”课程的任何人都对这方面取得的进展以及Hinton和他的团队在这方面的发展感到惊讶。这项研究的最前沿。
Hinton已经与Google合作进行深度学习,请参阅Google的Deep Learning-Speech Recognition,很明显,为什么它应该以这种方式“挖走” Hinton等人的才能。Hinton于2010年发表了Google技术讲座,并在我们的文章“深度学习的胜利”中提供了有关技术层面发生了什么的一些想法-但此后事情已经发生了很多变化!
尽管看起来(而且是)非常数学化,但欣顿研究领域中要解决的问题并不难理解。谷歌希望将其应用到技术中的问题与搜索和上下文含义直接相关。
用“我看到大峡谷飞往芝加哥”这句话,您知道那并不意味着大峡谷正在飞往芝加哥,因为您知道大峡谷是一种什么样的事物并且可以使用上下文线索。但是,计算机不具备这种知识,也无法解析这种句子。
据Google院士杰夫·迪恩(Jeff Dean)称,欣顿的作品具有用于语音和图像搜索的应用程序。随着越来越多的用户通过在智能手机上拍照或与智能手机交谈来发送搜索查询,Google花费了更多的研究资金来尝试找出从图像和声音中自动获取上下文线索的方法。
由于多种原因,此类搜索更难解析。首先,计算机必须弄清楚该人在说什么或图片实际代表什么。计算机科学研究人员已经在语音识别等领域进行了数十年的研究,但是存储和从大量音频数据中学习的计算能力是一个相当新的发展。计算机确定用户的要求后,必须使用适用于其返回相关结果的上下文线索。
Hinton的专业知识与Google的数据相结合,可以得出一些有趣的结果。关注此空间!
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。