正在进行一场革命,似乎没有人引起太多注意。这场革命是基于深度学习的,它正在使神经网络的使用重新兴起,但这一次是为了解决实际的问题-比赛中的佼佼者之一是Google。
长期以来,神经网络似乎一直是解决AI问题的正确方法。它们类似于人脑的行为,并且它们都是自己学习的。为了使神经网络有用,您需要做的就是训练它。这必须是正确的前进方向,但是存在一个问题-这些想法在实践中并没有取得很好的效果。实际发生的事情是,您花了数小时的培训来建立一个网络,该网络了解了您所讲的内容,但只有您花费大量时间对其进行调整,才能很好地完成工作。神经网络有效,但在大多数情况下还不够好。
现在事实证明,他们可能一直都在工作,但是我们做事的方式不正确,我们对所需的规模还没有明确的认识。为了使神经网络实现其诺言,您需要先给出一些深层次的结构,而不要依赖随机或简单的体系结构。接下来,您需要训练具有大数据的大系统-很多。直到最近,以正确的形式找到足够的数据,并找到大量的计算机功能来进行训练,一直是一个难题。Web的增长缓解了数据问题,云计算的增长缓解了计算问题。
结果是神经网络开始以前所未有的方式工作。
Google最近从工作中获得一些头条新闻,其中包括让深度神经网络自学一张脸。不幸的是,数据来自YouTube的视频静止图像,并且您可能会期望网络也自学了如何识别猫的脸。正如您还可以猜测的那样,“这导致了有关AI和小猫视频的头条新闻,而不是 AI的突破”。
最近的Google博客开始于:
“《纽约时报》最近发表了一篇有关Google的大规模深度学习项目的文章,该文章旨在发现大型数据集中的模式,包括YouTube上的猫!您可能会问建造一个巨型猫检测器的意义何在?”
难过不是吗。
继续说明假设您拥有运行Jellybean的Android,同样的技术如何导致您现在可能正在使用的神经网络。
“随着最新的Android平台版本Jelly Bean的发布,我们已朝着使该技术变得有用的方向迈出了重要的一步:当您使用Android手机讲话时,您很有可能正在与训练有素的神经网络交谈。”
如果您想了解背景故事,则需要阅读Geoffrey Hinton等人的调查论文。目前正在出版的多伦多大学。
神经网络以前曾用于语音识别,但从未发展到实用的程度。最初的活动爆发后,进行了20年的干法术,其他更临时的和专门设计的方法接管了。现在,借助更大的可用音频存储库以及Google Compute Engine等计算工具,所有这些都得到了改变。
用于语音识别问题的神经网络通常很小,只有一层神经元。借助新的深度训练算法的帮助,当今的多层网络可以更好地解决该问题,该算法可通过网络逐层工作。为了让您对任务的大小有所了解-网络使用了四层,每层2500个节点。数据来自记录的6000小时语音搜索数据和来自YouTube的1400小时。许多工作是使用地图/归约算法在Google集群上完成的。与其他方法相比,结果使准确性提高了20%。
有关这项研究的论文将在9月的Interspeech 2012上发表,但是已经有一份由Navdeep Jaitly和Google研究人员Patrick Nguyen,Andrew Senior和Vincent Vanhoucke合着的多伦多大学报告,您可以下载其中的一些内容细节。
对于AI而言,这是激动人心的时刻,而不仅仅是小猫。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。