菲洛嘉青春动能素135HA FILLMED® NCTF 135HA LED指示灯的常见故障分析 智微智能 Elkhartlake K075终端,零售产业新选择 天空蓝拓客管理系统详细介绍版 muso公链项目 天使计划 是什么?[秘] 独家揭秘最前沿的家装“黑科技”——掌赋 天博体育欧洲杯特辑,东道主法兰西的失意2016 亚马逊的送货侦察员 学习听起来像挡泥板 Google Comics Factory使ML变得容易 笑着说-男性或女性 Amazon Rekognition中更好的人脸检测 关于Spaun的真相-大脑模拟 两个聊天机器人彼此聊天-有趣又怪异 GANPaint:将AI用于艺术 WCF和WF给予社区 从耳朵到脸 所有神经网络的深层缺陷 蠕虫在尾巴上平衡杆子 Kickstarter上的OpenCV AI套件 TensorFlow-Google的开源AI和计算引擎 众包取代新闻工作者 Google的DeepMind学会玩街机游戏 哑机器人V智能机器人 .NET与.NET 5融为一体 Google的深度学习-语音识别 LInQer将.NET LINQ移植到Javascript 机器人TED演讲-新的图灵测试? GAN的发明者加入苹果 您的智能手机会监视您键入的内容 人工智能帮助改善国际象棋 Zalando Flair NLP库已更新 TensorFlow 1.5包含移动版本 AlphaGo输了一场比赛-比分3-1 虚拟机器学习峰会 Microsoft开源AI调试工具 SharePoint走向移动 F#4.0发出文化变革的信号 克里斯蒂拍卖AI艺术品 人工智能如何区分 Facebook在蒙特利尔的新AI实验室 Mozilla想要您的声音 微软使用极深的神经网络赢得ImageNet 建立AI合作伙伴关系 .NET Core 3-Microsoft几乎回到了起点 神经网络-更好的销售商? Google使用AI查找您的住所 虹膜-适用于Android的Siri证明苹果没有优势 TensorFlow 2提供更快的模型训练 深度学习研究人员将为Google工作
您的位置:首页 >前端 >

神经网络聊天机器人-令人惊讶的是人类吗?

考虑到围绕聊天机器人和图灵测试的争议,神经网络挑战相同的问题似乎是不明智的。正如您可能猜到的那样,它们具有结果,结果是可预测的过度声明。

robots15

Chabots在将AI声名狼藉方面做得很好。愚蠢的人声称已经通过了图灵测试,因为聊天机器人可以假装是一个非英语母语的少年,这是琐碎而荒谬的。但是现在,我们有了AI世界的宠儿,即神经网络,正进入同样令人误解的领域。

都在Google工作的Oriol Vinyals和Quoc V. Le已经将神经网络训练为本质上是一个聊天机器人,其结果从表面上看令人印象深刻,足以使各种新闻社夸大其词。特别是,当神经聊天机器人被反复问到道德和道德问题时,它似乎变得防御起来,最终有些粗鲁:

人:告诉我道德的定义。

机:我没有道德。

人:看,我需要帮助;我需要更多地了解道德……

机器:我不知道什么是道德。

人:好吧,我需要知道我该如何道德操守……

机:我不知道该怎么告诉你

人:道德和道德是一样的吗?

机器:是的,先生。

人:我做不道德的事情是什么?

机:我不知道。

人:给我一些道德行为的例子……

机器:我不是道德主义者。

人:好,道德吗?

机:诚信

人:什么是诚信?

机:对不起;我不知道该说些什么

人:要有道德!

机:做个男人!

人:我真的很喜欢我们关于道德和道德的讨论...

机:以及我如何不想进行哲学辩论。

人:你想谈什么?

机:没有。

这产生了《华尔街日报》。在头条新闻中,“人工智能机器”凭借其程序员获得了证明,如果您对AI和神经网络有所了解,那真是愚蠢。更重要的是,实际意义比看似烦恼的计算机程序更有趣。

所使用的神经网络是递归神经网络,即它具有存储能力并且可以在不同时间呈现的数据之间形成关联。一个输入句子一次被送给它一个单词,并且它一次预测一个句子一个输出词。这一切意味着,以对话为输入,网络可以学会预测,如果第一人称X,则答复很可能是Y,其中X和Y是完整的句子,但一次生成一个单词。

为了训练网络,需要一些对话示例,并提供了两个对话数据集-一个IT帮助台和一组电影中的字幕。

在这一点上,您可能会认为这与聊天机器人可能做的事情非常相似,但根本没有。聊天机器人通常具有手工制定的规则,可将输入句子转换为输出。例如“您今天感觉如何”->“我感觉很好,您今天感觉如何”。通常,规则具有占位符,并且存在语法转换以使事物看起来更像自然语言。

然而,神经网络模型学习组成输入和输出句子的单词序列之间的关联。您可能会认为这只是某种马尔可夫模型或大型查询表,但这不是神经网络学习的方式。神经网络从其输入数据中学习关联,并且它没有足够的原始存储来简单地记住所有输入-输出关联。

当句子作为输入出现时,要做好获得正确输出的工作,网络必须学习某种简化的数据模型。神经网络倾向于学习的模型类型可以泛化为网络尚未看到的数据,从而提醒人们如何进行泛化。另一种解决方法是,神经网络似乎犯了非常像人类的错误-它们可能无法使事情正确,但是您可以看到它们的来源。

在这种情况下,genrealization允许网络针对从未有过的输入句子生成响应句子。考虑到模型的简单性,结果令人惊讶地好-即,仅语言建模就没有现实世界的理解。

其中一些几乎与当您尝试使用IT帮助热线时所获得的结果相似,可笑:

机器:请打开终端并在一台计算机上运行以下命令:

机器:sudo apt-获取更新

机器:sudo apt-获取升级

从电影字幕看来,事情确实令人印象深刻:

人:谁是天行者?

机器:他是英雄。

人:谁是比尔·克林顿?

机器:他是亿万富翁。

人:天蓝色还是黑色?

机器:蓝色。

人:猫有尾巴吗?

机器:是的。

人:猫有翅膀吗?

机器:否

人:猫会飞吗?

机器:不。

人:猫有几只脚?

机械:我认为是四个。

然后出了问题:

人:蜘蛛有几只脚?

机器:三,我想。

人::有几条腿?

机器:八。

人:天空是什么颜色?

机器:蓝色。

人:水是什么颜色?

机器:水。

人:血是什么颜色?

机器:就像黑眼睛一样

即使出现问题,您仍然可以感觉到网络正在艰难地思考困难的想法,并且不会无理取闹地犯错。当然,您对那些在问与答对话框中紧随其后的单词的统计数据似乎非常受限制而被愚弄。那里可能没有您想像的那么多信息。

将其性能与非神经聊天机器人Cleverbot的性能进行比较,该机器人在2012年为庆祝Alan Turring诞辰100周年而举行的图灵测试中排名第三。

人:变得聪明的目的是什么?

Cleverbot:生命的目的是爱上帝和爱人。

人:天蓝色还是黑色?

Cleverbot:我今年200岁。

人:黄色的汽车是什么颜色的?

Cleverbot:棕色。

人:叶子的通常颜色是什么?

Cleverbot:冰箱里的苹果是什么颜色的?

您可以看到答案只是回避或使用关键字来触发库存回复,并且您可以检测到实际上并没有任何参与。当然,在神经网络的情况下并没有参与,但是在提供看起来与输入有关的答案方面做得更好。

该研究论文中某些谈话的完整笔录非常值得一读。作者承认,要使该系统能够执行IT部门职责,需要做一些工作,还需要一些新的想法-但可能不如您想象的那么多。

robots15

亚历杭德罗·利纳雷斯·加西亚

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。