机器人的睡前故事可以教他们成为人类 学习发现,健身追踪器正在泄露大量数据 LG的G5智能手机有“始终”的能力 报告显示,4.5岁以上,超过2,000名警察数据泄露 Windows PC和Androids的最佳防病毒应用程序 Datentre Operators警告公共云威胁到长期的共同位置成功 Vue Entertainment使用Rackspace来管理Blockbuster电影票的在线需求 AWS Clouches云处理科罗拉多执法机构 家庭办公室合并IT单位 这家好莱坞医院没有备份其数据?“赎金软件”邪恶黑客的发薪日 不!Facebook Messenger广告?垃圾邮件 - valanche 3 ...2...1... 爆炸物联网攻击表面不是对业务的直接威胁 Facebook旨在将开放的计算模型扩展到电信齿轮 IBM PCM Leap打开了新的企业存储层 Carnegie Mellon项目旨在'逆向工程师'大脑 FSB说,带有网络犯罪行程的小企业 美国调查丰田,BMW,大众专利侵权行为 大多数企业今年提高云使用的企业 沙特黑客索赔马克扎克伯格的社交媒体账户 美国监管机构即将来临,以观察谷歌计算机可以符合汽车司机的资格 中东CIO采访:V. Chandrasekar,Standard Chattered 季度报告季节展示了技术世界如何从根本上变化 Wrightington,Wigan和Leigh NHS Trust与Allscripts EPR一起生活 英特尔的Itanium以HPE为与芯片的新服务器致电 对智能手机的兴趣是平缓的 大学向英国医学研究人员提供免费云服务 CityFibre和Gigaclear合作伙伴关闭农村宽带差距 手臂现在跳过调制解调器,即使它们在移动中很大 人类错误导致更具数据丢失而不是恶意攻击 看,思科:主要电台加入Facebook的开放硬件推动 避免在南澳大利亚的天主教学校安全噩梦 表面书的最新补丁,表面专业4可以实际上工作 您的公司是否需要一名主要数据官? Tim Cook说Apple将反对法院命令而不是黑客客户 菲律宾通过移动系统扩展纳税 数字技能差距英国经济每年630亿英镑 EC为在线平台规定规定了提案 三位爱尔兰宣布成为一个Omnichannel运营商 Smart City Tech将汽车和自行车连接在MWC(带视频) Brexit价格徒步旅行命中云和数据中心社区,作为货币波动咬合 研究人员说,百度网络浏览器泄露敏感信息 Benelux Cio采访:Paul Elich,KLM的CIO CIO采访:安迪威廉姆斯,拯救孩子们 Apple Watch 2折扣高达29%的折扣?(和st:c) DWP责备政策更改,以便在通用信用卷展览中进一步转换 纳斯达克使用区块链记录股东选票 Apple与FBI案例颜色欧洲辩论关于确保数字身份 Sen.Blumenthal要求提升它'Gag'订单 随着GPUOPEN,AMD希望游戏玩家将从其Radeon GPU中获得更多信息 亚马逊乘坐高销售增长,特别是在云服务中
您的位置:首页 >运维 >

机器人的睡前故事可以教他们成为人类

有些人担心有一天有一个机器人 - 或者是机器人的集体 - 将打开人类和身体伤害或贴上我们。

他们说,这个问题是机器人如何教授道德?

没有用户手册良好的行为。还是在那里?

佐治亚州理工学院的研究人员称,虽然可能没有一个特定的手册,但是通过阅读故事和书籍有关在社会中采取行动的成功方式的书籍,机器人可能会受益。

“不同文化的故事教导儿童如何在寓言,小说和其他文献中的适当和不当行为的例子中表现出社会可接受的方式,”格鲁吉亚科技互动计算学院副教授Mark Riedl表示,“Mark Riedl表示娱乐智能实验室主任,在一份声明中。“我们相信机器人的故事理解可以消除精神病出现的行为和加强赢得伤害人类的选择,仍然实现预期目的。”

去年,着名的物理学家斯蒂芬霍金说,未来的机器人可能是危险的,并且可以在100年内超越人类。他说,未来的机器人需要设计,以便他们的目标与我们的目标保持一致。

霍金,2014年,还警告说,人工智能的进步可能会结束人类。大约在同一时间,高科技企业家Elon Musk表示,A.I的发展表示。对人性有危险。

一些计算机科学家和机器人并没有完全不同意麝香,但是未来的智力水平的机器人甚远。

让机器人领先的部分努力成为人类的危险,就像在人类社会中教授那样教导他们。

正如父母阅读他们的孩子睡前故事,机器人可能会给机器人自己的阅读,从错误中学习。

Riedl注意到机器人不仅可以学习人类价值观,而且可以了解可接受的事件序列,例如如果有人执行一件事,那么机器人应该以这种方式响应。

例如,人类可能会告诉机器人助手去药房并尽快带来处方。

机器人可以p,以便获得处方的最快方式是抢劫药房,以所需的药物和跑步。然而,通过阅读故事和学习适当的人类行为,机器人将表示去药房,等待在回家的路上不行。

RIEDL表示,这种教授道德的方法将与具有有限目的的机器一起使用,但需要与人们互动以实现其目标。

研究人员还表示,这个想法是朝着机器中一般道德推理的第一步。

“我们相信A.I.必须被遗留到采用特定社会的价值观,并且在这样做,它将努力避免不可接受的行为,”RIEDL表示。“为机器人提供阅读和理解我们的故事的能力可能是在没有人类用户手册的情况下最有利的手段。”

RIEDL的研究是由DARPA(国防高级研究项目)和海军研究办公室资助的。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。