AI在DARPA混战中击败了人类飞行员 Rodney Brooks称AI的状态 Arduino体内的蠕虫意识 深度学习找到您的照片 更多的机器学习应用于Google表格 深度天使-未来媒体操纵的AI ASP.NET更新并重命名 小猫猫猫探测器 .NET Jupyter笔记本宣布 介绍DeepSpeech 在Formula Pi中竞赛A YetiBorg Google开源准确解析器-Parsey McParseface 适用于我们的REST的MIcrosoft的Project Oxford AI API Eyeshot,.NET的CAD控件 百度AI团队被骗-被ImageNet竞赛禁赛一年 GIMP的机器学习Python插件 Google的自动驾驶汽车-不是​​那么聪明吗? 设计自己的无人驾驶汽车 开源深度学习框架如何堆叠? Azure机器学习服务上线 Evi重载 Microsoft R Server 9.1添加了ML增强功能 廉价的十亿个神经元联系 Skype转换器突破了语言障碍 ASIMO庆祝成立10周年 Google翻译超过2亿 .NET Core 3获取GUI Google开始为Prediction API收费 Google文档获取基于AI的语法检查器 Microsoft认知工具包版本2.0 Google的DeepMind Files AI专利 ONNX for AI模型的互操作性 机器学习识别MOMA艺术品 音频超分辨率 神经网络聊天机器人-令人惊讶的是人类吗? Microsoft扩展了认知服务API RankBrain-AI进入Google搜索 新的MIT–IBM Watson AI实验室 图片-概率语言 F#4.5添加了跨度支持 DeepCoder学习编写程序 用于机器学习的Databricks运行时 RoboEarth-机器人网站 拥有最佳在线AI 人脸识别应用于人像 电子商务聊天机器人 Google还有另一项机器视觉突破吗? 使用神经网络自动为照片着色 性能工业机器人(视频) 神经网络描述他们所看到的
您的位置:首页 >数据库 >

AI在DARPA混战中击败了人类飞行员

这项重大事件发生在美国国防高级研究计划局(DARPA)组织的一项竞赛中,旨在测试自主的空对空战斗系统。我们是否会对AI优越性的另一个迹象感到惊讶?

战斗

在2020年8月举行的Alpha Dogfight Trials竞赛的资格赛阶段,认可机构与其他认可机构竞争。进入决赛的获胜者将与人类Ace作战,后者是一名作战战斗机飞行员,在他的腰带下飞行了许多小时。八个承包商的AI相互竞争,而Heron Systems则承担了责任。然后,它以5-0击败了人类飞行员。

对我来说,难怪一台机器在空战中击败了人类。计算机在现代飞机中起着至关重要的作用。例如,F117由于其奇怪的形状而无法自行飞行,因此它需要大量专用CPU来不断并行工作以对其进行调整以使其保持在空中。这样一来,可以将飞机船视为从一系列传感器,雷达和通信信号中收集到的大量数据的接收者,然后必须在其HUD显示器或飞机的显示器上将这些数据提供给飞行员。仪器,让他对其进行处理以产生信息,从而使他可以决定下一步要做什么。谁最擅长收集和处理数据?是人还是计算机?

尽管计算机无法做出决策,也就是说,仅用作计算器,但人工智能的进步也使其能够做出明智的决策。因此,如果计算机在收集和处理数据方面已经比人类更好,并且如今也能够自行决策,那么为什么不摆脱人类因素以及随之而来的错误呢?

尽管不允许Heron的AI进行“欺骗”,但这超出了F-16的能力,例如,不使用不合理的G力,但它不仅限于飞行员接受的训练,因此他们可能会聪明他们。在二战式的核心战斗中,战斗只包括鼻枪,而不是导弹。

达帕

就算法本身而言,它是经过数十亿次模拟混战而深入学习的孩子。

这不是IProgrammer首次报道这种在空战中优于人类的算法优势。早在2016年7月,在“实现自主AI比我们想象的更紧密”中,我们介绍了ALPHA,这是一个相对简单的AI代理,它在飞行模拟器上的性能也超过了人类飞行员:

值得注意的是,尽管ALPHA是一项复杂的工程,但它并不需要像当今大多数AI驱动的解决方案那样需要超级计算机的集群功能,而是可以在Raspberry Pi上成功运行。

同一篇文章指出:

主题飞行员是退休的美国空军上校吉恩·李,他在空中作战方面具有丰富的经验,曾担任教练和空战经理,他将自己的经历描述为:

“迄今为止,我见过的最激进,反应迅速,动态和可信的AI。”

作为记录,所使用的算法以“遗传模糊树”为名,其特长是分裂复杂决策的行为,例如“发射导弹的时间正确吗?”分成较小的可管理子决策,将它们结合在一起,将为每种输入数据组合产生的if / then场景提供最佳解决方案。

ALPHA与当前AI成就之间的区别在于,当时的战斗涉及中队,这意味着多个AI必须相互合作。这也是一项战术任务,允许发射导弹。人为控制的中队在战略战中被打败,而现在它已成为近距离格斗战。

在此期间,算法变得更强大,但仍未达到生产就绪状态。美国国防部目前暂时不打算消除飞行员的飞行,但正在研究在必要时(当情况变得艰难时)让人类像AI一样通过自动驾驶开启AI。

就是说,战斗是在模拟环境中进行的,并且与现代战斗模拟器一样接近真实的环境。我们不确定在现实世界中会发生什么,并且有人猜测AI会玩这个系统。这也是我们在“自主机器人武器-辩论”中详细介绍的一个问题:

最后,讨论的是机器人AI的当前状态,艾伦·温菲尔德(Alan Winfield)指出,现在存在的机器人并不像我们认为的那样聪明。它们被放置在实验室受控环境之外,就像鱼从水里捞出来一样,行为混乱并且犯错。

斯图尔特·罗素(Stuart Russell)强烈反对这一观点,他指出自治的要素已经存在。无人驾驶汽车可以检测到墙壁,房屋和人,因此可以清楚地显示出机动性,而在象棋游戏中赢得人类的计算机也可以证明其具有战术性思维和感知能力。

毕竟,它们不需要100%的准确度,因为它们的作用是破坏破坏,而以较低的准确度百分比可以实现的目标。

尽管如此,即使这些AI已准备好投入生产,决定采用全面AI也不是一件容易的事。再次在“自主机器人武器-辩论”中,我们考虑了这一决定的含义:

...我们不应妖魔化称为机器人或武器的所有事物,而应使用根据其自动化程度将它们分开的分类。

第一层体现了人类控制的机器人,这些机器人在当今的战场上已经发挥了重要作用,例如清理地雷,炸弹爆炸或提供医疗援助。

下一层体现了半自动武器,尽管这种武器可以减轻操作员的一些风险,但由于操作员仍然拥有最终决定权,因此它们无法承担全部责任。这类武器的例子包括发射后遗忘的空空导弹或自动锁定目标的飞机。按下按钮来发射这种导弹仍然是飞行员的责任。显然,这种危险潜伏在第三级,即不需要人工干预的全自动机器人。这些机器人能够自行行动并完成任务,而没有情绪上的负担或道德上的阻止。

现在的问题转移到您是否可以向机器中注入伦理,是否可以确保其遵守战争规则,以及是否可以防止在瞬间意识到自我的情况下打开机器的制造者。

Alphdogsq

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。