人工智能如何区分 Facebook在蒙特利尔的新AI实验室 Mozilla想要您的声音 微软使用极深的神经网络赢得ImageNet 建立AI合作伙伴关系 .NET Core 3-Microsoft几乎回到了起点 神经网络-更好的销售商? Google使用AI查找您的住所 虹膜-适用于Android的Siri证明苹果没有优势 TensorFlow 2提供更快的模型训练 深度学习研究人员将为Google工作 Xamarin SDK开源 更正工具已添加到Google网站翻译器中 使用AI进行双检测 DARPA的AI下一步运动-20亿美元! AI在DARPA混战中击败了人类飞行员 Rodney Brooks称AI的状态 Arduino体内的蠕虫意识 深度学习找到您的照片 更多的机器学习应用于Google表格 深度天使-未来媒体操纵的AI ASP.NET更新并重命名 小猫猫猫探测器 .NET Jupyter笔记本宣布 介绍DeepSpeech 在Formula Pi中竞赛A YetiBorg Google开源准确解析器-Parsey McParseface 适用于我们的REST的MIcrosoft的Project Oxford AI API Eyeshot,.NET的CAD控件 百度AI团队被骗-被ImageNet竞赛禁赛一年 GIMP的机器学习Python插件 Google的自动驾驶汽车-不是​​那么聪明吗? 设计自己的无人驾驶汽车 开源深度学习框架如何堆叠? Azure机器学习服务上线 Evi重载 Microsoft R Server 9.1添加了ML增强功能 廉价的十亿个神经元联系 Skype转换器突破了语言障碍 ASIMO庆祝成立10周年 Google翻译超过2亿 .NET Core 3获取GUI Google开始为Prediction API收费 Google文档获取基于AI的语法检查器 Microsoft认知工具包版本2.0 Google的DeepMind Files AI专利 ONNX for AI模型的互操作性 机器学习识别MOMA艺术品 音频超分辨率 神经网络聊天机器人-令人惊讶的是人类吗?
您的位置:首页 >运维 >

人工智能如何区分

“最合适的生存”是由纽约大学开发的教育游戏,实际演示了机器学习算法如何基于偏见做出决策。

该游戏为您提供了一家新成立公司的首席执行官的角色,该公司已经获得了资金,目前处于招募人员的过程中。

首先,您仅筛选提交的简历。您的筛选基于技能,学校特权,工作经验和志向的标准,并且由于您自己进行筛选,因此可以根据您的经验和价值观来评估申请人。就我而言,我所雇用的工作经验比普通申请人多14%。

到目前为止,一切都很好,但是投资者不想浪费时间,因为时间就是金钱,所以他们向您施加压力,要求您加快简历筛选过程。您尝试尽可能多地做出回应,但时间紧迫,候选人太多,以致您无法应付。因此,IT建议跳入机器学习的炒作之列,代表您进行筛选。

当然,机器学习算法要求对数据集进行培训,因此您可以向他们提供接受的候选人的简历,以便算法可以识别您的思维方式以及在招聘时要考虑的价值。事实证明,该数据集太小而无法使用该算法,因此您最终还使用了较大的公司(例如Google)使用的商品数据集来提供数据,因为Google不会出错,对吧?

事情进展得很快,直到您抱怨某些非常合格的候选人被算法拒绝。现在您的任务是回答“为什么”,事实证明这不容易回答。

投诉一直持续到人们强烈抗议为止,以至于您因歧视Blueville居民而被起诉,而有利于Orangeville居民。这一举动会吓退那些撤回资金直到最终被关闭的投资者。

那故事的寓意是什么?该算法与它们所馈送的数据一样好,并且数据越偏斜,算法就越偏斜。由于Google的虚构数据集包括来自Orangeville的更多申请人,因此在这种情况下,偏差参数可以是人口统计信息。这导致算法推断出Orangevillers比Bluevillers更有价值,因此存在偏差。

可能会出现的其他偏差参数包括性别,种族,年龄,甚至您的名字,因为它可以提示其他三个参数!

游戏结束时说明问题:

在构建自动化决策系统时,我们应该问:这些决策基于什么度量标准,我们应该对谁负责?

对于机器学习而言,这变得很棘手,因为在对程序进行了大量历史数据的培训之后,找出做出某个决定的原因不再是一件容易的事。这就是所谓的黑匣子问题。

并建议:

接触公平技术有很多角度,其中包括提高公众意识和倡导性,促使科技公司负责,参与更多不同的声音以及制定更具社会意识的CS教育课程。

我还将添加使用AI本身来检测AI系统中的歧视的观点。宾夕法尼亚大学的最新研究表明:

不论是由人类决策者还是由自动化AI系统来检测决策所导致的这种歧视,都是极具挑战性的。随着人工智能系统在许多领域(包括警务,消费者金融,高等教育和商业)自动化决策的自动化,这一挑战进一步加剧。

该团队创建了一种AI工具,用于检测人类决策者或AI系统对诸如种族或性别之类的受保护属性的歧视,该工具基于因果关系的概念,在这种因果关系中,一件事情(一种原因)引起另一件事(一个原因)。影响。

总之,游戏化提供了一种简单的方法,可以通过玩法和提高意识来吸收概念。“最合适的生存”在扩大对道德和人工智能的认识方面可以发挥重要作用:

这就是为什么我们希望那些以前没有上过计算机科学课,但仍然有很多话要加入的人可以访问技术伦理方面的问题。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。