您的位置首页 >商业 >

谷歌禁止在武器中使用其人工智能技术

Alphabet Inc部门周四表示,根据其在新生领域的商业决策的新标准,谷歌将不允许其人工智能软件用于武器或不合理的监视工作。

这项限制措施可以帮助Google管理层化解数千名员工针对该公司与美国军方在无人机视频中识别物体的抗议活动数月之久。

谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)周四在博客中表示,谷歌将在网络安全,军事招募以及搜索和救援等领域寻求政府合同。

他说:“我们要明确的是,虽然我们不开发用于武器的人工智能,但我们将继续与许多其他领域的政府和军​​方合作。”

相关新闻三点分析/冠状病毒爆发:HDFC的Keki Mistry的Corona病毒恐慌症说,它如何影响投资者低价机票领域的贷款需求强劲,但高端市场却在放缓。对投资者有什么好处?

在过去的几年中,先进计算机的成本和性能上的突破已将AI从研究实验室带入了国防和健康等行业。谷歌及其主要技术竞争对手已经成为人工智能工具的领先销售商,这些工具使计算机能够审查大型数据集以做出预测,并比人类更快地识别模式和异常。

但是,人工智能系统在确定无人机打击方面的潜力比军事专家更好,或者从大量在线通信中识别异议者的潜力,引发了学术伦理学家和Google员工的担忧。

一位要求匿名讨论敏感问题的Google官员表示,如果原则已经制定,该公司去年就不会加入无人机项目。这位官员周四表示,这项工作太接近武器装备,即使重点是非进攻性任务。

一位知情人士上周表示,谷歌计划兑现对这个项目的承诺,直到明年三月。超过4,600名员工请Google尽快取消交易,最近几周至少有13名员工辞职表示担忧。

据路透社看到的一封内部电子邮件显示,一个由九名员工组成的委员会起草了AI原则。

Google官员将这些原则描述为任何软件开发人员都可以立即使用的模板。尽管微软公司和其他公司早些时候发布了AI准则,但是AI社区一直在紧追Google的努力,因为内部对无人机交易的反击。

Google的原则表示,它将不会追求旨在造成人身伤害的人工智能应用程序,不会将其与“违反国际公认的人权准则”进行监视的人工智能应用程序相提并论,否则将带来比“抵消性利益”更大的“实质性危害风险”。

华盛顿大学技术法学教授莱恩·卡洛(Ryan Calo)周四在推特上说:“明确声明他们不会助长暴力或极权主义监视是有意义的。”

谷歌还呼吁开发人工智能的员工和客户“避免对人们的不公正影响”,尤其是在种族,性别,性取向以及政治或宗教信仰方面。

该公司建议开发人员避免启动AI程序,以防止受到黑客的攻击,因为现有的安全机制不可靠,因此可能会造成严重破坏。

Pichai说,Google保留阻止违反其原则的应用程序的权利。Google官员承认执法将很困难,因为该公司无法跟踪其工具的每次使用,其中一些工具可以免费下载并私下使用。

Google限制军事工作的决定引起了国会议员的批评。纽约共和党代表皮特·金(Pete King)周四在推特上说,谷歌不寻求延长无人机交易“对美国国家安全是一次失败。”
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。