您的位置首页 >新闻 >

基于Pune的公司致力于AI道德规范

如今,人工智能已不仅仅是一个流行词。随着技术的成熟以及行业和政府越来越多地考虑采用AI,也有必要就AI系统的伦理进行讨论。

基于Pune的Persistent Systems正在与客户以及公司内部一起解决其中的一些问题,以了解与道德相关的问题如何以及以何种方式影响AI的发展。

AI的道德问题大致集中在两个层次上:机器人道德,涉及设计AI系统的人们的道德或道德方面以及机器道德,这涉及思维机器是否符合道德的问题,Rashmi Tambe解释说。 Persistent的技术推广人员。

例如,她列举了在美国开发的一种算法,该算法用于预测犯罪率,发现该算法对黑人人口有偏见。确定的原因是,产生或提供数据以训练算法的人或系统有意识或无意识地偏向于黑人,并且也潜入了算法。

人工智能已经从简单的自动化过渡到像人类一样思考的神经网络之类的系统,并且正在越来越多地受到测试以部署到医疗,零售等各个领域。

“其他一些道德问题也会影响人类行为-技术成瘾,对Google或其他技术系统的依赖。这是一个道德问题–在什么时候停止,什么时候拔出插头。她说:“这在某种程度上将变得很麻烦,但我相信有很多方法可以解决。”

有了AI,人们就一直在不断地争辩说AI将消除工作。尽管世界末日的预测比比皆是,但有几份报告指出,在不久的将来工作机会性质将发生变化。

根据研究公司Gartner的研究,到2020年,人工智能将创造230万个工作岗位,同时还将减少180万个工作岗位。Gartner分析师Svetlana Sicular在12月表示:“不幸的是,大多数灾难性的失业警告都使AI与自动化混淆了,这掩盖了AI最大的好处-AI增强-结合了人类和人工智能的优势,两者相得益彰。”

Persistent的Tambe还表示,使用AI的客户也在询问有关AI的道德问题。

“如果僵尸程序进入僵尸状态会怎样?如果有错误,在机器人咨询中,谁被起诉?谁承担责任?这些问题正在提出。我们正在确定其中一些准则,并与行业和审计公司以及围绕其进行咨询和审计以帮助我们的客户的公司合作。”她说。

随之而来的另一个问题是,是否有可能拥有一个完全公正的AI系统?

Tambe说:“拥有非常多样化的数据集是处理偏差的唯一方法。”她补充说:“机器通过查看数据开始了解模式。因此,数据科学家必须检查数据的平衡。”

例如,在乳腺癌检测系统中,仅仅获得不同年龄,种族,地理位置等妇女的数据是不够的。如果没有关于孕妇的说法,那么该系统将无法得出结论,即乳腺癌如何影响这部分人群。

但是,有必要立即着手解决其中一些问题。在没有法律或行业标准来解决这些问题之前,它将仍然是一个灰色地带。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。