您的位置:首页 >科技 >

防止人工智能做出不道德决定的新数学公式

英国和瑞士的研究人员发现了一种数学方法,可以帮助监管机构和企业监管人工智能系统做出不道德的、可能非常昂贵且具有破坏性的选择。

来自华威大学、伦敦帝国理工学院和洛桑EPFL的合作者以及战略公司Sciteb Ltd认为,在一个决策越来越没有人为干预的环境中,有一个非常强烈的动机,知道在什么情况下人工智能系统可能会采取一个不道德的战略,并发现和减少这种风险,或完全消除,如果可能的话。

人工智能(AI)越来越多地应用于商业环境中。例如,考虑使用人工智能来设定要销售给特定客户的保险产品的价格。为不同的人设定不同的价格是有正当理由的,但做出某些最终损害公司利益的决定可能会更有利可图。

人工智能有大量的潜在策略可供选择,但有些策略是不道德的,如果监管机构征收巨额罚款或客户抵制你,或两者兼而有之,它们不仅会招致道德成本,还会招致巨大的潜在惩罚。

这就是为什么这些数学家和统计学家走到一起:通过创造一个新的“不道德的优化原则”来帮助企业和监管者,这将提供一个简单的公式来估计人工智能决策的影响。

免责声明:本文由用户上传,如有侵权请联系删除!