您的位置:首页 >精选知识 >

一种在不阻碍进步的情况下管理人工智能道德使用的方法

德克萨斯A&M大学公共卫生学院的研究人员正在开发一种新的治理模型,用于在快速发展的人工智能(AI)领域进行道德指导和执法。研究人员认为,这种模型被称为具有可信执行的CopyleftAI或CAITE,将在不阻碍技术进步的情况下防范AI的潜在危害。

公共卫生学院助理教授兼卫生法律与政策项目主任、法学博士CasonSchmit、SageBionetworks的MeganDoerr和宾夕法尼亚州立大学法学博士JenniferWager在《科学》杂志最近的一篇文章中讨论了他们的新模型.

人工智能(AI)有望彻底改变我们日常生活的方方面面。然而,滥用基于人工智能的工具可能会造成伤害,尤其是对已经面临不平等和歧视的社区。这种潜在的危害需要通过法规和政策进行道德指导。但人工智能的快速发展和政府监管的僵化性质使得制定此类道德指南具有挑战性。

Schmit、Doerr和Wager开发了CAITE模型来应对这些挑战。CAITE结合了copyleft许可和专利流氓模型的各个方面,这两种管理知识产权的方法可以被认为是相互矛盾的。

Copyleft许可允许在归属于原始创作者或非商业用途等条件下共享知识产权,并且衍生作品必须使用与原始作品相同的许可条款。知识共享许可是一种copyleft许可。然而,copyleft许可方案通常几乎没有执行力。

CAITE模型的另一面使用专利流氓方法,它使用执法权来确保合规性。专利流氓是一个拥有知识产权并在法庭上起诉他人作为产生收入而不是创造或许可技术的方式的组织。

CAITE模型建立在道德使用许可之上。该许可证将限制某些不道德的AI使用,并要求用户遵守行为准则。重要的是,它将使用copyleft方法来确保创建衍生模型和数据的开发人员也必须使用与父作品相同的许可条款。许可证会将许可证的执行权分配给指定的第三方,称为CAITE主机。通过这种方式,所有这些道德使用许可的执行权将集中在一个组织中,使CAITE主办方成为AI的准政府监管机构。

“这种方法结合了两个世界的优点:一种与行业一样快速灵活的模式,但具有传统政府监管机构的执法力度和权力,”施密特说。

作者指出,使用AI开发者社区指定的非政府方可以提高执法灵活性和监督信任度。CAITE主办方可以设定不道德行为的后果,例如经济处罚或报告违反消费者保护法的情况。

同时,CAITE方法允许宽大政策促进自我报告,并提供典型政府执法计划通常缺乏的灵活性。例如,鼓励AI用户报告他们在AI模型中发现的偏差可以使CAITE主机能够警告依赖这些潜在危险AI模型的其他AI用户。

Schmit及其同事指出,CAITE方法虽然灵活,但需要AI社区的很大一部分参与。此外,使用CAITE方法建立的道德政策的试点实施将需要进一步的研究和资金。实施该模型还将依赖来自许多不同学科的AI社区成员来开发其功能并克服出现的挑战。

虽然这需要大量的社区支持,并且可能需要政府的激励措施,但Schmit及其同事表示,与政府最终可能实施的严格且适应缓慢的法规相比,业界可能更喜欢更灵活的CAITE框架。

“促进道德和可信赖的人工智能的努力必须超越法律规定的可接受行为的基准,”瓦格纳说。“我们可以而且应该努力做得比最低限度可接受的更好。”

一旦实施,CAITE将在不阻碍技术进步的情况下防范人工智能的潜在危害。研究人员表示,随着人工智能继续扩展到我们日常生活的更多领域,响应式道德框架的价值将变得至关重要。

免责声明:本文由用户上传,如有侵权请联系删除!