机器学习模型是针对人类行为进行训练的,擅长突出可预测或“正常”的行为和模式。然而,全球性流行病的突然降临在人类行为的一些巨大变化账户造成的自动化进入一个“急转直下”,揭露集成系统的脆弱性,我们来依靠。
这些漏洞的规模和范围(影响范围从库存管理到全球供应链物流的运营)的实现恰逢我们比以往任何时候都更需要人工智能(AI)的时刻。例如,人工智能技术正在启用联系人跟踪应用程序,这可能有助于减轻的传播。在广泛的测试短缺中,医院已开始使用AI技术来帮助诊断患者。
尽管如此,人工智能在医疗领域的扩展可能同时导致对隐私和公民自由等方面的深远威胁。即使AI系统相对准确,它们在复杂的社会环境中的实施也会导致意外和意想不到的问题,例如导致过度测试,这对于患者而言不方便,并且对资源紧张的医疗机构造成沉重负担。与负责任地开发和实施AI技术相关的挑战要求从一开始就采用一套实践,机制和政策。
加州大学伯克利分校长期网络安全中心的一份新报告及时概述了目前正在负责任地推广AI技术的一些方法。这些范围从监视和文档技术到可以在AI开发流程的不同阶段使用的标准和组织结构。该报告包括三个案例研究,可以为其他AI利益相关者(无论是公司,研究实验室还是政府)提供指导,以应对在不确定时期如何促进负责任的AI创新的决策。
第一个案例研究探讨了Microsoft的AI,工程与研究中的伦理与影响(AETHER)委员会,并强调了将AI原理整合到一家主要技术公司中所需要的内容。众所周知,谷歌试图在一周之内解散AI道德委员会的尝试,然而,尽管取得了一些显著成功,但最初成立于2018年的AETHER委员会却相对落后。AETHER在Microsoft内部建立了一种机制,该机制有助于对有争议的AI用例进行结构化审查,从而为高管和员工提供了举报问题,提出建议以及制定新的全公司政策的途径。