我经常在机器学习社区和媒体文章中听到的一点是“对超级智能的担忧会分散我们今天面对人工智能的真实问题X”(其中X =算法偏差,技术失业,可解释性,数据隐私,等等)。这种竞争态度给人的印象是,直接和长期的安全问题都存在冲突。但他们之间真的存在权衡吗?
我们可以更具体地提出这个问题:这两种类型的努力可能会争夺哪些资源?
媒体关注。鉴于媒体对人工智能的兴趣浓厚,有很多关于所有这些问题的文章。关于高级人工智能安全的文章大多是危言耸听的终结者,他们忽略了问题的复杂性。可以理解的是,这让许多人工智能研究人员感到恼火,并且他们中的一些人基于媒体中提出的漫画而不是真正的论点来解雇这些风险。媒体关注对高级AI风险的总体影响非常不利。如果媒体完全停止撰写有关超级智能的文章并关注当今人工智能系统的安全和道德问题,我将非常高兴。
资金。高级人工智能安全工作的大部分资金目前来自对这些问题特别感兴趣的捐助者和组织,如开放慈善项目和伊隆马斯克。他们不太可能资助那些不能推广到高级人工智能系统的安全工作,因此他们对高级人工智能安全研究的捐款并没有从即时问题中获取资金。相反,FLI的第一个拨款计划为当前的人工智能问题(如经济和法律影响)提供了一些资金。没有一个固定的资金来源,即时和长期的安全性正在竞争 - 它更像是两个不重叠的馅饼。进入这两个领域的资金越来越多,希望这种趋势将继续下去。
天赋。近年来,先进的人工智能安全领域不断发展,但仍然非常小,研究人员开展研究所产生的“人才流失”迄今为止微不足道。处理当前和长期问题的动机也往往不同,这些问题往往会吸引不同类型的人。例如,主要关心社会正义的人更有可能研究算法偏差,而主要关心长期未来的人更有可能处理超级智能风险。
总体而言,在资金或人才方面似乎没有太大的权衡,媒体关注权衡可以(理论上)通过将基本上所有的广播时间用于当前的关注来解决。这些问题不仅没有冲突 - 解决这些问题之间存在协同作用。两者都受益于在人工智能研究社区培养关注社会影响和积极主动地应对风险的文化。一些安全问题在近期和长期都非常重要,例如可解释性和对抗性的例子。我认为我们需要更多人为当前系统解决这些问题,同时考虑到更高级的未来系统的可扩展性。
人工智能的安全问题对于讨论会因“我的问题比你的问题更好”这样的地位竞赛而变得非常重要。这种错误的二分法本身就分散了人们的共同目标,即确保人工智能对现在和将来的世界产生积极影响。关心当前和未来人工智能系统安全的人是天生的盟友 - 让我们在实现这一共同目标的道路上相互支持。
文明的大部分好处都源于智力,那么我们如何才能通过人工智能增强这些好处,而不是在就业市场上取而代之,而且可能完全取而代之?