改变我们生活方式的技术总是令人怀疑,尤其是信息技术。当新技术取代了低效的与世界互动的方式时,它通常会吸引有关技术如何对人类产生负面影响的世界末日宣言。甚至 印刷机 也被认为是我们文化灭亡的。从长期来看,许多信息技术为现代世界做出了积极贡献。
人工智能还处于起步阶段,因此从某种意义上说,它收到的不信任 与任何其他改变游戏规则的技术没有什么不同。在接下来的25至50年中,人工智能可能会反映印刷机,早期计算机或汽车的轨迹:初始应用程序将变得越来越强大。双方专家将警告不可思议的潜力和潜在的灾难。一旦波动消除,人工智能将可能为社会贡献净收益。
明确地说,这是狭窄AI的短期观点,擅长于特定任务。如今的AI仍然很初级,通常只擅长一次执行一件事。我相信在接下来的十年左右的时间里,高估的AI能力会被高估,但是我认为我们将在不久的将来看到有价值的收益。
通用AI使事情变得更加有趣,甚至可能带来危险。从那时起,我们将看到真正属于人类水平或更高水平的机器学习,该程序可以执行一系列认知任务,甚至比人类更好。通用AI的出现是因为对提高生产效率的先前技术的比较不再适用,因为我们根本无法预测它将产生什么。
即使从短期来看,人工智能将对社会有益,但它将迅速超过其明显的积极影响。除非我们认真对待风险和收益,否则随着AI变得更加智能,我们将在生命周期内面临安全,信息和生存威胁。
迄今为止,人工智能的实际影响主要体现在自然语言和图像处理上,这是传统计算机难以实现的。狭窄的AI 为任务带来 效率,这些任务 原本会拖慢流程或使人感到厌倦。如果正确完成,这将对业务产生总体积极影响。
更重要的是,人工智能将在不久的将来带来两项重大进步,这将挽救数百万人的生命:自动驾驶汽车和人工智能驱动的医学。
每年,全世界有超过 100万人死于车祸 ,其中绝大多数是由于人为失误,包括醉酒。自动驾驶汽车可以将驾驶死亡率降低10倍。我们已经看到Uber这样的公司 努力 将可上路的自动驾驶汽车推向地面(尽管投资了数十亿美元),但即使是最悲观的预测也是如此未来20年内,无人驾驶汽车将上路供私人使用。
人工智能驱动医学的潜在上行空间更加令人难以置信。 除了AI在医疗分类中的久经验证的实用性,它将 在制药行业中发挥 革命性的作用。目前,将药物带入市场的成本已超过10亿美元。这迫使制药公司将大众市场药品和所谓的绝望药品列为优先事项,消费者很可能会以任何必要的方式支付这些费用。人工智能可以以较低的成本和对公司的风险来预测哪些药物可能对特定疾病有效,并且可以减少对人和动物进行测试的需求。此外,由 AI主导的DNA分析 可能会迎来个性化药物治疗的时代。
随着技术的发展,挑战也将随之而来。第一个症结将是对AI越来越不满,因为他们对AI承担着目前由人类执行的工作-例如,驾驶卡车或招募患者。同样,从人类那里抢走工作的机器人也不是什么新问题。反吹的程度将取决于社会重新分源和适应工作变动的能力 。
第二个挑战是错误的信息生态系统,人类将无法做出正确的判断。随着机器学习如何创建更好,更细微的信息,人类将需要数字验证该信息是真实的,或者至少不是虚假的。但是几乎可以肯定它将成为猫和老鼠的游戏。随着验证变得更好,伪造品也将得到改善。
我相信 在我们的一生中可能会出现 AI驱动的错误信息危机。人工智能已经可以令人信服地操纵 图像 和 视频。女演员的脸被叠加在色情照片和视频上。世界领导人被要求发表荒谬或煽动性言论。
假新闻只是其中的一半。个人将面临其声誉(发送给同事的虚假裸照或在线发布的虚假复仇色情片),财务(影响信用的伪造单据)和法律地位(语音,视频或其他证据)的风险。 。这不是最坏的情况。这可能是正常的。
如果人们不知道什么是真实的或什么是假的,则个人责任可能会消失。即使是现在,战略人物仍使用AI创建的媒体来躲避公众舆论。例如,如果某个人被录音带抓住,说有性别歧视言论,那么他可以辩称该录音带是假的。当AI足够好时,将很难证明其他情况。在某个时候,先进技术的简单存在就足以对几乎任何信息产生怀疑。
到目前为止,最大的威胁是一般的AI。人们是否甚至可以使用人类水平的AI(或更高水平)存在疑问。但是除非我们找到证据证明人类的智能是由人类根本无法利用的过程驱动的,否则开发超级人工智能只是时间问题。但是,尽管有 雷·库兹韦尔(Ray Kurzweil)所说,我不相信超人类的人工智能将在我们的一生中创造出来。
AI在大多数任务中达到人类水平或更好的性能的合理时间表约为250年。历史上任何需要我们的智慧的东西-建造机器,解决问题,做出重要决定-都将由机器更有效地处理。也许会有一些杰出的数学家正在研究宇宙的方程式,但是我们其余的人将无济于事。
在这个世界上,大多数人可能将以普遍的基本收入为生。我们有可能自由地与自己,我们的朋友和家人一起学习和享受时间。但我认为,我们变得更有可能变得懒惰,无动力和不理性,成为社会的外壳,就像在《勇敢的新世界》中一样。正在进行的 关于UBI的长期研究 可能会阐明这将如何影响我们。
我同意已故的斯蒂芬·霍金(Stephen Hawking)的观点,他相信AI的诞生可能是“ 我们文明历史上最糟糕的事件。”因为我们根本不知道创建超级AI的结果,所以可能需要谨慎行事。因为这可能是人类历史上最好或最糟糕的事件之一。
收益是否会超过人工智能和机器学习带来的负面影响还有待观察。人工智能已经打开了通向错误信息统治时代的大门。从伪造的声明到宣布虚假战争的世界各国领导人,由AI创建的媒体都会对我们的阅读,观看和聆听产生怀疑。一旦我们深入研究技术的可能性,人类将被机器所取代。这些将是需要解决的巨大问题,而解决这些问题的公司将价值数十亿美元。除了技术解决方案,我看不到其他解决方案。
我们能做的最重要的事情就是立即开始有关如何应对通用AI的对话。我们需要了解我们是否可以建立有效的保障措施,例如 阿西莫夫的三项机器人法则 ,以控制任何可能的超级智能。