人工智能经常被提及的挑战之一是无法获得关于人工智能系统如何做出决策的充分理解的解释。尽管这对于机器学习应用程序(例如产品推荐或个性化方案)而言可能不是挑战,但在需要理解决策的关键应用程序中使用AI都会面临透明性和可解释性问题。
斯坦福大学计算机科学系战略研究计划主任史蒂夫·埃格拉什(Steve Eglash)在AI Today播客的一集中,分享了有关透明和负责任的AI演变的见解和研究。Eglash教授是计算机科学系的一名工作人员,他与一小群人一起开展研究计划,与大学以外的公司合作。这个小组帮助公司与学生共享观点和技术,与公司共享技术。在史丹佛工作之前,史蒂夫是一名电气工程师。在这个职位上,他介于技术和科学之间。在进入学术界之前,他还曾从事过投资,政府,研究工作。
由于AI在几乎每个行业和各级政府中都得到使用,因此深入研究AI用例的机会为斯坦福大学的学生提供了许多探索新领域的机会。充分了解AI的工作原理至关重要,因为我们越来越依赖于它在一系列应用中的应用。人工智能正在扮演关键任务,例如自动驾驶汽车。在这些情况下,错误可能是致命的或导致严重的伤害或伤害。因此,更深入地研究透明和可解释的AI系统可以使这些系统更加值得信赖和可靠。确保自动驾驶汽车等AI技术的安全至关重要。因此,我们需要能够理解计算机如何以及为何做出决定。与此同时,
许多现代的AI系统都在神经网络上运行,而我们仅了解其基础知识,因为算法本身很少提供解释方式。缺乏解释性通常被称为AI系统的“黑匣子”。一些研究人员将注意力集中在神经网络如何工作的细节上。由于神经网络的规模,很难检查它们的错误,因为神经元之间的每个连接及其权重都会增加复杂性,使事后检查决策变得非常困难。