尽管人工智能已经出现在我们的生活中多年,但2022年是该技术的主要试验场。在ChatGPT、AI艺术一代和拥抱AI的好莱坞之间,AI在公众中找到了一种新的立足点和炒作。但它也带来了对隐私和道德的新一轮关注。
东北大学的人工智能专家表示,2022年为提高该技术的知名度所做的一切,2023年对于人工智能的未来同样重要——但它也将面临相当多的挑战。
东北大学人工智能体验研究所执行董事UsamaFayyad表示,围绕人工智能的炒作并不是去年定义该技术发展轨迹的唯一因素。随着人工智能在2022年公众形象的提升,围绕它的误解和误解也随之增加。
“在展示AI可以做什么方面肯定有重大贡献,但可能无法现实地解释其局限性和可能性,”Fayyad说。
他说,最近围绕AI的讨论的定义是对技术将使人类工作自动化的恐惧与对AI工具将增强而不是取代人类能力的“更现实的理解”之间的紧张关系。到2023年,让公众了解人工智能的潜力和局限性将比以往任何时候都更加重要。
“非常遗憾的是,在[关于ChatGPT]的讨论中,我们失去了很多这取决于循环中的人,”Fayyad说。“围绕这整个概念将会有一个很好的成熟,这不是要让人类脱离循环;而是要以正确的方式将人们带入循环。”
这并不意味着人工智能不会对生活的特定领域产生破坏性影响。Fayyad说,高等教育、招聘和创意领域的人们已经感受到技术的威胁,这是可以理解的。
教育工作者已经对ChatGPT及其让学生让OpenAI的聊天机器人在几秒钟内为他们写下整篇论文的能力感到恐慌。这是一种可能无法检测到的新型作弊行为,Fayyad预测到2023年将出现旨在打击此类行为的新工具。一名普林斯顿学生已经设计了一款应用程序来检测一篇文章是否是使用ChatGPT撰写的。
Fayyad说:“这意味着我们将看到用于对抗和检测此类事件何时发生的技术的显着增长。”
与此同时,东北大学艺术、设计和新闻学助理教授Fayyad和RahulBhargava一致认为,教育界必须适应这项技术,而不仅仅是禁止它。
“会有新的写作方式吗?当然,”Bhargava说。“作为一名教授,我担心这个吗?当然,但我们已经在新闻系的学生中使用人工智能的东西了。我们正在尝试这些东西,我们正在弄清楚,我们会弄清楚的出去。”
人工智能可能会成为教育工作者在2023年重新审视他们的方法的催化剂。
“有什么不同的神器可以让我看到你学到了[东西],那不是计算机可以生成的两页书面论文吗?”巴尔加瓦说。“我为什么要让学生反省信息?那不是学习。”
Bhargava说,人工智能是否会取代人类工作不如2023年需要解决的更重要的伦理问题重要。更紧迫的问题是“谁在制造这些东西,以及他们提出了哪些关于其中存在哪些偏见的问题。”当像ChatGPT这样的工具是由视角有限且多元化的团队设计时,结果就是一个缺乏视角的工具。
“这些建成的系统……是我们文化和实践的镜子,”Bhargava说。“他们指向哪个方向,谁在看他们?不,他们没有嵌入偏见;他们反映了它。”
正在采取一些措施来解决围绕人工智能偏见的伦理问题。艺术与设计与计算机科学副教授王大阔表示,ChatGPT的真正创新在于它如何在训练人工智能的过程中使用人类数据标记器来限制偏见并提高准确性。
但即便如此,这项技术的好坏也取决于它所训练的数据。没有正确的数据,不准确和局限性就会变得更加明显——并且具有潜在的危险。
Wang预计像ChatGPT这样的案例将帮助公共、私营行业和研究界了解“数据是关键”。
“谁拥有数据,他们如何将现有数据转换成一种格式,他们可以[使用]微调或快速启动他们自己的模型版本?”王说。“那部分会变得越来越重要。”
尽管努力减少这些技术的偏见,但人工智能的危害,特别是在执法和监狱系统中的危害,尤其是在美国的少数民族人群中,是有据可查的。巴尔加瓦说,2023年的新变化是这些技术如何开始产生影响大多数。
这就是为什么东北大学的专家预计AI法律法规将在2023年开始制定——即使与技术本身相比它的发展速度非常缓慢。去年,纽约市通过了一项于2023年初生效的法律,限制在招聘实践中使用人工智能。
“现在进入监管方面可能还为时过早,尽管我们现在看到明确的成熟和加速是在隐私等问题上,当涉及到人工智能的不公平使用或决定谁承担责任时人工智能算法会产生无意或有意的偏见,”Fayyad说。