来自哈佛大学和麻省理工学院--Watson AI实验室的一组研究人员创建了一个他们认为可以检测文本是否由另一个AI生成的系统。他们希望为未来的工具奠定基础,以便更容易在网上发现虚假评论甚至新闻文章。
根据arXiv6月份发布的研究预印本,巨型语言模型试验室是“支持人类检测文本是否由模型生成的工具”。您可以点击此处自行试用演示。
该工具背后的基本概念非常简单:人类编写的文本在结构化方面更加难以预测。
由于其规模有限,该系统将无法“自动检测大规模滥用” - 它旨在仅在个别情况下嗅出假文本。
该系统并非接近完美:通过将文本与一些常见的AI文本生成器交叉引用,它能够将“假文本的人体检测率从54%提高到72%而无需任何先前的培训”。
研究人员还承认,未来的假文本生成器可以通过改变“每个单词或句子的采样参数使其看起来更像是它试图模仿的语言”来轻易欺骗他们的系统。