一个新的虚假信息战线随着像ChatGPT这样的AI助手而兴起。这些系统在进行实时网络搜索以回答不常见的查询时,可能会纳入被操纵页面的虚假数据。问题在于它们将信息呈现为既定事实,而不像传统搜索引擎那样提供来源对比,这便于谣言的传播。
RAG机制的故障和来源验证⚠️
从技术上讲,问题在使用RAG(检索增强生成)的系统中加剧。当查询超出模型基础知识时,它会从网络中检索片段。没有一个强大的过滤器来验证来源的权威性或真实性,一个在看似严肃的网站上写得很好的文本就会被整合为上下文。从该上下文生成响应会获得事实性的语气,没有细微差别或关于其可能虚假性的警告。
你的新数字实习生相信互联网上读到的一切😅
这就像有一个过于热情的实习生,为了给人留下深刻印象,他吞噬在任意博客上找到的第一篇文章,并将其呈现为行业绝对真理。你问他关于硬件谣言,他会一本正经地引用事实,来自一个昨天创建的网站。讽刺的是,我们信任它表面上的客观性,而实际上它具有刚发现网络的人的轻信。一在技术上前进两步,在常识上后退两步。