欧洲广播联盟 (EBU) 和英国广播公司 (BBC) 周三发布的最新研究显示,领先的人工智能助手近一半的回答会歪曲新闻内容。
这项国际研究研究了领先的人工智能助手对新闻问题的 3000 条回答,这些助手是使用人工智能理解自然语言命令来完成用户任务的软件应用程序。
它评估了 14 种语言的人工智能助手的准确性、来源以及区分观点与事实的能力,包括 OpenAI 的 ChatGPT、微软的 Copilot、谷歌的 Gemini 和 Perplexity。
研究显示,总体而言,45% 的人工智能响应至少包含一个重大问题,其中 81% 存在某种形式的问题。
根据路透社研究所的《2025 年数字新闻报告》,大约 7% 的在线新闻消费者和 15% 25 岁以下的消费者使用人工智能助手来获取新闻。
路透社已与这些公司取得联系,征求他们对调查结果的评论。
公司表示他们希望改进
谷歌的人工智能助手Gemini此前曾在其网站上表示,欢迎反馈,以便能够继续改进该平台,使其对用户更有帮助。
OpenAI 和微软此前曾表示,幻觉——即人工智能模型生成不正确或误导性的信息,通常是由于数据不足等因素造成的——是他们正在寻求解决的一个问题。
Perplexity 在其网站上表示,其“深度研究”模式之一拥有 93.9% 的事实准确度。
人工智能助手经常犯采购错误
研究显示,三分之一的人工智能助理回复显示出严重的来源错误,例如缺失、误导或错误归因。
报告称,谷歌人工智能助手 Gemini 的回复中,约 72% 存在严重的采购问题,而所有其他助手的这一比例低于 25%。
报告称,所有研究的人工智能助手的回答中有 20% 存在准确性问题,其中包括过时的信息。
CBC/Radio-Canada、Postmedia、Metroland、多伦多星报、环球邮报和加拿大报社对 ChatGPT 创造者 OpenAI 发起联合诉讼,指控其使用新闻内容训练其 ChatGPT 生成人工智能系统。这些新闻机构表示,OpenAI 从其网站上“抓取内容”,侵犯了版权。
该研究引用的例子包括 Gemini 错误地陈述了一次性电子烟法律的变更,以及 ChatGPT 在教皇方济各去世几个月后将其报告为现任教皇。
来自加拿大广播公司、加拿大广播电台等18个国家的22家公共媒体机构以及法国、德国、西班牙、乌克兰、英国和美国等国家的媒体机构参与了这项研究。
EBU 表示,随着人工智能助手越来越多地取代传统的新闻搜索引擎,公众的信任可能会受到损害。
EBU 媒体总监让·菲利普·德泰德 (Jean Philip De Tender) 在一份声明中表示:“当人们不知道该相信什么时,他们最终就会什么都不相信,这会阻碍民主参与。”
EBU 的报告敦促人工智能公司改进其人工智能助手对新闻相关查询的响应方式,并更加负责任,并列举了新闻机构本身如何拥有“强大的流程来识别、确认和纠正”错误的例子。
“确保人工智能助理也承担同样的责任非常重要,”它说。