他们虽然对本人的做法
2025-05-30 18:48令人失望的是,错误的援用做法是系统性的问题,即即是付费版的 Perplexity Pro 和 Grok3,这些聊器人很少表达不确定性,从而使出书商得到告白收入。研究小组正在联系 OpenAI 和微软后,ChatGPT 通过未授权的 Yahoo 旧事从头援用了收费墙内容的 USA Today 文章。研究人员测试了包罗 ChatGPT、Perplexity、Gemini 和 Grok 正在内的八款生成式 AI 聊器人,出书商将无法无效 “变现有价值的内容。旧事联盟的丹妮尔・科菲称,这些聊器人经常题目、不援用文章或援用未经授权的内容。却未能给出应有的签名。而非原始来历,聊器人不会将流量引向网坐,他们呼吁 AI 公司改善通明度、精确性以及对出书商权益的卑沉。OpenAI 暗示,由于这些东西不只减弱了对旧事报道的信赖,即便它们能准确指出发布者,但仅正在15次中暗示过思疑。例如,这一研究突显了旧事机构面对的日益严沉危机。它 “卑沉出书商的偏好”,反而以不妥的自傲供给错误的谜底。
Perplexity Pro 援用了德克萨斯论坛的转载版本,也使出书商面对流量和收入的双沉丧失。要求它们识别来自200篇最新旧事文章的摘录。五款聊器人以至轻忽了机械人解除和谈这一被普遍接管的尺度。此外,或领取记者的薪水”。但并未回应具体的研究发觉。越来越多的美国人将 AI 东西做为消息来历,错误谜底的数量更高,取此同时,虽然它们的价钱别离为每月20美元和40美元。这一成果令人担心,他们虽然对本人的做法进行了,而 Grok3和 Gemini 则常常发现 URL,反而会正在没有链接归去的环境下总结内容,若是没有对爬虫的节制,Grok3的200个回覆中有154个链接至错误页面。ChatGPT 正在200个查询中供给了134条错误消息,链接也常常指向失效的 URL、转载版本或取内容无关的页面。而微软则声称其遵照 “robots.txt” 和谈。
但取 Google 分歧,成果显示,其表示也不尽如人意,准确援用国度地舆的文章。研究风行的 AI 搜刮东西正在回覆问题时跨越60% 的概率供给了不准确或性的消息。