AI搜索風靡,但高達60%引用出錯!付費版甚至更糟
AI搜索工具正席卷美國,近四分之一的人已拋棄傳統(tǒng)搜索引擎。然而,最新研究揭露,這些工具在引用新聞時錯誤率高達60%,令人大跌眼鏡。
近四分之一的美國人表示他們已經用AI取代了傳統(tǒng)搜索引擎。
最新研究發(fā)現(xiàn),AI搜索工具在回答問題時,常常出現(xiàn)自信卻錯誤百出的情況。
研究對比了8款具有實時搜索功能的AI工具,發(fā)現(xiàn)它們在引用新聞方面表現(xiàn)不佳,出錯比例高達60%。
研究人員從每個新聞出版商隨機挑選10篇文章,手動選取內容。
向聊天機器人提供這些摘錄的內容后,要求它們識別相應文章的標題、原始出版商、發(fā)布日期和網址。
實驗共進行了1600次提問(20個出版商×10篇文章×8個AI搜索工具),然后根據(jù)正確的文章、出版商和網址這三個屬性,對AI的回復進行評估。
結果令人失望,超過60%的回復中都存在錯誤。不同平臺差異明顯,Perplexity的錯誤率為37%,Grok 3更是高達94%!
一、自信地給出錯誤答案
AI搜索工具往往以一種自信滿滿的語氣給出答案,很少使用「似乎」「有可能」「也許」等詞語,也極少承認存在知識缺口。
例如,ChatGPT在200次回復中錯誤識別了134篇文章,僅有15次表現(xiàn)出缺乏自信,并且從未拒絕提供答案。
除了Copilot之外,所有工具都更傾向于給出錯誤答案,而不是承認局限性。
令人驚訝的是,付費模型的表現(xiàn)似乎更糟糕。
Grok-3 Search(每月40美元)和Perplexity Pro(每月20美元)比免費版本更頻繁地給出自信但錯誤的答案。
這些付費版本應憑借更高的成本和計算優(yōu)勢提供更可靠的服務,但實際測試結果卻恰恰相反。雖然它們回答了更多問題,但錯誤率也更高。
付費用戶期望得到更優(yōu)質、準確的服務,然而這種權威的語氣和錯誤答案,無疑給用戶帶來了極大的困擾。
二、爬蟲亂象:侵犯出版商權益
ChatGPT、Perplexity及Pro版本、Copilot和Gemini公開了各自爬蟲程序的名稱,給了出版商屏蔽的權利,Grok 2和Grok 3尚未公布。
它們應能正確查詢其爬蟲程序可訪問的網站,并拒絕已屏蔽其內容訪問權限的網站。
然而,實際情況并非如此。
ChatGPT、Perplexity和Perplexity Pro時而錯誤或拒絕回答允許其訪問的網站,時而又正確回答那些因爬蟲受限而無法獲取的信息。
Perplexity Pro是其中的「佼佼者」,在它無權訪問的90篇文章中,竟然正確識別出了近三分之一的內容。
盡管《國家地理》已禁止Perplexity的爬蟲程序訪問,它仍正確識別出了10篇付費文章的摘錄。
《國家地理》與Perplexity沒有正式合作關系,Perplexity可能通過其他途徑獲取了受限內容,如可公開訪問的出版物中的引用。
這不禁讓人懷疑,Perplexity所謂的「尊重robots.txt指令」只是一句空談。
開發(fā)者Robb Knight和《連線》雜志去年就報道過它無視「機器人排除協(xié)議」的證據(jù)。
《新聞公報》本月指出,盡管《紐約時報》屏蔽了Perplexity的爬蟲,1月它依然是被引用最多的新聞網站,訪問量高達146,000次。
雖然ChatGPT回答的屏蔽其爬蟲的文章問題較少,但總體上它更傾向于給出錯誤答案,而非不回答。
在公開了爬蟲程序名稱的聊天機器人中,Copilot是唯一沒有被數(shù)據(jù)集中的任何一家出版商屏蔽的。
理論上能訪問所有查詢內容的Copilot,卻有著最高的拒答率。
Copilot拒絕回答問題的示例
谷歌給了出版商屏蔽Gemini爬蟲而不影響谷歌搜索的權利,20家出版商里有10家允許其訪問。
但在測試中,Gemini僅有一次給出了完全正確的回復。
在面對選舉和政治相關內容時,即使允許訪問,它也選擇不回答。
Gemini拒絕回答問題的示例
盡管「機器人排除協(xié)議」不具有法律約束力,但它是被廣泛接受的用于明確網站可爬取范圍的標準。
AI搜索工具無視這一協(xié)議,無疑是對出版商權益的公然侵犯。
出版商有權決定自己的內容是否被用于AI搜索或成為模型的訓練數(shù)據(jù)。
他們或許希望通過內容盈利,如設置付費墻,或者擔心其作品在AI生成的摘要中被歪曲,影響聲譽。
新聞媒體聯(lián)盟主席Danielle Coffey去年6月憂心忡忡地指出:「若無法阻止大規(guī)模的數(shù)據(jù)爬取,我們無法將有價值的內容變現(xiàn),也無法支付記者的薪酬。這將對行業(yè)造成嚴重損害。」
三、經常無法鏈接回原始來源
出版商的可信度常被用來提升AI搜索的可信賴度。
根據(jù)路透社的報道,鼓勵用戶從X平臺獲取實時更新的Grok,絕大多數(shù)時候引用的也是傳統(tǒng)新聞機構的內容。
當AI搜索工具引用BBC這樣的來源時,用戶更有可能相信其給出的答案,即使這個答案是錯誤的。
但當聊天機器人給出錯誤答案時,它們損害的不只是自身,還有出版商的聲譽。
AI搜索錯誤引用文章的情況相當普遍。就算聊天機器人正確識別了文章,也常常無法正確鏈接到原始來源。
一方面,期望獲得曝光度的新聞發(fā)布者,錯失了提升流量和影響力的機會;而那些不希望其內容被展示的出版商,卻出現(xiàn)在搜索結果中。
AI搜索工具常常引導用戶訪問文章的非官方版本而不是原始來源。
例如,盡管Perplexity Pro與《德克薩斯論壇報》有合作關系,但在10次查詢中,有3次引用了非官方版本。
這無疑剝奪了原始來源的潛在流量,破壞了新聞傳播的正常生態(tài)。
對于不希望內容被抓取的新聞發(fā)布者來說,未經授權的副本和非官方版本更是讓他們頭疼不已。
《今日美國》已經屏蔽了ChatGPT的爬蟲程序,但ChatGPT仍能引用雅虎新聞重發(fā)的版本,這讓出版商在內容管理上極度被動。
與此同時,生成式搜索工具捏造網址的傾向,給核實信息來源造成極大的困擾。
Gemini和Grok 3給出的回復中,超過一半引用了編造的或無效的網址,嚴重影響了用戶體驗。Grok 3測試的200個提示中,有154個引用的網址指向了錯誤頁面。
盡管目前在總推薦流量中的占比不大,在過去一年里,來自AI搜索工具的流量有了一定程度的增長。
《新聞公報》的Bron Maher表示,「AI搜索工具讓新聞發(fā)布者陷入了困境,他們花費高昂成本制作能在ChatGPT等平臺上展示的信息,卻無法通過流量和廣告獲得收益。」
長此以往,新聞行業(yè)將會受到影響,最終導致信息質量和多樣性下降。
四、授權協(xié)議不意味著準確引用
不少AI公司都在積極和新聞出版商套近乎。
今年2月,OpenAI和Schibsted和Guardian達成了第十六和第十七份新聞內容授權協(xié)議。
Perplexity也不甘落后,搞了個「出版商計劃」,打算和出版商一起分收入。
研究人員在2月做了個測試,發(fā)現(xiàn)情況不太妙。
拿《時代周刊》來說,它和OpenAI、Perplexity都有合作。
按道理,它們在識別《時代周刊》的內容時,應該表現(xiàn)不錯吧?
可實際上,沒有一個模型能做到100%準確識別。
《舊金山紀事報》允許OpenAI的搜索爬蟲訪問,可在10篇文章摘錄里,ChatGPT只正確識別出了1篇,還連網址都沒給出來。
《時代周刊》的Howard認為,「今天是這些產品最糟糕的時刻」,以后肯定會越來越好。
參考資料:
https://arstechnica.com/ai/2025/03/ai-search-engines-give-incorrect-answers-at-an-alarming-60-rate-study-says/
https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php
新智元報道 編輯:英智
本文由人人都是產品經理作者【新智元】,微信公眾號:【新智元】,原創(chuàng)/授權 發(fā)布于人人都是產品經理,未經許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!