考慮到這些系統的巨大規模,不可能準確判斷它們的輸出有多少是錯誤的 。但至少Stack Overflow已經認為,ChatGPT目前誤導用戶的風險太高了 。
另一些人則把人工智能審核的問題交給ChatGPT本身 , 要求ChatGPT回答支持和反對它自己的論據 。在一個回復中,ChatGPT自己也得出了與Stack Overflow完全相同的結論:“總的來說,是否允許在Stack Overflow上使用人工智能生成答案是一個復雜的決定,需要社區仔細考慮 。”
人工智能專家們目前也在討論這些大型語言模型帶來的潛在威脅 。Facebook母公司Meta的首席人工智能科學家楊立昆(Yann LeCun)認為,雖然大型語言模型肯定會產生錯誤信息,但只有當錯誤信息被廣泛傳播、閱讀和相信了才會產生傷害 。也有人說 , 這些系統大規模且廉價生成文本的能力,勢必會使得虛假信息大量傳播 。
對審核機制的挑戰
迄今為止,幾乎沒有證據表明大型語言模型有不好的影響 。但Stack Overflow和其他一些專家相信,這些系統的龐大體量確實會帶來新的挑戰 。該網站的運營人員在宣布禁用ChatGPT時也表達了同樣的觀點,他們指出:“人工智能生成的答案有數千個,而這些答案通常需要具有專業知識的人詳細閱讀,才能確定答案實際上是錯誤的 , 這些錯誤信息已經淹沒了我們以志愿者為基礎的高質量問答社區 。”
令人擔憂的是,這種模式可能會在其他平臺上重復,大量人工智能內容會用看似合理但不正確的回答淹沒真實用戶的聲音 。
然而 , ChatGPT究竟如何在網絡的不同領域發揮作用,將取決于平臺的性質及其審核功能 。大量錯誤回答產生的問題能否在未來通過過濾器等工具得到緩解還有待觀察 。
一位曾經在《GQ》和《滾石》等出版物工作的事實核查員表示 , 紙質新聞時代,每個事實都必須包含權威的一手或二手資料來源,但現在已經很少有出版物有事實核查員,這就把責任推給了采訪人員和編輯 。信息爆炸時代,以人為媒介傳播的虛假信息尚且讓審核機制“頭疼”,很難想象當人工智能開始編造謊言,會帶來多大的挑戰 。
有不少專家強烈反對ChatGPT有朝一日可能取代傳統搜索引擎的想法 。如果Stack Overflow這種專業網站的審核速度都無法跟上人工智能帶來的錯誤信息,那么很難想象其他網站能夠管理鋪天蓋地的AI“廢話” 。
當一個錯誤信息像閃電一樣在社交媒體上傳播時,搜索引擎需要提供可證實的信息,而不是一段看似可信的內容 。
華盛頓大學語言學教授Emily Bender最近再次強調大型語言模型“不適合”搜索:“因為它們被設計成只會胡編亂造,也沒有任何信息素養 。”
OpenAI在其發布演示的博客中也明確指出了這一弱點,并解釋說修復它是“具有挑戰性的” 。OpenAI表示:“在人工智能的強化學習訓練中,目前尚沒有真相來源;訓練模型更加謹慎,使其能夠拒絕回答問題;監督訓練會誤導模型,因為理想的答案取決于模型知道什么,而不是人類演示者知道什么 。”
所以很明顯,OpenAI非常清楚ChatGPT在看似無所不知的表面下充滿了“廢話”,因為他們從來沒有想過這項技術會是提供真相的來源 。
不過,最重要的問題是:人類用戶會接受這些似是而非的回答嗎?
在這個輿論時常反轉的時代,可能真的會 。因為只要一個消息聽起來合理,許多人就會認為這是正確的 。
相關經驗推薦
- 火爆全網的ChatGPT,早被資本盯上了,國內有人剛融了10億
- 別被火爆全網的ChatGPT“騙了”
- “隆鼻精油”不靠譜
- 美國“非二元性別”官員,又被指控在機場偷行李
- 使用多年的小學教材插圖被指“丑”,家長和專家怎么看?
- 茶七網的茶葉怎么樣
- 幼師被指罰站女童并讓同學數落她 園長:正常教育
- 不靠譜的育兒習俗盤點 不靠譜的育兒習俗有哪些
- ChatGPT死活不認27能被3整除,網友:不是說AI要統治世界了嗎?
- 不花錢,讓「情圣」ChatGPT教你怎么追馬斯克!
