版權歸原作者所有,如有侵權,請聯(lián)系我們
近日,知乎“直答”AI搜索功能升級引發(fā)關注。不少人期望,這一國內首個支持答案全鏈路溯源的AI問答產品,真的能治治AI時不時“一本正經(jīng)地胡說八道”的毛病。
AI幻覺,是指AI在交互時生成與事實不符、缺乏依據(jù)的內容。比如,當你給美食AI助手上傳一張番茄炒蛋照片,得到的卻是“這是一道典型的意大利菜——馬蘇里拉奶酪配番茄沙拉,建議搭配紅酒享用”的反饋。這種源于模型訓練數(shù)據(jù)局限和算法缺陷下的必然,已經(jīng)嚴重影響了AI輸出信息的可靠性。
無止境的“拼圖游戲”
AI為什么會產生“幻覺”呢?
其實,這個過程就像孩童在昏暗的房間里拼湊萬花筒一樣。當開發(fā)者將海量的數(shù)據(jù)輸入到AI系統(tǒng)中時,這些數(shù)據(jù)就像散落的彩色玻璃碎片一樣,雜亂無章。而AI通過深度學習構建認知框架的過程,本質上就是在進行一場無止境的“拼圖游戲”。
在自然語言處理領域,像GPT這樣的系列模型,平均每個詞語的生成都要經(jīng)歷數(shù)百億次的概率計算。這種基于概率的創(chuàng)作機制,雖然讓AI能夠生成流暢自然的文本,但也時常讓它在知識的邊界模糊地帶“自由發(fā)揮”。就像人類在不自覺中會填補視覺盲區(qū)一樣,AI也會用統(tǒng)計學上認為“合理”的內容來填補數(shù)據(jù)的空白。
值得玩味的是,人類與AI的互動本身也在塑造這種“幻覺”。當用戶反復追問不存在的事物時,AI就像被觀眾要求不斷加戲的即興演員一樣,最終呈現(xiàn)的“作品”已然超出了原始劇本的范圍。這種現(xiàn)象在心理學上被稱為“確認偏誤的算法鏡像”,人類的執(zhí)著提問與AI的“討好性”回應形成了閉環(huán),共同編織出了虛實交錯的敘事。
應用中的“蝴蝶效應”
AI產生“幻覺”不可避免,在現(xiàn)實應用中也可能帶來一系列的問題。
有醫(yī)院就曾接診過一起特殊病例,AI輔助診斷系統(tǒng)將這一普通的皮膚過敏識別為“未知惡性病變”,只因為訓練數(shù)據(jù)中相似的圖像多與重癥病例關聯(lián)。這個事件暴露出“AI幻覺”可能帶來的“蝴蝶效應”——在醫(yī)療、司法、金融等領域,一個算法的偏差就可能引發(fā)連鎖反應,造成嚴重的后果。
教育領域也同樣面臨著挑戰(zhàn)。有高校教師發(fā)現(xiàn),學生用AI生成的論文中頻繁出現(xiàn)“19世紀量子力學奠基人”等時空錯亂的概念。這些“學術幻覺”不僅折射出了知識傳播的失真風險,更揭示了新一代學生面臨的認知危機:當AI成為知識中介時,我們該如何守護真相的邊界?
保持“數(shù)字懷疑”意識
我們該如何對抗AI的“幻覺”呢?
第一道防線其實就藏在古老的人類智慧中。硅谷某科技公司就頗具啟示性地開展了“紅隊演習”:他們專門雇傭古典文學學者來挑戰(zhàn)AI系統(tǒng),用荷馬史詩中的隱喻陷阱來檢驗機器的邏輯連貫性。這種人文與科技的碰撞,意外地成為校準AI認知的重要方式。
對于普羅大眾而言,我們更需要建立起“數(shù)字懷疑”的意識。一位母親發(fā)現(xiàn)育兒AI建議“給嬰兒飲用稀釋蜂蜜水”時,她沒有盲從,而是查閱了權威資料,避免了可能引發(fā)肉毒桿菌中毒的風險。這種保持清醒的交互態(tài)度,正是人機協(xié)作時代的生存法則。
站在文明演進的長河中回望,從原始壁畫的夸張變形到AI的算法幻想,人類始終在與“非真實”共舞。當大模型偶爾在對話中插入莎士比亞風格的十四行詩時,當文生圖工具繪出三只眼睛的蒙娜麗莎時,這些數(shù)字世界的“莊周夢蝶”,既是技術局限性的注腳,也暗藏著突破認知邊界的可能。在亦真亦幻的辯證中,人類與AI共同譜寫的,或許正是這個時代最動人的“科幻現(xiàn)實主義”篇章。
(作者系中國計算機學會科學普及工作委員會委員)
歡迎掃碼關注深i科普!
我們將定期推出
公益、免費、優(yōu)惠的科普活動和科普好物!