“歐米伽未來研究所”關注科技未來發展趨勢,研究人類向歐米伽點演化過程中面臨的重大機遇與挑戰。將不定期推薦和發布世界范圍重要科技研究進展和未來趨勢研究。(->關于歐米伽理論)
在ChatGPT發布幾個月后,神經網絡先驅特倫斯·塞諾夫斯基(Terrence Sejnowski)在文章中提到,他正在努力適應大語言模型(LLMs)所展現出的驚人能力。他寫道:
“某些過去幾年都未曾預料到的事情開始發生了。一道門檻被突破了,就像某個外星生物突然出現,能以一種令人毛骨悚然的類似人類的方式與我們交流……它們的一些行為似乎顯得很智能,但如果這不是人類的智能,那它們的智能本質究竟是什么?”
那么,LLMs及基于它們構建的人工智能(AI)系統的智能本質究竟是什么?對此仍然沒有一致的答案。許多人將LLMs類比于一個單獨的人類思維(或者像塞諾夫斯基認為的那樣,像一個外星生物的思維)——一個能夠思考、推理、自我解釋,甚至可能擁有自身目標和意圖的思維。
另一些人則提出了完全不同的方式來理解這些龐大的神經網絡:比如將它們視為能夠模仿多種角色的“角色扮演者”;將它們比作圖書館和百科全書等文化技術,使人類能夠高效訪問由其他人類創建的信息;將其看作“人類智能的鏡子”,“并非自行思考,而是生成復雜的反映,由我們的記錄思想投射而成”;將其描述為網絡內容的模糊JPEG文件,是訓練數據的近似壓縮;或將其稱為“隨機鸚鵡”,通過“隨機拼接語言形式序列”來運作,“但不參照任何意義”;最貶低的比喻則是將其描述為一種增強版的自動完成功能。
在AI領域,這些不同的隱喻暴露了對LLMs本質的看法分歧。鑒于對這些系統驚人能力及其不可預測錯誤的有限理解,有人認為“隱喻是目前我們能用來接近這個黑匣子的唯一工具”。
AI領域一直嚴重依賴隱喻。AI系統被稱為具有“知識”和“目標”的“智能體”;LLMs通過獲得“獎勵”進行“訓練”;以“自監督”的方式通過“閱讀”大量人類生成的文本進行“學習”;并通過稱為“思維鏈”的方法進行“推理”。不僅如此,甚至該領域最核心的術語——神經網絡、機器學習和人工智能——本身也是對人類能力和特征的類比,而這些能力與機器的能力仍然有很大差別。早在1970年代,AI研究員德魯·麥克德莫特(Drew McDermott)就將這種擬人化語言稱為“美好的助記符”,其本質是希望這些隱喻最終成為現實。
人類當然傾向于擬人化非人類事物,包括動物、公司,甚至天氣。但當面對能用流利語言與我們交流的AI系統時,這種傾向尤其顯著。它們使用第一人稱代詞,并談論自己的“感受”。我曾問Anthropic的聊天機器人Claude,它最熱衷于什么。它回答說:“如果我考慮我最熱衷的事情,那會是分析和發現的過程——將復雜的問題或想法分解開來,深入理解。我尤其喜歡幫助他人學習和發現新見解時的過程。我在從多個角度探索問題時感到非常滿足。”我問ChatGPT同樣的問題,它告訴我:“我特別熱衷于幫助人們找到清晰的思路和新的視角,無論是深入探討一個復雜的話題、探索創意想法,還是讓日常任務更輕松一點。我喜歡看到某些事情在某人腦中‘豁然開朗’的時刻——那種頓悟或靈感的瞬間。”
盡管OpenAI的首席執行官山姆·阿爾特曼(Sam Altman)曾勸告公眾不要擬人化AI,并將AI系統看作“工具”而非“生物”,但像Claude或ChatGPT這樣的LLMs卻被設計成了完全相反的效果:讓人們將它們概念化為具有情感、欲望、信念和自我意識的個體思維。從上述的回答中可以看出,這些聊天機器人表述了個人的享受、滿足感和熱愛。雖然這使對話體驗更自然,但讓人感覺聊天另一端是一個“思維體”會影響用戶對模型的期望,例如信任其輸出的程度,是否認為它能夠“理解”或“同情”用戶,甚至是否認為它是一個可以與之形成浪漫關系的實體。
我們對LLMs的隱喻不僅會影響我們如何與這些系統交互、信任它們的程度,還會影響我們如何科學地看待它們,以及如何制定法律和政策來規范它們。
“將LLM視為個體思維”的隱喻推動了某些科學研究方向:如果你在這種隱喻下工作,給一個LLM進行智商測試或其他旨在評估人類的標準化測試似乎是很自然的做法。此外,你可能會認為給LLMs進行性格評估或在心理實驗中將它們作為人類的替代品具有意義,甚至考慮是否應對這些系統給予“道德關注”。如果你將LLMs看作更像復雜的數據庫或用戶友好的圖書館,這些評估和研究就顯得沒什么意義。
“LLM作為思維”的隱喻也被用于法律辯論中。所有大型AI公司都在未經許可或補償的情況下使用大量書籍、新聞文章和其他受版權保護的文本和圖像來訓練其模型;作家、新聞媒體、藝術家和其他創作者因此對這些公司提起了版權侵權訴訟。被告的主要辯護之一是,AI在受版權材料上進行訓練屬于“合理使用”,而這一論點基于LLMs類似人類思維的觀點。微軟首席執行官薩蒂亞·納德拉(Satya Nadella)反駁這些訴訟時這樣說:“如果我閱讀了一系列教科書并創造了新的知識,這算是合理使用嗎?……如果一切都被版權覆蓋了,那我就不應該讀教科書和學習,因為這會構成版權侵權。”
法律學者杰奎琳·查爾斯沃斯(Jacqueline Charlesworth)反駁道,這種隱喻依賴于人類對閱讀、學習和創造的直觀理解,使用擬人化語言來引導公眾(誤)認為AI機器的學習和創造像人類一樣,即它們具有概念思維和從具體知識中進行概括的能力。語言學家艾米麗·本德(Emily Bender)進一步指出,納德拉將LLMs對其訓練文本的處理等同于人類從書籍中閱讀和學習的行為,“低估了成為人類的意義”。
最后,“AI作為思維”的隱喻深刻影響了關于AI系統可能存在的“生存風險”的討論,這種風險假定這些系統可能具有類似人類的追求權力的沖動,并可能威脅人類的生存。這種假設在AI政策討論中被認真對待。
AI研究者仍在尋找正確的隱喻來理解我們這些神秘的創造物。然而,隨著我們人類對這些系統的部署、使用方式的選擇,以及我們研究它們、制定法律法規以確保其安全和倫理的方式,我們需要高度警惕那些潛移默化塑造我們對其智能本質的隱喻。
來源:https://www.science.org/doi/10.1126/science.adt6140
來源:歐米伽未來研究所微信號
1、本文只代表作者個人觀點,不代表本站觀點,僅供大家學習參考;
2、本站屬于非營利性網站,如涉及版權和名譽問題,請及時與本站聯系,我們將及時做相應處理;
3、歡迎各位網友光臨閱覽,文明上網,依法守規,IP可查。
作者 相關信息
內容 相關信息
? 昆侖專題 ?
? 高端精神 ?
? 新征程 新任務 新前景 ?
? 習近平治國理政 理論與實踐 ?
? 國策建言 ?
? 國資國企改革 ?
? 雄安新區建設 ?
? 黨要管黨 從嚴治黨 ?