您好!今天是:2025年-4月24日-星期四
編輯導語
經過了前一段時間的辛頓(Hinton)離職事件和AI監管大討論之后,整個輿論界都在圍繞著“AI毀滅人類的100種方法”大出文章。在這種眾口一詞的大合唱里,其實一直都有一個不同的聲音。它來自于和辛頓并稱為“深度學習三巨頭之一”的楊立昆。
在5月15日VC20博客節目中,楊立昆又一次堅定的表達了他對AI威脅論的不屑。并給出了兩個相當有力的論據:1)人們不會給現階段的AI以完全自主權 2)只有社會動物才因為進化的需求產生了控制欲,智力和控制欲毫無關聯性。沒有控制欲和自主權的AI為什么要顛覆人類文明?又靠什么顛覆人類文明呢?目前身為Meta AI負責人的楊立昆一直都是個“唱反調的人”,在ChatGPT面世之后在推特上瘋狂嘲諷;對現在大家趨之若鶩的GPT式自回歸模型也并不認同。因此他在這次訪談中關于開源閉源,AI的能力,失業問題和模型規模等一系列涉及AI討論前沿的問題中都有著和我們之前聽到的大佬并不相同的新洞見。
作為發明出第一塊GPU,研究出卷積神經網絡的AI天才人物,他的來自反面的話也許能給我們比那些來自正面的主流話語更多的啟發。以下為完整訪談內容:
開場白
LeCun:AI將帶來人類的新文藝復興,一種新的啟蒙運動,因為AI將放大每個人的智力。這就像每個人都有一群比自己更聰明,對大多數話題都更加熟悉的人在幫助自己。它將賦予我們每個人更大的權力。Harry:Yeah,我對此非常興奮。我從我們的共同朋友David Marcus和Joshua Sokol獲得了很多幫助。非常感謝您能加入我的對話。LeCun:很高興見到您!
楊立昆的傳奇AI行業履歷
Harry:現在,我很想從一開始講起。我聽說過一些早期的故事,但我想從David Marcus講起。您是如何首次涉足AI世界并踏上這條道路的?
LeCun:當我還是法國的工程學本科生時,我偶然看到一本哲學書,其中皮亞杰(認知心理學家)和諾姆·喬姆斯基(著名語言學家)在爭辯“天生與習得”在語言中扮演的角色。喬姆斯基認為語言是與生俱來的,而皮亞杰則認為語言是習得的,具有某些內在結構。在皮亞杰一方,有一位名叫西摩爾·帕佩特的麻省理工學院教授。在他的論點中,他提到了“感知器”(即Perseptron,神經網絡的基礎節點)——一種早期的機器學習系統。我讀到這篇文章后,發現人們一直在研究機器學習,我對此非常著迷。我開始深入研究相關文獻,不久后發現大部分文獻出自20世紀50年代和60年代,基本上在60年代早期停止,因為一本書徹底終結了這門學科。諷刺的是,西摩爾·帕佩特正是這本書的合著者之一。然而,在10年后,他竟然稱感知器是一個驚人的概念。我立即被這門學科吸引,開始對還未稱之為機器學習的神經網絡產生興趣,這最終發展成深度學習。
Harry:我可以問您一個問題嗎,David? 在回顧您所取得的重大突破時,從最開始到重大突破需要多長時間?取得這些重大突破還需要解決哪些關鍵問題?
LeCun:第一個突破出現在我還在攻讀工程學學位時。我意識到要超越60年代被拋棄的那些系統(即感知器原型)的限制,必須找到能訓練多層神經網絡的學習算法。除了日本的少數人和一位叫杰夫·辛頓的人外,基本上沒有人在研究這類問題。辛頓在1983年發表過一篇論文,講述了所謂的“玻爾茲曼機”,這顯然是一種超越這些限制的方法。
我方面也開發出一種訓練多層神經網絡的方法,與我們現在稱之為“反向傳播”非常接近,但并不完全相同,更接近我們現在稱之為“目標傳播”的方法。然后,我發表了幾篇法語論文。1985年,在法國的一次會議上,我遇到了杰夫(辛頓昵稱),我們意識到我們一直在研究同一件事,我們的想法非常相似。但當時我還在攻讀博士學位,而他是卡內基梅隆大學的副教授。我們開始討論這個問題,然后我訪問了他在卡內基梅隆大學舉辦的暑期學校。當我完成博士學位后,我在他那里做了博士后研究,然后加入了貝爾實驗室。在多倫多工作期間,我與杰夫開發了卷積神經網絡,這現在是圖像和語音處理的主要方法。所以,這就是我最著名的成就,但它的起源要早得多。
Harry:我必須問您,約書亞(深度學習三巨頭中的另一位)描述了AI和神經網絡中存在的“興奮周期”,其中存在著“沒有人真正關心神經網絡“的十年沙漠時期。您如何在沒有人真正關心的情況下保持熱情?
LeCun:我們心里明白,這些方法最終會受到重視,我們需要打破人們對神經網絡的成見。的確,1990年代初,約書亞和我一起在AT&T貝爾實驗室工作。大約在1995年左右,學界對這些方法的興趣開始減弱。的確有10年左右的時間,不僅沒有人對神經網絡感興趣,人們甚至還在拿它開玩笑。然而,1996年,我的工作有所變化。我仍在AT&T的研究實驗室工作,但成為了部門負責人。這是互聯網早期,我的團隊開始研究一些與機器學習或神經網絡沒有太大關系的其他事情,比如圖像壓縮。隨著互聯網的到來,我們應該有一種掃描現有紙質文件并將其上傳到網絡上的方法,以便人們可以訪問它們。所以,我與長期合作者之一的麥克一起工作了5-6年。約書亞也參與了其中。
當我們基本上都離開AT&T時,該項目結束。之后,我重新開始研究(神經網絡)剪枝,杰夫也回到加拿大,之前他在英國呆了一段時間。約書亞、杰夫和我決定在21世紀初合作“重振”學界對神經網絡的興趣,發現新的算法并使其發揮作用。這幾乎花了10年的時間,但最終取得了成功。其他的夢想基本上是。。。
AI最近幾年發展很快, 但它還遠不如人類
Harry:我會問您一系列不同深度、廣度和明顯與不明顯的問題。請原諒如果有些問題顯而易見,我只是想問當我聽到您幾十年來的歷史背景時,今天看到的情況您有何感覺?我們是否處于AI發展的新拐點,或者這只是我們多年來見過的延續?
LeCun:是這兩者的結合。一方面,從研究的角度來看,今天我們看到的許多情況似乎是邏輯的延續,我沒有像公眾那樣被最近的進展所吸引,因為我已經看到這些進展在過去幾年中逐漸發生。另一方面,確實有一些事情令人驚訝。
自監督學習方法應用于Transformer架構的效果非常好,遠遠超出我們的預期。我們可以訓練系統理解語言、翻譯多種語言,然后繼續生成文本或回答問題,這種效果令人驚訝,人們沒有完全預料到這僅僅通過使其變大和在更多數據上訓練就可以實現。這無疑給每個人帶來了驚喜。這場革命發生在兩年前。
雖然公眾是通過最近推出的產品了解到這一點,但對我們來說,這更像是連續的進化。你會在許多技術進步的營銷活動中或AI領域看到這一點,公眾會關注其中的轟動性事件,但對許多人來說,這更像是連續的事情。它通常需要許多人采用已經存在的技術,稍稍推進一步,做些工程工作,然后展示一個演示來證明它的有效性。這就是深藍國際象棋計算機在1990年代中期達成的情況,以及斯坦福大學塞巴斯蒂安·朱恩團隊在DARPA大挑戰賽中獲得的100英里內自駕車的情況。還有AlphaGO、IBM的杰羅尼大戰等。從遠處看,這些似乎像跳躍,但在這個領域,這更像是一個連續的進化。
Harry:我可以問您過去一年左右令人驚喜的其他積極發展嗎?您說自監督學習和其效率。過去一年里還有其他超出預期的事情嗎?
LeCun:是的,我已經提到,僅僅訓練一個 Seq2Seq(序列對序列)的模型來預測序列中最后一個單詞,如果做得恰當,您會得到一個功能略微超出預期的系統。隨著這些系統變大和在更大的數據上訓練,這些(涌現)功能會出現。這無疑給每個人帶來了驚喜。
現在,作為研究人員和科學家,我們總是在尋找下一個目標。我現在感興趣的就是超越這一點。許多人將致力于應用大規模語言模型,這很好。后面將出現許多產品和人們可以做的新事情,這會很棒。但我已經開始對未來三到四年甚至五年的下一個階段的思考了:在這些系統中缺乏什么?
Harry:這將您的思考引向何方?
LeCun:這些系統離人類智力水平還差得遠。盡管您可能會這么認為(AI和人類智力差不多),因為這些系統在語言上很流暢;但它們思考、理解世界運作和計劃的能力非常有限,它們對世界的理解非常膚淺。原因是它們僅在語言上受過訓練,而語言只包含人類所有知識的一小部分。
人類的大部分知識不是語言學的,所有動物的知識也不是語言學的。我們理所當然地認為——這就是波拉尼悖論(人類所知遠勝于其所能言傳)。我們理所當然的所有能力和技能,比如計劃或非常簡單的事情,任何10歲的孩子都可以做,比如清理餐桌和裝滿洗碗機,任何17歲的孩子都可以學習駕駛,但我們沒有家用機器人。
Harry:如果它們不是語言學的,那么大多數——我很抱歉這些基本問題,但是那些我們目前AI模型和引擎無法攝取的知識又是什么?隨著時間的推移,它們能否被AI模型和引擎攝取?
LeCun:好吧,首先,毫無疑問,最終AI系統將以類似于人類的方式理解世界,以更好的方式。但它們不會是像我們現在討論的那種類型的自動回歸大語言模型,它們會有不同的原因很多。
但為了更直接地回答您的問題,任何與現實世界的養分有關的事情都需要對現實世界的體驗或模擬版本,這些大語言模型沒有,它們純粹從文本中訓練。您可以在那里添加一系列關于物理世界的問題,因為數據中有模板或與之非常相似的東西。同樣適用于計劃,您可以問他們計劃一次旅行或類似的事情,他們會采用訓練時學到的模板,但他們實際上沒有思維模型來理解世界如何運轉和允許他們計劃復雜的行動序列或使用工具等。
AI威脅論就是蒙昧主義,監管應該學維基百科
Harry:我能問一下為什么您說AI研究人員面對滅絕預言時會搖頭嗎?
LeCun:這有兩個不同的問題,這些概念(“人們為什么會覺得AI不可靠“和“AI到底有沒有能力毀滅人類“)有些相互垂直。我的意思是,在當前的自回歸模型中確實存在一些問題,即您只能通過兩種方式控制他們的答案。
第一種方式是修改訓練它們的數據的統計信息,可能使用人工反饋來獲得具體的答案;第二種方式是更改提示和問題形式的結合,您問他們的問題的形式,訓練數據的統計信息會完全決定系統產生的答案。
首先,它沒有持久的記憶。其次,您無法控制系統,無法要求事實性或像讓13歲的人可以理解的那樣對其施加約束。您可以試圖在提示中提到這一點,然后考慮您依賴訓練數據的統計信息是否適當做這一點;但沒有直接的方法來約束這些系統的答案以滿足某些目標,這使得它們很難控制和引導。
這產生了一些擔憂,因為人們某種程度上推斷,如果我們讓他們做任何我們連接到以太網的事情,他們可以隨意使用(互聯網的資源),他們會做瘋狂的事情,愚蠢的事情,可能危險的事情,我們將無法控制他們,他們會逃脫或控制,因為他們更大,所以他們會變得更加聰明。這純屬胡說。
首先,因為這不是我們將授予其自主性的系統類型。最終將被授予自主性的系統應該能夠組織一系列行動,那個系統將存在有需要被滿足的目標,而因為存在這些目標,它們將易于控制。它們將比當前的系統更易于控制。所以我的預測是,在幾年內,任何有理智的人都不會用完全自動性的大語言模型,他們會轉向在理性上更復雜和可控制的東西,它可以計劃其答案而不是只產生一個接一個的字符序列。好的,這是第一個謬誤。
第二個謬誤是,不知何故,(人們覺得)控制欲和能力與智力相關關。許多人都在說這句話,包括我的朋友杰森最近也說"不知何故,一旦使命變得智能,它就會失控,因為它比我們更聰明,它可以以我們甚至無法想象的方式影響我們。"
我認為這是一個巨大的謬誤,因為即使在人類物種內,最聰明的人也不一定想支配其他人。要支配其他實體,您不一定需要比它們更聰明,但您需要支配它們。這不是每個智能實體都會自發做的事情。
我們這樣做是因為人類進化中建立了影響他人的欲望,因為我們是社會物種。這同樣適用于狒狒、黑猩猩、狼、狗等。對長頸鹿來說不是這樣的,長頸鹿沒有支配任何人的欲望,因為它們是非社會動物,它們是獨居動物,它們實際上是領土性的。
我們需要區分這兩個概念:一方面是控制欲望和能力,另一方面是智力。我們將擁有超級國際機器作為我們的工具,這意味著我們每個人都將像一位企業領導者、政治家或一位學者,擁有比自己更聰明的人為他工作。
我的意思是,這很棒, 而不像是您感到被威脅......不是說因為您領導其他比您更聰明的人一起工作,您就不是一個好領導。
Harry:我能聽一下我們如何在模型中培養價值觀,使它們沒有支配欲望嗎?
LeCun:是的,我剛才跟你說過的目標。好吧,讓我描述一下我看到的未來AI系統的架構或未來AI系統。我們將擁有AI系統,基本上它將計劃自己的行動,行動可以包括您告訴AI的文字序列。但它們將計劃這些行動或文字序列,以優化我們為其設置的一系列目標。
其中一個目標可以是它是否可以回答我剛才問的問題;另一個目標可能是,它是否能把這個答案轉化成13歲小孩可以理解的水平。再下一個目標可能是,您知道,當我問它關于這個世界的問題時,他的回答要真實;或者當它談昨天政治事件的時候,它能否與您今天早上讀過的所有新聞報導相兼容。就是這樣的事情,對嗎?
所以,您將擁有那些系統,它們將有一系列目標,它們的輸出,它們的答案,按構造,將必須滿足這些目標。其中一些目標將是硬編碼的(寫進底層程序里的),以使這些系統足夠安全,比如如果它是一個能烹飪晚餐并能在其手臂上揮舞廚房刀具的家用機器人,那么里面會有一個條款說不要在周圍有人時移動手臂,因為您知道,它可能會傷害他們。這將是系統無法違反的目標,因為按構造,它必須滿足它們。這就是構建安全AI系統的方法——使它們產生的答案必須按構造滿足目標,您要設計這些目標,使其行為安全。
如何精確地做到這一點不是一個已經被解決了的問題,但您可以嘗試在小規模部署,看看效果如何。并在它不起作用時進行糾正,逐步修復它。但這不像如果你犯了錯,它就會毀滅人類。
Harry:這取決于我那個烹飪機器人,您永遠不知道。。。您如何確定誰有能力設置這種目標?它的對錯取決于誰去設計它。
LeCun:說得對。所以這將必須有一個審查過程,我們允許某些人這樣做。這和去審查誰可以給您看病,剪頭發,修理水管或汽車的資格一樣。所以肯定會一些審查過程,當然還有測試和市場部署程序,監管機構或潛在危險的東西,可能不是全部程序,但對許多應用程序來說是必要的,比如醫療保健、運輸相關的程序。
然后,也許還可以做的是,讓我們以智能助手為例:讓我們想象一個未來,每個人都可以與他們的智能助手交談,該系統將擁有接近人類智力的智力,可能比大多數人具有更豐富的知識。它們可以翻譯任何語言,并給您快速總結昨天的報紙,解釋數學概念給您,等等。所以人們可能幾乎完全使用這個來與數字世界互動。您不會去谷歌或維基百科,您只會與您的助手交談。
唯一正確做到這一點的方法是,為這些助理提供基礎設施,我的意思是,它們將如此普遍,如此多的東西將依賴于這些系統,我認為沒有人會接受這些助手被那些藏在地平線之后的私人公司控制。他們會堅持基礎設施開放,他們也會堅持關于如何訓練這些系統的審核過程可能像維基百科一樣,當一篇文章被修改時,某個編輯會檢查它,然后更改會被接受或不被接受,這樣的事情。
您可以想象,所有人類知識的公共知識庫將是您的助手,將通過某種眾包過程構建,也許類似于維基百科。將有許多人訓練和調整這些系統,以便您知道,無論它們產生什么,都是正確的。
開源完勝閉源,眾人拾材火焰高
Harry:這么有趣,您說到開放方法與封閉方法相比帶來的好處。我有點混亂,價值到底在封閉模型還是開放模型中產生?然后我們有來自谷歌員工的泄密內部備忘錄,上面說,“我們不是領先者,OpenAI。還有第三個(潛在競爭者),它實際上更重要, 但我們沒有注意到和總結出來。”
LeCun:這(備忘錄)是由我的同事在Fair整理的Llama模型引發的,它的代碼是開源的。這一模型很遺憾的只能用于研究和非商業目的,原因基本上是訓練數據的法律地位所引發的復雜法律問題,這超出了我的掌控。這并非是因為Meta缺乏開源的愿望,而是因為超出我理解范圍的復雜法律問題。
Harry:我可能太天真了,為什么開放會勝過更受控制的、資金雄厚的OpenAI或其他大型企業及其嚴謹但精簡的團隊?
LeCun:這很簡單,因為像Meta這樣的組織沒有獨占好主意的壟斷權。
如果采取開放方式,你基本上可以吸引全世界的智慧來為事物做出貢獻和提供想法。您知道,一家擁有400人的公司幾乎不可能考慮這些事情,甚至一家擁有50,000名員工的大公司可能也不愿意投入太多資源,因為他們可能不認為這在長期內有用,或者他們有更緊迫的事情要處理。
所以你把它交出去,然后你就有成噸成噸的人,有些人是本科生,有些人住在父母的地下室,他們會想出你永遠不會想到的或不愿意花時間去解決的驚人想法,例如讓70億參數的llama模型在Mac筆記本電腦上運行。這真的很驚人。
所以我認為這就是開源項目得以成功的原因,特別是當它們涉及基礎設施時。舉個例子,互聯網的早期,微軟和Sun Microsystems為互聯網提供基礎設施而展開了競爭,比如操作系統、Web服務器等。在Sun方面,它有Solaris操作系統和Java語言等。在微軟方面,它有Windows操作系統、IIS Web服務器和ASP程序。
結果,兩家公司都輸了。實際上,Sun幾乎破產,被甲骨文收購。Linux和Apache完全開源,你可能會問,為什么整個互聯網和技術行業都運行在Linux上?你的手機如果是Android系統,很可能也運行在Linux上,全世界約有四分之三的手機是這樣的。原因是開源方式能更好地聚集志同道合的人才完成共同項目,即使動機不一定是營利。
Harry:我同意你的觀點。我喜歡你和David Marcus的對話。我的問題是Meta如何獲勝?
LeCun:事實上,Meta過去開源了它研發的幾乎所有基礎設施。例如,React用于Web和移動應用開發框架,PyTorch用于AI研發基礎設施,現在PyTorch甚至不再屬于Meta,所有權已轉讓給Linux基金會。ChatGPT就是基于PyTorch開發的。OpenAI也運行在PyTorch上。事實上,除谷歌外,全世界都運行在PyTorch上,因為谷歌有自己的系統。
Meta不僅開源這些,還開源了其服務器背板設計,以便硬件制造商可以根據其規范來制造。除了偶爾因最近的法律或政策決定而產生的法律問題外,Meta開源了幾乎所有的內容。其他人可以使用你的技術,但你不能以同樣的程度利用它。除Facebook外,誰能使用智能NLP系統進行翻譯或內容審核?其他人有同樣的技術并不重要。
模型大小不重要,能夠設定子目標才是下一代AI核心
Harry:我完全同意你的觀點。這也引出我的下一個問題,你實際上也在Twitter上提到過,就是數據規模和數據可用性的問題。模型規模就是萬能的嗎?你如何看待小模型的價值?
LeCun:不,不是模型規模就是萬能的。Llama證明并向人們展示了這一點。Llama背后的人,特別是Édouard和他在巴黎的合作伙伴,證明你不需要非常大的模型就可以工作得很好。
我認為這為許多人帶來了一定的啟示,讓他們意識到,也許你需要上千個GPU運行幾周時間來訓練基本系統,但訓練完成后,你可以將其用于各種用途,并且很容易進行微調。最終,你可以在筆記本電腦上運行它,這真是太神奇了。或者在裝有一兩個GPU的臺式機上運行它。我認為,它在某種程度上開啟了人們的視野,讓他們意識到之前認為不可能的巨大機遇。我認為這將帶來更多進步,如果我們朝著我之前描述的人工智能系統設計方向前進,也許會稍微小一些。
Harry:為什么會更小?請詳細說明。
LeCun:當前的模型需要海量的數據進行訓練,遠遠超過任何人接受過的訓練。例如,Llama模型訓練的數據量高達140億個標記,相當于互聯網的四分之一,要花8小時每天正常速度閱讀,需要22,000年。顯然,這些系統可以從文本中積累大量知識,但我們不需要那么長時間就可以如此聰明和學習這么多。
我們的大腦在學習如駕駛汽車這種事情上遠遠高效于這些模型。一個青少年只需要約20小時的練習就可以學會駕駛,但我們仍沒有達到五級自動駕駛汽車。顯然,我們還缺少重要的東西。
我認為,人工智能系統學習的能力缺失的是通過觀察學習世界運作的方式,然后是制定目標的能力來達成目標的能力。超越當前,還需要設定子目標來達成更大目標的能力,這被稱為層次化規劃。
人類有此能力,許多哺乳動物和鳥類也有一定程度的規劃能力,或者只有非常簡單的規劃。
Meta打算怎么贏:開源;Meta過去為啥輸:要臉
Harry:你提到實際上較小的模型比預期的更有效率,模型規模并非萬能。我們還談到開放和封閉,我采訪了許多領先的人工智能專家,他們說價值會流向現有企業,初創公司沒有數據和模型,價值將流向現有企業。這是正確的嗎?鑒于你剛才說的模型規模并非萬能,初創公司也有可能獲利,對嗎?
LeCun:取決于你相信哪種情景。我認為會發生并期待的情景是我之前描述的,有某種開放平臺用于基本的語言模型。基本語言模型本質上被視為基礎設施,如TCP、Linux和Apache。完全開源。
然后,將有一堆企業在此之上構建產品,用于垂直應用和特定用途。為這些系統定制,為企業應用和個人用途提供支持等。這將產生全新經濟和就業機會,而不是使其消失。
我認為這種情景會發生,原因是這些系統本質上需要數百萬人的貢獻來使其準確和正確等,這種維基百科風格的方式。我認為專有(閉源)方法實際上會落后。
其次,你可以問自己這樣一個問題:哪些公司最有條件產生ChatGPT這樣的東西,顯然是谷歌和Meta,但為什么是OpenAI? OpenAI當時只有400多人,現在更多,但實際上規模更小。原因不是因為谷歌或Meta沒有能力或技術,而是因為當這些產品會帶來很大風險的情況下,他們沒有生產全新產品的壓力。
我們知道風險在哪里,因為在ChatGPT面世幾周前,Meta旗下的Fair推出了Galactica模型,這是一個實驗系統,他們推出了演示,以證明Galactica是一個大型生成模型。訓練于整個科學文獻,其目的是幫助科學家寫論文。你開始寫一個段落或其他內容來描述段落的主題,然后Galactica會完成該段落,它不會完全正確,你需要修正它,但它可以根據你所在的主題,在文獻中已知結果的基礎上構建表格結果或完成化學公式等。這對科學家非常有用。
但演示一推出,Twitter上就有人痛斥該系統,說這會破壞科學出版,因為任何人都可以寫出似乎權威的科學論文,但實際上毫無意義。該系統受到如此強烈譴責,建立該系統的人無法承受,取消了演示,說他們無法安然入睡。
這里是一個非常有用的系統示例,一個本可以極其有用的系統,特別是對非英語母語的科學論文作者,但基本上被AI悲觀主義者摧毀,他們沒有做風險和收益分析。文獻被無意義內容淹沒的風險太可笑了,因為論文需要評審等,它沒有明顯危險。
兩周后,ChatGPT問世,被視為救世主降臨。幾個月后,谷歌推出了Bart,在演示中,Bart對某個天文事實做出了小錯誤,導致谷歌股票下跌8%。這說明,當大公司推出某件事,特別是那些有聲譽要維護的公司,他們不可以推出看似無意義的東西,但對小公司來說卻可以接受。
這就是現狀,這就是為什么我認為存在一定的悖論,那就是擁有最佳技術的公司基本上可能難以推出新技術,這是因為法律問題和公共形象問題。
Harry:你不也認為這里存在一個很酷的商業模式挑戰嗎?這就是典型的創新者困境。為什么谷歌不這樣做?因為這會殺死谷歌廣告這個絕對的現金奶牛。服務一個搜索查詢的成本與此相比差異巨大,與保留一個很好的業務相比,你會殺死這個現金奶牛業務,而且收益未知。
LeCun:你別無選擇。毫無疑問,在一段時間內,我們可以采取措施,這可能需要很長時間,但毫無疑問,人們與數字世界的交互將會主要通過人工智能助手完成。他們可能會嵌入你的增強現實眼鏡,或者類似的東西,就像斯派克·瓊斯的電影《她》中的情景,這不是一個不錯的未來發展預測。
所以,如果你假設這將發生,你必須盡快建立它。它可能會使你的新聞推薦算法失效,或者由于谷歌搜索引擎而失效,但你必須這樣做。
Meta過去被稱為作出這種選擇,例如移動業務的轉變,短視頻業務的轉變,例如TikTok在這方面非常成功。盡管從中獲得的收入低于傳統的新聞推送,因為視頻廣告難以投放。
AI帶來失業?至少等十年
Harry:你提到了創造就業的元素,我想補充一點就業方面,這是典型的人工智能末日論,我們都將失業,實施全民基本收入。在一個樂觀的世界,你提到人工智能會創造就業,我們沒聽說過人工智能創造就業。你認為這個新生態系統會創造什么工作?就業前景會是什么樣子?
LeCun:大約100年前,或者120年前,世界上大多數人從事農業生產。發達國家的人口中,現在從事農業生產的僅為1-2%。這導致人口流入城市,服務業發展。20-30年前,制造業自動化引起了大規模失業。許多制造業工作機會消失,但被其他工作替代。20年前,誰會想到播客可以生存?
Harry:5年前,我也不這么認為。
LeCun:許多工作出現了,30年前沒有網頁設計師這個職業,現在幾乎所有工程師都從事這個工作。
我接觸的許多經濟學家都告訴我,我們不會失業,因為人工智能不會取代我們所有人。因為沒有經濟學家相信AI會解決人類創造力和交流的需求。這將產生與消失的工作一樣多的工作。這些工作將更高效,其他條件相同,同樣的工作時間可以產生更多財富。
但是,除非伴隨政治和社會變革,否則每次技術革命通常都會暫時使少數人獲益。19世紀后期的工業革命使少數人極富裕,許多人受到剝削。然后,社會發生變化,實施社會計劃,收入稅,對富人征收高稅,但美國取消了這些,歐洲和英國沒有。
問題在于如何分配財富,如何組織社會使每個人都能從中獲益。這是一個政治問題,不是技術問題,也不是人工智能造成的新問題,而是技術進化造成的。這不是最近的現象。
Harry:這聽起來不太公平,但這些工作是什么樣子的?它們富有創造性,但這到底意味著什么?我知道這是一個非常難的問題,但我只是試圖理解我們實際上如何度過時間,我的孩子將來會做什么?比如雕塑或繪畫?
LeCun:我不知道,這是一個好問題,但這不意味著將來不會發生。因為看看今天有多少人運用創造力,這些工具10-20年前或30年前不可用,比如3D藝術家或游戲設計師等等。我認為,創意工作和其他工作有光明的未來,創意工作無論在科學、技術、教育或藝術方面,都與交流密切相關,與人類情感的交流密切相關,這在本質上是人性的。
另一類是個人服務,你需要真實的人與你互動。
Harry:我完全同意,我們拭目以待。我唯一擔心的是過渡速度。當你看過去的工業革命,甚至是個人電腦進入工作環境,這需要幾十年的過渡。坦率地說,某些行業今天的人工智能感覺像是高速過渡,這將導致短期高失業率。你認為如此嗎?
LeCun:我曾經非常擔心技術進步速度會讓某些人落后,他們無法足夠快地接受再培訓,或者太老而無法重新培訓適應新世界。我談過許多經濟學家,他們說不會真的如此,因為技術在經濟中的傳播速度實際上受限于人們掌握新技術的速度。斯坦福的埃里克·布羅寧是談論這個話題的好人選。他說,當引入新技術時,例如上世紀90年代中期的個人電腦,圖形用戶界面,鼠標等,要花多長時間才會對生產力產生可測量的影響?通常是15-20年,原因是人們基本上需要這么長時間來學習使用新技術。
Harry:但是,人們對提示相當熟練,社交媒體內容管理員可以高效地使用提示在半小時內產生內容計劃和內容創意。
LeCun:但是這將如何影響生產力,就業市場?它會立即使人們失業嗎?不,這需要一段時間,大約10-15年,可能更長,這取決于你從何時開始計算。人工智能革命可能開始于10年前,所以如果從那時開始計算,可能還需要10年。我不認為你應低估商界的保守性。事情的變化并不會那么快。如果那么易學,人們會學習它,然后創造新的職業,或者自己更高效。
Harry:你為什么覺得我們熱衷于末日論?我喜歡你的方法和心態,并同意,但為什么我們似乎被“我們都將失業”和末日論吸引?
LeCun:我認為有幾個原因。顯然,我們天生關注可能危及我們的事物,因為這意味著世界有我們不完全理解的方面,我們必須注意并小心。
例如,向5個月大的嬰兒展示一個小車從平臺上推下去的場景,車子似乎漂浮在空中,5個月大的嬰兒幾乎不會注意;但10個月大的嬰兒會睜大眼睛盯著它很長時間,想知道發生了什么。同時,6-9個月大的嬰兒了解了重力,知道沒有支撐的物體應該下落。他們看到似乎漂浮在空中的物體,會說:“世界上有我不理解的方面,我需要研究它。”
我們天生如此,因為這是我們學習世界模型的方式,這使我們可以預測會發生什么,規劃行動,這就是智力的基礎,預測能力。所以,我們自然會注意令人驚訝或危險的事物,這就是為什么你會說服自己不要點擊某些網站底部引人注目的新聞。
AI三巨頭的朋友圈和楊立昆在Meta胡說的特權
Harry:我可以問你幾個更直接的問題嗎?我太感興趣了,如果需要,我們可以刪除它們。嗯,當你聽說杰夫很明顯采取了他這樣的行動(指退出谷歌,發表警告)時,你對他說了什么?我相信你跟他進行了交談,你對他說了什么?
LeCun:我們實際上還沒有談過。我們將進行談話,以便相互了解對此的看法。我不認為他知道我的看法,因為我不認為他關注了我在推特上發布的內容,盡管他自己也在推特上。所以我認為我們需要討論。
我以前和約書亞•本吉奧討論過這個話題,但沒有和杰夫討論過。對我來說,他離開谷歌這一事實并不特別讓人驚訝。我認為不讓人驚訝的是,他離開谷歌就可以暢所欲言。
我有非常不同的看法,我會說任何我想說的話。我不受傳媒部或其他部門嚴格控制。我只是說我的真實想法。
Harry:但是你是如何得到這個權限的?認真地,我的許多朋友在Meta高層工作,你也知道我們有共同的朋友,他們沒有那個權限。
LeCun:我的確處于一個相當特殊的位置,因為我有相當多的粉絲,他們相信我或想聽我說的話,即使他們根本不相信我。同時,我不是高管,所以我不會像高管那樣有法律問題或財務問題而無法說某些話。
我是副總裁,但是我的職位低于必須非常非常小心和控制信息的那個級別。這里存在利弊權衡,人工智能是一個復雜的快速發展的問題,你基本上需要有人可以自由發言。我認為杰夫覺得在谷歌沒有這個選項,可能有各種原因。所以我理解為什么他可能想離開,但我并不完全同意他關于人類滅絕的優先順序或其他方面的看法。
Harry:在Meta 的角色是否限制了你的公正性?
LeCun:我不這么認為。我的意思是,我在社交媒體上發布的某些內容會抨擊我的同事們的工作,這是顯而易見的,因為我了解這項工作,他們是朋友和同事,我認為這很有意思,可能是因為我一直關注這方面的合作伙伴。對這類事情,我可能存在偏見,要以極小心謹慎的態度對待,你不必相信我。但這也讓我了解了事物是如何構建的,存在什么問題。
例如,有一個非常普遍的敘述,人工智能是社交網絡許多負面效應的罪魁禍首。事實上,這完全是倒錯的,人工智能是解決這些問題的解決方案。
讓我告訴你,回到12年前或更早,甚至在我加入Meta之前,Meta開始試驗新聞推送,新聞推送是一種算法,它會選擇要向每個人展示的新聞片段。最初,它的決定是基于你與發布帖子的人的關系有多密切以及你與該人的互動次數等。
后來,在我加入Meta之前不久,在其中加入了一些機器學習,當時是最簡單的方法,比如logistic回歸,以及大量的工程和手工修補和特殊情況。基本上,它是logistic回歸,一些大的向量描述了你單擊的次數,你花在特定內容上的時間等等。然后,它會給所有內容打分。
這被部署后,人們花更多時間在Facebook上,但它也產生了像信息泡沫和政治話語中的問題,以及人們傾向于單擊更加離譜的內容。
我們意識到了這些。Facebook當時有大組研究這些效應,并進行了糾正。這就是使這些系統工作的方式,你嘗試小規模,看看效果如何,如果有副作用,你就糾正它,然后比較兩個系統,有時會發生意外,你必須全部撤回并完全改變做事方式。
這是在2016年美國總統選舉后發生的,2017年主要的使用算法被完全改變,沒有任何點擊誘惑,沒有任何可以推動宣傳內容的新聞媒體,更大力度刪除假賬號和破壞民主體制的企圖等,我們糾正了它,過去幾年AI的進展是系統部署,以便可以從上百個不同的語言中去除仇恨言論和保證真實性,這是之前無法做到的。
馬斯克的AI威脅論就是科幻小說看多了
Harry:我最后一個問題,然后我們會進行快速問答。伊隆•馬斯克和塔可•卡爾森說,人工智能的麻煩在于一旦發布就無法糾正,與所有先前的技術進步不同,它一旦發布就太強大了,無法將其收回箱子,無法以那種方式修正。這不是真的嗎?
LeCun:這不是真的,這完全是錯誤的。它做出了一個假設,伊隆和其他一些人可能通過閱讀尼克•博斯特羅姆的《超級智能》或閱讀伊萊亞斯或尤科夫斯基的著作而確信的一個假設。這假定存在硬起飛。也就是說,一旦開啟超級智能AI系統,它就會接管世界,擺脫你的控制,使自己更加智能,世界將被毀滅。
這簡直荒謬,完全荒謬,因為現實世界中沒有這樣的過程。這不會持續很長時間,你知道,這些系統將不得不招募世界上的所有資源,它們需要獲得無限的權力和代理,為什么我們要這么做?
更重要的是,它們必須建立在渴望掌控的基礎上。系統不會僅僅因為它們很智能就接管一切,再次,即使在人類種群中,也不是我們中最聰明的人想支配別人。
Harry:他和許多其他(意見)領袖渴望防止任何進一步發展和現在就管制人工智能是胡說八道。
LeCun:這是愚昧主義。這就像那些想停止印刷機和印刷書籍傳播的人,因為如果人們能自己讀圣經,就不必再和牧師說話,然后會有自己對宗教的看法。這正是后來發生的事。人們自己讀圣經,這引發了歐洲的新教運動,并引發了200年的宗教沖突,但它也帶來了啟蒙運動,科學理性主義,民主理念的哲學,然后是法國大革命和美國獨立戰爭。
你可以把這些比作奧斯曼帝國,由于想控制自己的人口,基本上禁止使用印刷機,從而開始了300年的衰退。他們在中世紀統治著科學,穆斯林世界,這就是為什么天空中的每顆星星都有阿拉伯名字。
Harry:我喜歡你說的這些。我現在要與你進行快速提問。我說一句短語,你給出您的直接看法,然后我們開始聊天,聽起來怎么樣?
LeCun:聽起來不錯。
全球AI發展大考察:歐洲不給錢,中國愛造假
Harry:哪個地區最需要改變其模式方法進行科學研究和激勵機制實踐?
LeCun:哪個地區?噢,恐怕每個地區都有不同的原因。你看,中國有一定的“不良科學流行病”,中國有很多非常聰明的人,許多非常優秀的研究人員,許多來自中國的非常優秀工作,特別是在人工智能和計算機視覺方面,但也有大量絕對糟糕的工作,在初版后必須在幾個月后撤回。部分原因在于中國學術和體制中的激勵機制。這很重要。
我可以轉到歐洲。在歐洲,有好的方面。歐洲的本科教育系統非常好,因為它部分免費,所以即使他們不是富人,也允許有天賦的人上學,這在美國不是這樣,至少不是同樣的程度。這對歐洲有好處。這是許多歐洲工程師和科學家在世界上很優秀的原因。但那些想從事科學研究的人有什么機會?大多數歐洲國家實際上沒有真正鼓勵這一點和激勵最有天賦的人和學生從事科學研究的體制。其中一些人去了北美。像我,35年前來了。
現在一些研究實驗室,如巴黎的Facebook AI實驗室或谷歌在巴黎也有實驗室,提供了機會。我弟弟在巴黎的谷歌工作。所以,這給那些真正想要富有成效,但在法國和歐洲其他國家的公共研究和學術體制中找不到機會的人提供了機會。
歐洲僅有的能與美國相媲美的國家在學術或科學家工作質量方面是瑞士。
Harry:你認為他們能與之競爭的原因是什么?這與他們的激勵機制結構有關,這給他們帶來這種能力。
LeCun:有兩點(潛在的可能):他們給人支付更好的報酬。第二點是,他們給他們提供研究資源,他們可以通過補助金和類似的方式獲得額外資源,效果很好。然后,(通過這些措施)他們也吸引了一些世界各地的學生。你就得到了只有在北美的前30所大學所能得到的理想人才組合。
Harry:我們有中國,有歐洲,美國又如何?他們可以做些什么不同或改進的地方?
LeCun:美國也在研究方面做得很對,這在很大程度上部分解釋了美國技術產業,特別是科技產業的成功。我認為,部分原因是美國投入大量資源進行基礎研究,如NSF,NIH和各種其他機構,可能比歐洲大學支付給他們的教職員工更多。特別是在計算機科學和人工智能領域。
這也有缺點。缺點是在美國學習費用高昂。這是一個權衡。瑞士找出辦法如何向學者支付相當豐厚的報酬,同時實際上向學生提供免費教育。加拿大也找出了一個相當不錯的權衡。
美國做得對的其他方面是,美國體系或類似機構愿意承擔風險,投資于似乎有點瘋狂的想法,但基本上這是硅谷和美國其他地方如紐約和波士頓活躍的創業環境的一部分,美國現在正在領導世界。
現在,你開始在歐洲看到類似的情況,例如,在法國巴黎地區和法國更廣泛地區的科技初創公司出現了巨大增長。歐洲大陸和英國也是如此。我認為這是一件好事,但在歐洲獲得投資資金仍然比在美國更困難。這就是我來這里的原因。
結束語
Harry:很高興提供幫助。(笑)最后一個問題,當你思考最希望聽眾帶走的內容時,會是什么?當他們聽到這段話時,你希望他們帶走的第一件事是什么?
LeCun:人工智能將為人類帶來一場新文藝復興,一種新形式的啟蒙,因為人工智能將放大每個人的智力。
對每一個人來說,這就像有一群比我們更聰明的人知道大多數事物和大多數話題。它將賦予我們每個人創造力,因為我們能夠在不一定需要目前所需技能的情況下產生文本,藝術,音樂和視頻。
這是積極的一面,無可置疑存在風險,但不像那些聲稱這些風險是不可避免的或必然導致災難的人所說的那樣。把自己放在1920年,誰會想到僅50年后,你可以安全快速穿越大西洋,近乎音速?人們真的想禁止航空或要求在噴氣發動機存在之前管制噴氣發動機嗎?
我的意思是這有點瘋狂。所以,我不反對監管,人工智能產品應該受到監管,特別是那些涉及為人們做出關鍵決定的產品,但監管或減緩研究完全無稽之談,這只是愚昧主義。
Harry:當你看到亞馬遜、Facebook和谷歌時,你最尊敬和欽佩的現有團隊在內部和外部采取哪種方法和人才?
LeCun:這正在發生很大變化,變化的原因是許多人離開大公司和大實驗室。之所以這樣做,是因為直到最近,許多人工智能研究實際上是探索性的,現在許多事情都有商業化的道路,所以人們認為自己更好地離開大公司自行解決,做自己的初創公司等等。
所以,你看到定期大規模運動的應用研究工程師,一些科學家基本上離開這些實驗室去創業,這在各個領域都是這樣的。
所以,你看谷歌最初關于Bert或Transformers的論文,這件事改變了NLP,他們都離開了,都去創業了。Meta開源的Llama的一些人也已經離開,去創業了。是的,有一個叫Mistral的公司,是的,在這個領域有大量資金。所以,祝他們好運,但我很遺憾他們必須這樣做。
Harry:但是現有的團隊呢,恩,他們也很棒。
LeCun:但我認為,就基本能力而言,以及將推進科學的人來說,我們現在需要的不是研究LLM的應用。有許多人有能力這么做,他們會做得很好。
我們需要做的,像我這樣重新研究的人,是提出新的概念,讓我們擁有有基本常識,對真實世界有體驗,基本上達到人類智力水平的機器。在我看來,最適合做出這一點的玩家,就是和谷歌大腦合并之后新的DeepMind部門。那里有許多人對這個問題感興趣,我認為他們可能是最好的,與Meta和Facebook AI一起,是真正產生影響的最佳位置,所有人都在相當長一段時間內一直在致力于此。
Harry:如果我們在10年后,也就是2033年,重新進行一次采訪,Yann你會在哪里?
LeCun:那時我63歲,所以從現在開始的10年或12年后,我會很老。
我不知道,我現在像青少年一樣激動,因為我看到人工智能的下一步和機會,也許能達到我很多年前開始研究人工智能時為自己設定的目標。當然,當時我很天真對理解智能(抱有熱情),這首先是科學問題,什么是智能,什么是人類智慧。
作為一名工程師,理解智能的好方法是構建一個實際上在某種程度上重現它的小部件。
我現在對此很興奮。我會找到最好的貢獻方式,目前這正好是在Facebook AI。我在學術界保持一定的聯系,因為我認為這非常互補,也很重要,在學術界和產業界開展不同類型的項目是互補的。我喜歡這兩者的結合,只要我的大腦繼續運轉,我認為我可以做出貢獻,而且我有機會做出貢獻,我會繼續工作。然后,在某個時候,我的大腦會變成白色醬汁,或者我完全不在狀態,我會停下來。
Harry:我想親自謝謝你,我相信我代表許多人說。我們從你的公開演講和論述中學到了那么多,你愿意開放地演講,很少有人像你這樣開放地演講。謝謝你教育了我們這么多人,謝謝你今天加入我。
LeCun:非常感謝你,Harry,這真的很有趣。謝謝你邀請我。
文章來源于Web3天空之城 ,作者天空之城城主
1、本文只代表作者個人觀點,不代表本站觀點,僅供大家學習參考;
2、本站屬于非營利性網站,如涉及版權和名譽問題,請及時與本站聯系,我們將及時做相應處理;
3、歡迎各位網友光臨閱覽,文明上網,依法守規,IP可查。
作者 相關信息
內容 相關信息
李光滿:馬斯克等為何叫停GPT-5訓練?AI已成中美戰略競爭制高點
2023-04-01興榮:萬般皆下品,唯有AI高?撬動新一輪產業升級要有戰略清醒
2023-03-29人工智能“大殺器”GPT-3遭嚴重質疑:它其實是在“胡言亂語”,OpenAI違背科學倫理
2020-08-25? 昆侖專題 ?
? 高端精神 ?
? 新征程 新任務 新前景 ?
? 習近平治國理政 理論與實踐 ?
? 國策建言 ?
? 國資國企改革 ?
? 雄安新區建設 ?
? 黨要管黨 從嚴治黨 ?
圖片新聞