最近火熱的ChatGPT,是美國人工智能研究實驗室OpenAI開發的一種全新聊天機器人模型,它能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,并協助人類完成一系列任務。
這款AI語言模型,讓撰寫郵件、論文、腳本,制定商業提案,創作詩歌、故事,甚至敲代碼、檢查程序錯誤都變得易如反掌。
不少和ChatGPT“聊過天”的網友紛紛感嘆,“只有你想不到,沒有ChatGPT辦不成的”。上線僅僅2個月,ChatGPT的活躍用戶就突破一億。
ChatGPT真有那么靠譜嗎? AI面試、AI聊天、AI繪畫……隨著AIGC(利用人工智能技術生成內容)作為工具在工作生活中高效應用,難道面試官、作家、設計師……就要失業了嗎?我們應當秉持怎樣的態度看待這種技術革新?
那么,今天分享一篇文章,來自徐英瑾教授的《人工智能研究為何需要哲學參與?》,從哲學角度探索人工智能這個話題。僅供參考學習。
人工智能哲學作為一個行當,在國內基本上是還沒有確立起來。總體來說國外的情況比我們好一點,馬馬虎虎算一個哲學分支。舉個例子,瑪格麗特·博登是研究人工智能哲學的一個比較大牌的人物,一個女哲學家,英國人。她為什么研究比較好?因為她和MIT、卡耐基梅隆這些研究人工智能的重鎮有非常密切的聯系,和那里的人工智能界的大佬都是私下的朋友。而且瑪格麗特除了是哲學專家以外,在計算機、生物學、心理學方面都有相應的學位。我們國家在文科和理科的交匯方面的確做得不是很好。
哲學能夠為人工智能做些什么?
哲學要做的第一件事是思考大問題,澄清基本概念。
與哲學家相比較,一般的自然科學家往往只是在自己的研究中預設了相關問題的答案,卻很少系統地反思這些答案的合法性。
第二,哲學在不同學科的研究成果之間尋找匯通點,而不受某一具體學科視野之局限。
舉一個例子,用軍事上的比方,哲學更像是戰略性思考。如果你是在一個炮兵學院里面,不同的研究炮兵戰術的軍官會討論炮兵戰術所牽扯到的具體的幾何學問題。但是站在戰略層面,它可能對于這些非常細微的問題會忽略,更多的會考慮炮兵在軍事編制中所扮演的功能角色,站在更高的層面去看。這可能幫助大家理解哲學應該是干什么的。
第三,重視論證和辯護,相對輕視證據的約束。
▎人工智能需要哲學嗎?
我個人認為如果說化學家、物理學家和生物學家對哲學的排斥還有一點道理的話,人工智能對哲學的排斥是最沒道理。就對于哲學文化的寬容程度而言,AI科學絕對算是個科學界內部的異數。從某種意義上說,該學科本身的誕生,就恰恰是“頭腦風暴”般的哲學思辨的產物。
人工智能異數異到什么地步?以至于現在教育部的學科目錄里面沒有人工智能,這是很有諷刺意味的事。也許以后會形成一級學科,但是現在還沒有形成。
我們先看下阿蘭·圖靈,阿蘭·圖靈(Alan Turing,1912-1954)在英國哲學雜志《心智》上發表了論文《計算機器和智能》(Turing 1950)。在文中他提出了著名的“圖靈測驗(Turing Test)”的思想。
此文牽涉到了對于“何為智能”這個大問題的追問,并試圖通過一種行為主義的心智理論,最終消弭心理學研究和機器程序設計之間的楚河漢界,同時還對各種敵對意見提供了豐富的反駁意見。這些特征也使得這篇論文不僅成為了AI科學的先聲,也成為了哲學史上的經典之作。
1956年發生大事件——Datmouth 會議,在這一年夏天的美國達特茅斯學院(Dartmouth College),一群志同道合的學者驅車赴會,暢談如何利用剛剛問世不久的計算機來實現人類智能的問題,而洛克菲勒基金會則為會議提供了7500美元的資助(這些美元在當年的購買力可非今日可比的)。
↑2006年達特茅斯會議當事人重聚,左起:摩爾、麥卡錫、明斯基、塞弗里奇、所羅門諾夫
在會議的籌備時期,麥卡錫(John McCarthy,1927~)建議學界以后就用“人工智能”一詞來標識這個新興的學術領域,與會者則附議。
參加達特茅斯會議的雖無職業哲學家,但這次會議的哲學色彩依然濃郁。首先,與會者都喜歡討論大問題,即如何在人類智能水平上實現機器智能(而不是如何用某個特定的算法解決某個具體問題)。
其次,與會者都喜歡討論不同的子課題之間的關聯,追求一個統一的解決方案(這些子課題包括:自然語言處理、人工神經元網絡、計算理論以及機器的創造性,等等)。
最后,不同的學術見解在這次會議上自由碰撞,體現了高度的學術寬容度(從麥卡錫完成的會議規劃書[McCarthy et al. 1955]來看, 沒有什么證據表明這次形式松散的會議是圍繞著任何統一性的、強制性的研究綱領來進行的)。讓人欣慰的是,這些“哲學化特質”在美國日后的AI研究中也得到了保留。
▎為何AI科學對哲學的寬容度相對來得就比較高?這背后又有何玄機呢?
這首先和AI科學自身研究對象的特殊性相關的。
AI的研究目的,即是在人造機器上通過模擬人類的智能行為,最終實現機器智能。很顯然,要做到這一點,就必須對“何為智能”這個問題做出解答。
如果你認為實現“智能”的實質就是去盡量模擬自然智能體的生物學硬件。你就會去努力鉆研人腦的結構,并用某種數學模型去重建一個簡化的神經元網絡(這就是聯結主義者所做的)。現在我們都知道有一個類腦研究計劃,這種研究有復雜版本和簡單版本,復雜版本就是藍腦計劃一樣,把大腦運作的信息流程盡量逼真的模擬出來,比較簡單的就是簡化的神經元網絡。
站在專業的研究腦科學的立場上,神經元網絡很不神經,離真正的神經活動來說,它是高度簡化,但是站在很宏觀的立場上,至少你說神經元網絡也是受大腦的啟發和影響。這個路線很多人認為是對的,我認為可以做出一些成果,但是不要抱有太高的期望。
如果你認為智能的實質僅僅在于智能體在行為層面上和人類行為的相似。那么你就會用盡一切辦法來填滿你理想中的智能機器的“心智黑箱”(無論是在其中預裝一個巨型知識庫,還是讓其和互聯網接駁,以便隨時更新自己的知識——只要管用就行)。
由此看來,正是因為自身研究對象的不確定性,AI研究者在哲學層面上對于“智能”的不同理解,也才會在技術實施的層面上產生如此大的影響。很明顯,這種學科內部的基本分歧,在相對成熟的自然科學那里是比較罕見的。
其次,AI科學自身的研究手段,缺乏刪除不同理論假設的決定性判決力,這在很大程度上也就為哲學思辨的展開預留了空間。
哲學文化滲入AI的幾個具體案例
下面我們講一些案例,這些案例可以證明哲學思維對AI是非常有用的。
霍伯特·德瑞福斯(Hubert Lederer Dreyfus, 1929-),美國加州伯克利分校哲學教授,美國最優秀的現象學家之一,在海德格爾哲學、福柯哲學、梅洛-龐蒂哲學研究方面很有造詣。讓人驚訝的是,以歐陸人本主義哲學為背景的德瑞福斯,卻寫下了AI哲學領域最富爭議的一部著作《計算機不能夠做什么?》(Dreyfus 1979)以及其修訂本(Dreyfus 1992),并使得他在AI領域的社會影響超越了他的學術本行。那么,他為何要轉行去寫一本關于AI的哲學書呢?
↑霍伯特·德瑞福斯(Hubert Lederer Dreyfus, 1929-)
Hubert L. Dreyfus,《機械戰警》里面出現某個反對機器人有自動開火能力的哲學家和這個哲學家的名字一樣的,我認為編劇是故意這么干的,因為他在美國是非常有名的搞人工智能哲學的專家。他為什么要去搞人工智能哲學?
非常有意思,根據他自己和記者的講法,這和他在麻省理工學院教學時所遭到的一些刺激相關。在1962年就有學生明白地告訴他,哲學家關于人性的思辨現在都過時了,因為閩斯基等AI科學家據說在不久后就可以用工程學的方法實現人類智能的方方面面。
德氏覺得這話近乎于天方夜譚,但是為了做到公允起見,他還是在不久后去了美國的頂級民間智庫“藍德公司”(Rand Corporation)進行調研——因為恰恰在那個時候,司馬賀、紐艾爾和肖(Cliff Shaw)等AI界的頂級大腕也正在那里從事研究。經過一段時間的分析以后,德氏最后確定自己對于當時的AI規劃的懷疑乃是有根據的,并在1965年扔出了他擲向主流AI界的第一塊板磚:《煉金術和AI》(Dreyfus 1965)。
德氏對于主流AI進路的批評意見很多,其中比較有意思的一條是,真實的思維是不能夠被明述的程序所窮盡的。比如說你在打網球的時候,是不是得先看到了球,然后計算其入球的角度,計算你的拍子接球的角度以及速度,最后才能夠接到球?顯然不是這樣的,因為由上述計算所帶來的運算負荷是很高的,我們人類的大腦未必“消費得起”。
實際上,熟練的網球手僅僅是憑借某種前符號規則的直覺領悟才能夠把握到接球的正確時機的——而對于這些直覺本身,傳統的程序設計方案卻往往是無能為力的。
不過,德氏本人并不認為所有的AI進路都無力解決上述問題。換言之,一些更為新穎的AI進路或許能夠對如何把握這些前符號的直觀提供方案。他認為,這些進路必須更為忠實地反映身體的結構,以及身體和環境之間的互動關系,而不僅僅是在符號的內部世界中打轉。他的這個想法,以后在AI專家布魯克斯的理論建樹中得到了發揚光大。 布魯克斯在論文《大象不下棋》中以哲學家的口吻評價道:新潮AI是建立在物理根據假設(physical grounding hypothesis)之上的。該假設說的是,為了建立一個足夠智能的系統,我們就絕對需要將其表征的根據奠定在物理世界之中。我們關于這一工作路徑的經驗告訴我們,一旦我們做出了這種承諾,那種對于傳統符號表征的要求就會馬上變得黯淡無光。
↑AI專家羅德尼·布魯克斯
這里的核心命意在于,世界就是認知系統所能有的最好的模型。世界一直能夠及時更新自身。它總是包含了需要被了解的一些細節。這里的訣竅就是要讓系統以恰當之方式感知世界,而這一點常常就足夠了。為了建立體現此假設的模型,我們就得讓系統通過一系列感知器和執行器而與世界相聯系。而可被打印的字符輸入或輸出將不再引起我們的興趣,因為他們在物理世界中缺乏根據。
按照布魯克斯的看法,AlphaGo打敗李世石很偉大嗎?他第一個反應是有什么了不起?因為他認為智能的重要性不是在于下棋,舉出他的反例是大象不下棋,你造一個人造大象,模擬大象的所有生命活動,其實大象有很復雜的活動。或者海豚不下棋,你造一個人造海豚,下棋算什么本事?什么德州撲克,他都不在乎。他更關心怎么制造智能系統和外部世界由嵌入式的認知,能夠把外部世界本身直接當作這樣的認知對象,而不是當中造出一個中間的符號。
這種想法在很大程度上具有一定哲學上的創新性,布魯克斯本身的研究更加注重的是對機器昆蟲這種低等動物的行走能力的模擬,對高級智能是比較輕視的。這也是建立在很基本的觀察上,人工智能研究的特點是小孩子越是容易做到的事,現在人工智能越難做到。比如很大程度的感知、把握,這是非常困難的。
▎為何科學訓練中缺席哲學訓練?
首先,對于處于“學徒期”的科學入門者而言,學會服從既定的研究范式乃是其第一要務,而對這些范式的“哲學式懷疑”則會導致其無法入門,而不是像哲學一樣,在這個范式以外還有其他的可能性,有不同意見的交流。
第二,嚴格的一級、二級、三級學科分類導致學生們忙于如何熟悉特定領域內的研究規范,而無暇開拓視野,浮想聯翩。根據我對教育部的分類了解,人工智能在中國是不存在的學科,這是很奇怪的事。
稍微對人工智能這門學科了解的人都知道,大概十幾年前搞人工智能的人不敢說自己搞人工智能,怕被扔磚頭,大家認為是騙子,現在行情突然發生變化。如果你站在具體學科分類的內部來看學科,你就不容易受到其他學科的思維方式的滋養。
第三,對于權威科學模式的服從,在很大程度上使大家不愿意接受異說。人工智能學科最大的特點是很喜歡攻擊對方是異說,現在深度學習起來了,但深度學習的前身是神經元網絡,它最大的敵人就是符號AI,符號AI和神經網絡之間的關系基本是曹操和劉備的關系,就是漢賊不兩立,雙方幾乎在人脈、資金、學術觀點所有地方展開比《甄嬛傳》還要激烈的宮爭。
現在從整體看來,神經元網絡的兒子就是深度學習占據了比較高的位置,歷史上它被打壓的間很長。我自己觀察下來,人工智能中不同的爭論是對資金的方向的控制。
▎傳統AI最典型的哲學問題是框架問題:
常識告訴我們,手若抓起了積木,只會改變積木的位置,卻不會改變積木的顏色以及大小,因為手抓積木這個動作和被抓對象的顏色以及尺寸無關。但一個AI系統卻又如何知道這一點呢?除非你在定義“手抓”動作的時候得說清,這個動作一定不會引起什么。
但這種定義必然是非常冗長的,因為這會逼得你事先將事物的任何方面都羅列清楚,并將這些方面在相應的“框架公理”中予以事先的排除。很顯然,對于“手抓”命令的任何一次執行,都會調用到這些公理,這就會使得系統在執行任何一個簡單任務的時候都會消耗大量的認知資源。然而,我們又都期盼系統能夠用比較少的資源來解決這些看似簡單的任務。這就構成了一個巨大的沖突。
語義相關性究竟是怎么一回事情?既然計算機的在句法運作的層面上只能夠根據符號的形式特征進行操作,它又是如何理解自然語詞之間的內涵性語義關聯的?形式邏輯,或者別的形式系統,究竟是否可能以一種簡便的方式刻畫語義相關性?
你可以預先在邏輯、公理里面說清楚所有事情之間的相關、不相關,但是沒有辦法寫成一個可以執行的程序。你寫這樣的程序,在任何一種情況下,你的機械手舉起任何一塊積木,這件事情只會導致它的位移,而不會改變被舉起來的積木的顏色。你覺得啰嗦嗎?這不是最可怕的,更可怕的是機器會不停問你,會引起這個、引起那個嗎?很煩,因為機器不懂我們一下子能把握的相關性和不相關性,這是很恐怖的。
所以丹尼爾·丹尼特寫了一篇論文說,如果你用這個原理去造一個拆彈機器人,剪黃線還是剪紅線、剪線會引起什么,他想半天,炸彈炸了。因為剪炸彈的線是有時間限制的。你不能想象這個東西是有用的東西。
從哲學的角度反思現在自然語言處理與機器翻譯
我們再看比較新的話題,從哲學的角度反思現在的自然語言處理與機器翻譯,嚴格的說,自然語言處理是大概念,機器翻譯是一個小概念。機器翻譯是屬于自然語言處理的,但有時候會把它分開來說。
現在機器翻譯歷史上有不同的路數,有基于神經元網絡,基于統計的,基于符號的,基于中間語的,還有很多、很多路數。但是深度學習牛掰起來以后,大家都用深度學習來做,很大程度上,深度學習做機器翻譯也將流行,也結合了一些大數據的方法。
“深度學習”技術,主要是作為一種“工程學技巧”進入我們的視野的。實際上,我們目前尚無法在科學層面上清楚地說明:“深度學習”技術為何能夠提高相關程序之應用表現——遑論在哲學層面上為這種“進步”的“可持續性”提供辯護。
傳統的神經元網絡和深度學習相比,它的特點是中間處理層層數比較少,而現在的深度學習靠硬件的進步,可以把中間的處理層做成幾十層上百層,這是以前不可想象的。做多以后,在很大程度上分析問題的層次感就多了,因為它層數越多就可以用不同的角度和層數分析問題,因此,很大程度上處理問題的手段就更加細膩了。的確體現出一種明顯的工程學的進步。
很大的問題是,這種進步是否可持續?我自己站在哲學領域是持保留意見,我認為可以搞搞,但是認為這件事最后能做成像霍金所說的毀滅人類的超級人工智能是胡扯。我們可以借一些例子來討論、討論。
傳統的人工神經元網絡有輸入層、中間層和輸出層,通過數據的處理得到一個輸出,通過反饋算法等等東西來弄,它的最重要的是要調整計算單元之間的權重,通過這種權重的調整,慢慢的讓它的適應一類任務。傳統的神經元網絡最大的特點是,它能夠執行的任務是比較單一的,也就是說它完成一個任務以后做了什么,就永遠的恒定在這個表現的水準上做這個事。
如果你讓他在大量幀數的畫面里,在所有有劉德華的臉出現的圖片里面做標記,他開始標記的水平比較差,但是他標記的至少比另外一臺機器好,另外一臺機器把關之琳的臉也標成劉德華,你的機器至少在正確的道路上,隨著時間推移,通過訓練慢慢能做了。然后劉德華演一部新電影,這電影剛剛上映,顯然不是在訓練樣本里面,讓他辨認里面是誰,分得很清楚,劉德華、吳彥祖、關之琳,分得很清楚,訓練成功。
現在給它一個新任務,現在不是認人臉,是認一個完全不同的東西,練什么東西呢?假設是一部武打電影,里面也有劉德華參與,但是不要認劉德華,把所有打螳螂拳或者詠春拳的畫面選出來,我沒學過,如果你要做這件事,這個機器要重新來進行調整。
但是人類可以做一個推理,比如人類如果已經知道了甄子丹經常演葉問,而葉問是打詠春拳的,而人類已經學會了識別甄子丹,如果一部電影我給你一個任務,到底哪些畫面是在打詠春拳?你不用看什么拳,你盯著葉師傅,盯著甄子丹就可以。
這里面有三段論推理,非常方便的從一個知識領域到另外一個知識領域。怎么識別甄子丹是一個領域,誰在打拳、誰在打葉問的詠春拳,這是另外一個知識領域。當中有一個橋,就是葉問老師是由甄子丹扮演的,而甄子丹扮演的葉問老師是打這個拳的,你有這個橋,兩個知識就可以合二為一。
現在的問題也就是說,這對于符號AI來說很容易的事,對神經元網絡是很難的。現在很多人說要把符號AI和神經元網絡結合在一起,但是這個結合點怎么找?實際上困難很大。深度學習只是它的的升級版,它是非常高級的升級版。大家覺得AlphaGo打敗李世石是非常了不起的事,實際上這是遲早發生的事,因為它只能局限在圍棋這一個網絡。同樣一個深度學習系統同時做兩件事,才算牛掰。
美國的生物統計學家Jeff Leek最近撰文指出,除非你具有海量的訓練用數據,否則深度學習技術就會成為“屠龍之術”。有些人認為他的觀點是不對的,但是我還是傾向于認為深度學習和神經元網絡需要大量的訓練樣本,把某種模式重復性的呈現出來,讓他抓到規律,整臺系統才能慢慢調到很好的水平。請問前面的數據是不是在任何一種場合都能夠獲得呢?這顯然不是那么容易的。
▎哲學家柏拉圖會怎么評價目下的機器翻譯?
伯拉圖有一個東西叫《美諾篇》,主要是以對話形式來寫他的哲學著作。《美諾篇》里面有一個重要的橋段,一個從未學過幾何學的小奴隸在哲學家蘇格拉底的指導下學會了幾何證明。旁邊的人反復問,你真的沒有學過幾何學嗎?怎么證明那么好?小奴隸說,真沒學過。旁邊人證明,這小子字都不識,希臘文字母表都背不下來。
由此引發的問題是:小奴隸的“心智機器”,究竟是如何可能在“學習樣本缺乏”的情況下獲取有關于幾何學證明的技能的呢?而后世的語言學家喬姆斯基則沿著柏拉圖的思路,問出了一個類似的問題:0-3歲的嬰幼兒是如何在語料刺激相對貧乏的情況下,學會復雜的人類語法的?——換言之,按照柏拉圖—喬姆斯基的看法,任何一種對于人類語言能力的建模方案,如果無法具備對于“刺激的貧乏性”(the poverty of stimuli)的容忍性的話,那么相關的建模成果就不能被說成是具備對于人類語言的理解能力的。
喬姆斯基的解釋是人有先天語法結構的能力。人家問喬姆斯基,這個東西怎么來的?他說,這是進化當中的基因突變導致的。我最近美國開議事大會,碰到喬姆斯基,他一方面承認這肯定是進化基因突變的,但是另一方面又否認我們可能用經驗手段去嚴格的研究語言進化的某個歷史瞬間到底發生了什么,因為他認為我們缺乏追溯幾十萬年的語言基因突變的經驗能力。
我并不完全贊成他的觀點,但是有一點我贊成他,他正確的提出一個問題,這個問題就是機器學習主流沒有辦法解決的問題。小朋友是怎么做到這么小就可以掌握語法? 若按照按照喬姆斯基的標準或者伯拉圖、蘇格拉底的標準,,我們是否可以認為目前基于深度學習的機器翻譯技術是能夠理解人類語言的呢?答案是否定的。
實際上,已經有專家指出,目前的深度學習機制所需要的訓練樣本的數量應當是“谷歌級別”的——換言之,小樣本的輸入往往會導致參數復雜的系統產生“過度擬合”(overfitting)的問題。也就是說,系統一旦適應了初始的小規模訓練樣本中的某些特設性特征,就無法靈活地處理與訓練數據不同的新數據。
一句話,湊數湊得太假了,以至于難以應對世界的真正的復雜性!
舉個例子,一個人說她自己很適合談戀愛,很適合和異性交往。她談第一次戀愛,兩個人如膠似漆,而且她的戀愛對象是非常奇葩的男人,非常宅,邋遢,很奇怪,別的男人對他也有意見,但是這個女人和他一拍即合。這就是過擬合。
你作為她的閨秘會擔心一件事,她和這個男人分手以后,能不能適應正常的男人?按照統計學來看,第一次戀愛成功的概率是很低,如果你第一次就過擬合了,你以后怎么玩這個游戲?這很麻煩,這是戀愛中過擬合的問題,和誰都特別熟,黏住誰就是誰,分不開,他什么毛病也傳給你,以至于你不能和第二個人談戀愛。
另外一種是不擬合,就是和誰都不來電。按照機器訓練來說就是怎么訓練都訓練不出來。一種太容易訓練出來,太容易訓練出來的問題是我現在用這組數據很容易把你訓練出來,以后真實世界中真實數據和實驗室不一樣,你能不能應付?
就語言論語言,新數據與訓練數據不同恐怕會是某種常態,因為能夠根據既有的語法構造出無窮多的新表達式,本就是一切自然語言習得者所都具備的潛能。如果我愿意,我可以用大家聽得懂的漢語跟大家描述各種各樣的奇葩狀態。這是語言的特點。也就是說既有的語法允許我們構造出無窮多的新表達式。
能夠用既有的語法構造更多的新表達式,是任何一個語言習得者的能力,能夠聽懂別人用你的母語所表達的任何一種奇葩的表達式,也是一個合格語言習得者的能力,這個能力是何等的平常,但是對于機器來說是多么的稀奇。
換言之,無論基于深度學習技術的機器翻譯系統已經通過多大的訓練量完成了與既有數據的“擬合”,只要新輸入的數據與舊數據之間的表面差距足夠大,“過度擬合”的幽靈就都一直會在附近徘徊。
所以從過去當中永遠沒有辦法必然的推出關于未來的知識或者關于未來我們不能有真正的知識,這是休謨哲學的相論點,他沒有用什么擬合、不擬合的數據,因為他當時不知道深度學習。但是你會發現,過很多年,休謨的哲學問題沒有解決。
從本人的哲學立場來看,未來人工智能需要做的事情
1. 首先要在大的目標上指出通用人工智能是一個大的目的。
很多人給我說通用人工智能做不出來,我的書指出了,所有指出通用人工智能做不出來的論證是不成立的。第二個如果你相信某些人所說的,人工智能將對人類生產生活產生顛覆性的影響,而不是過去的自動化的零敲碎打的影響,只有通用人工智能才能對未來的生活進行顛覆性的影響。因為專用人工智能不可能真正取代人的工作,只有通用人工智能能做到。
比如家政服務員,讓機器人做,你知道家務有多麻煩嗎,家務有多難做嗎?我始終覺得做家務比做哲學燒腦,我一直覺得做家務合格的機器人比做哲學還是要更慢一點,你十個人都喊著文本都是一個文本,十個人不同家庭的打掃情況就是不同。
這個人家里書很多,但他不希望你理得很整齊,另外一個人家里有很多書,但是希望你理得很整齊。這個小朋友3歲,喜歡書。這個地方有小朋友13歲,很不喜歡看書。這些問題都復雜,人都要被他弄崩潰,機器怎么搞得清楚?
2. 認知語言學的算法化。
3. 基于意義的普遍推理引擎,而不能把推理看成形式、邏輯的事情,而要認為這和意義有關。
4. 節儉性算法與該推理引擎的結合,我們的計算要從小數據出發,要體現節儉性,不能依賴大數據。
5. 結合認知心理學研究加入人工情緒等新要素。
來源:第一哲學家微信號
1、本文只代表作者個人觀點,不代表本站觀點,僅供大家學習參考;
2、本站屬于非營利性網站,如涉及版權和名譽問題,請及時與本站聯系,我們將及時做相應處理;
3、歡迎各位網友光臨閱覽,文明上網,依法守規,IP可查。
作者 相關信息
內容 相關信息
? 昆侖專題 ?
? 高端精神 ?
? 新征程 新任務 新前景 ?
? 習近平治國理政 理論與實踐 ?
? 國策建言 ?
? 國資國企改革 ?
? 雄安新區建設 ?
? 黨要管黨 從嚴治黨 ?
圖片新聞