您好!今天是:2025年-5月4日-星期日
人工智能很可能導致人類的永生或者滅絕,而這一切很可能在我們的有生之年發生。
上面這句話不是危言聳聽,請耐心的看完本文再發表意見。這篇翻譯稿翻譯完一共三萬五千字,我從上星期開始翻,熬了好幾個夜才翻完,因為我覺得這篇東西非常有價值。希望你們能夠耐心讀完,讀完后也許你的世界觀都會被改變。
我們正站在變革的邊緣,而這次變革將和人類的出現一般意義重大 – Vernor Vinge
如果你站在這里,你會是什么感覺?
看上去非常刺激吧?但是你要記住,當你真的站在時間的圖表中的時候,你是看不到曲線的右邊的,因為你是看不到未來的。所以你真實的感覺大概是這樣的:
稀松平常。
遙遠的未來——就在眼前
想象一下坐時間機器回到1750年的地球,那個時代沒有電,暢通通訊基本靠吼,交通主要靠動物拉著跑。你在那個時代邀請了一個叫老王的人到2015年來玩,順便看看他對“未來”有什么感受。我們可能沒有辦法了解1750年的老王內心的感受——金屬鐵殼在寬敞的公路上飛馳,和太平洋另一頭的人聊天,看幾千公里外正在發生進行的體育比賽,觀看一場發生于半個世紀前的演唱會,從口袋里掏出一個黑色長方形工具把眼前發生的事情記錄下來,生成一個地圖然后地圖上有個藍點告訴你現在的位置,一邊看著地球另一邊的人的臉一邊聊天,以及其它各種各樣的黑科技。別忘了,你還沒跟他解釋互聯網、國際空間站、大型強子對撞機、核武器以及相對論。
這時候的老王會是什么體驗?驚訝、震驚、腦洞大開這些詞都太溫順了,我覺得老王很可能直接被嚇尿了。
但是,如果老王回到了1750年,然后覺得被嚇尿是個很囧的體驗,于是他也想把別人嚇尿來滿足一下自己,那會發生什么?于是老王也回到了250年前的1500年,邀請生活在1500年的小李去1750年玩一下。小李可能會被250年后的很多東西震驚,但是至少他不會被嚇尿。同樣是250來年的時間,1750和2015年的差別,比1500年和1750年的差別,要大得多了。1500年的小李可能能學到很多神奇的物理知識,可能會驚訝于歐洲的帝國主義旅程,甚至對于世界地圖的認知也會大大的改變,但是1500年的小李,看到1750年的交通、通訊等等,并不會被嚇尿。
所以說,對于1750年的老王來說,要把人嚇尿,他需要回到更古老的過去——比如回到公元前12000年,第一次農業革命之前。那個時候還沒有城市,也還沒有文明。一個來自狩獵采集時代的人類,只是當時眾多物種中的一個罷了,來自那個時代的小趙看到1750年龐大的人類帝國,可以航行于海洋上的巨艦,居住在“室內”,無數的收藏品,神奇的知識和發現——他很有可能被嚇尿。
小趙被嚇尿后如果也想做同樣的事情呢?如果他會到公元前24000年,找到那個時代的小錢,然后給他展示公元前12000年的生活會怎樣呢。小錢大概會覺得小趙是吃飽了沒事干——“這不跟我的生活差不多么,呵呵”。小趙如果要把人嚇尿,可能要回到十萬年前或者更久,然后用人類對火和語言的掌控來把對方嚇尿。
所以,一個人去到未來,并且被嚇尿,他們需要滿足一個“嚇尿單位”。滿足嚇尿單位所需的年代間隔是不一樣的。在狩獵采集時代滿足一個嚇尿單位需要超過十萬年,而工業革命后一個嚇尿單位只要兩百多年就能滿足。
接下來的內容,你可能一邊讀一邊心里“呵呵”,而且這些內容可能真的是錯的。但是如果我們是真的從歷史規律來進行邏輯思考的,我們的結論就應該是未來的幾十年將發生比我們預期的多得多得多得多的變化。同樣的邏輯也表明,如果人類這個地球上最發達的物種能夠越走越快,總有一天,他們會邁出徹底改變“人類是什么”這一觀點的一大步,就好像自然進化不不斷朝著智能邁步,并且最終邁出一大步產生了人類,從而完全改變了其它所有生物的命運。如果你留心一下近來的科技進步的話,你會發現,到處都暗示著我們對于生命的認知將要被接下來的發展而徹底改變。
通往超級智能之路
人工智能是什么?
如果你一直以來把人工智能(AI)當做科幻小說,但是近來卻不但聽到很多正經人嚴肅的討論這個問題,你可能也會困惑。這種困惑是有原因的:
1.我們總是把人工智能和電影想到一起。星球大戰、終結者、2001:太空漫游等等。電影是虛構的,那些電影角色也是虛構的,所以我們總是覺得人工智能缺乏真實感。
2.人工智能是個很寬泛的話題。從手機上的計算器到無人駕駛汽車,到未來可能改變世界的重大變革,人工智能可以用來描述很多東西,所以人們會有疑惑。
3.我們日常生活中已經每天都在使用人工智能了,只是我們沒意識到而已。John McCarthy,在1956年最早使用了人工智能(Artificial Intelligence)這個詞。他總是抱怨“一旦一樣東西用人工智能實現了,人們就不再叫它人工智能了。”
因為這種效應,所以人工智能聽起來總讓人覺得是未來的神秘存在,而不是身邊已經存在的現實。同時,這種效應也讓人們覺得人工智能是一個從未被實現過的流行理念。Kurzweil提到經常有人說人工智能在80年代就被遺棄了,這種說法就好像“互聯網已經在21世紀初互聯網泡沫爆炸時死去了”一般滑稽。
所以,讓我們從頭開始。
首先,不要一提到人工智能就想著機器人。機器人只是人工智能的容器,機器人有時候是人形,有時候不是,但是人工智能自身只是機器人體內的電腦。人工智能是大腦的話,機器人就是身體——而且這個身體不一定是必需的。比如說Siri背后的軟件和數據是人工智能,Siri說話的聲音是這個人工智能的人格化體現,但是Siri本身并沒有機器人這個組成部分。
其次,你可能聽過“奇點”或者“技術奇點”這種說法。這種說法在數學上用來描述類似漸進的情況,這種情況下通常的規律就不適用了。這種說法同樣被用在物理上來描述無限小的高密度黑洞,同樣是通常的規律不適用的情況。Kurzweil則把奇點定義為加速回報定律達到了極限,技術進步以近乎無限的速度發展,而奇點之后我們將在一個完全不同的世界生活的。但是當下的很多思考人工智能的人已經不再用奇點這個說法了,而且這種說法很容易把人弄混,所以本文也盡量少用。
最后,人工智能的概念很寬,所以人工智能也分很多種,我們按照人工智能的實力將其分成三大類。
弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅長于單個方面的人工智能。比如有能戰勝象棋世界冠軍的人工智能,但是它只會下象棋,你要問它怎樣更好地在硬盤上儲存數據,它就不知道怎么回答你了。
強人工智能Artificial General Intelligence (AGI): 人類級別的人工智能。強人工智能是指在各方面都能和人類比肩的人工智能,人類能干的腦力活它都能干。創造強人工智能比創造弱人工智能難得多,我們現在還做不到。Linda Gottfredson教授把智能定義為“一種寬泛的心理能力,能夠進行思考、計劃、解決問題、抽象思維、理解復雜理念、快速學習和從經驗中學習等操作。”強人工智能在進行這些操作時應該和人類一樣得心應手。
超人工智能Artificial Superintelligence (ASI): 牛津哲學家,知名人工智能思想家Nick Bostrom把超級智能定義為“在幾乎所有領域都比最聰明的人類大腦都聰明很多,包括科學創新、通識和社交技能。”超人工智能可以是各方面都比人類強一點,也可以是各方面都比人類強萬億倍的。超人工智能也正是為什么人工智能這個話題這么火熱的緣故,同樣也是為什么永生和滅絕這兩個詞會在本文中多次出現。
現在,人類已經掌握了弱人工智能。其實弱人工智能無處不在,人工智能革命是從弱人工智能,通過強人工智能,最終到達超人工智能的旅途。這段旅途中人類可能會生還下來,可能不會,但是無論如何,世界將變得完全不一樣。
讓我們來看看這個領域的思想家對于這個旅途是怎么看的,以及為什么人工智能革命可能比你想的要近得多。
Kurzweil認為考慮電腦的發展程度的標桿是看1000美元能買到多少cps,當1000美元能買到人腦級別的1億億運算能力的時候,強人工智能可能就是生活的一部分了。
但是運算能力并不能讓電腦變得智能,下一個問題是,我們怎樣利用這份運算能力來達成人類水平的智能。
通往強人工智能的第二步:讓電腦變得智能
這一步比較難搞。事實上,沒人知道該怎么搞——我們還停留在爭論怎么讓電腦分辨《富春山居圖》是部爛片的階段。但是,現在有一些策略,有可能會有效。下面是最常見的三種策略:
1) 抄襲人腦
就好像你班上有一個學霸。你不知道為什么學霸那么聰明,為什么考試每次都滿分。雖然你也很努力的學習,但是你就是考的沒有學霸好。最后你決定“老子不干了,我直接抄他的考試答案好了。”這種“抄襲”是有道理的,我們想要建造一個超級復雜的電腦,但是我們有人腦這個范本可以參考呀。
科學界正在努力逆向工程人腦,來理解生物進化是怎么造出這么個神奇的東西的,樂觀的估計是我們在2030年之前能夠完成這個任務。一旦這個成就達成,我們就能知道為什么人腦能夠如此高效、快速的運行,并且能從中獲得靈感來進行創新。一個電腦架構模擬人腦的例子就是人工神經網絡。它是一個由晶體管作為“神經”組成的網絡,晶體管和其它晶體管互相連接,有自己的輸入、輸出系統,而且什么都不知道——就像一個嬰兒的大腦。接著它會通過做任務來自我學習,比如識別筆跡。最開始它的神經處理和猜測會是隨機的,但是當它得到正確的回饋后,相關晶體管之間的連接就會被加強;如果它得到錯誤的回饋,連接就會變弱。經過一段時間的測試和回饋后,這個網絡自身就會組成一個智能的神經路徑,而處理這項任務的能力也得到了優化。人腦的學習是類似的過程,不過比這復雜一點,隨著我們對大腦研究的深入,我們將會發現更好的組建神經連接的方法。
更加極端的“抄襲”方式是“整腦模擬”。具體來說就是把人腦切成很薄的片,用軟件來準確的組建一個3D模型,然后把這個模型裝在強力的電腦上。如果能做成,這臺電腦就能做所有人腦能做的事情——只要讓它學習和吸收信息就好了。如果做這事情的工程師夠厲害的話,他們模擬出來的人腦甚至會有原本人腦的人格和記憶,電腦模擬出的人腦就會像原本的人腦一樣——這就是非常符合人類標準的強人工智能,然后我們就能把它改造成一個更加厲害的超人工智能了。
我們離整腦模擬還有多遠呢?至今為止,我們剛剛能夠模擬1毫米長的扁蟲的大腦,這個大腦含有302個神經元。人類的大腦有1000億個神經元,聽起來還差很遠。但是要記住指數增長的威力——我們已經能模擬小蟲子的大腦了,螞蟻的大腦也不遠了,接著就是老鼠的大腦,到那時模擬人類大腦就不是那么不現實的事情了。
2)模仿生物演化
抄學霸的答案當然是一種方法,但是如果學霸的答案太難抄了呢?那我們能不能學一下學霸備考的方法?
首先我們很確定的知道,建造一個和人腦一樣強大的電腦是可能的——我們的大腦就是證據。如果大腦太難完全模擬,那么我們可以模擬演化出大腦的過程。事實上,就算我們真的能完全模擬大腦,結果也就好像照抄鳥類翅膀的拍動來造飛機一樣——很多時候最好的設計機器的方式并不是照抄生物設計。
所以我們可不可以用模擬演化的方式來造強人工智能呢?這種方法叫作“基因算法”,它大概是這樣的:建立一個反復運作的表現/評價過程,就好像生物通過生存這種方式來表現,并且以能否生養后代為評價一樣。一組電腦將執行各種任務,最成功的將會“繁殖”,把各自的程序融合,產生新的電腦,而不成功的將會被剔除。經過多次的反復后。這個自然選擇的過程將產生越來越強大的電腦。而這個方法的難點是建立一個自動化的評價和繁殖過程,使得整個流程能夠自己運行。
這個方法的缺點也是很明顯的,演化需要經過幾十億年的時間,而我們卻只想花幾十年時間。
但是比起自然演化來說,我們有很多優勢。首先,自然演化是沒有預知能力的,它是隨機的——它產生的沒用的變異比有用的變異多很多,但是人工模擬的演化可以控制過程,使其著重于有益的變化。其次,自然演化是沒有目標的,自然演化出的智能也不是它目標,特定環境甚至對于更高的智能是不利的(因為高等智能消耗很多能源)。但是我們可以指揮演化的過程超更高智能的方向發展。再次,要產生智能,自然演化要先產生其它的附件,比如改良細胞產生能量的方法,但是我們完全可以用電力來代替這額外的負擔。所以,人類主導的演化會比自然快很多很多,但是我們依然不清楚這些優勢是否能使模擬演化成為可行的策略。
3)讓電腦來解決這些問題
如果抄學霸的答案和模擬學霸備考的方法都走不通,那就干脆讓考題自己解答自己吧。這種想法很無厘頭,確實最有希望的一種。
總的思路是我們建造一個能進行兩項任務的電腦——研究人工智能和修改自己的代碼。這樣它就不只能改進自己的架構了,我們直接把電腦變成了電腦科學家,提高電腦的智能就變成了電腦自己的任務。
以上這些都會很快發生
硬件的快速發展和軟件的創新是同時發生的,強人工智能可能比我們預期的更早降臨,因為:
1)指數級增長的開端可能像蝸牛漫步,但是后期會跑的非常快
2)軟件的發展可能看起來很緩慢,但是一次頓悟,就能永遠改變進步的速度。就好像在人類還信奉地心說的時候,科學家們沒法計算宇宙的運作方式,但是日心說的發現讓一切變得容易很多。創造一個能自我改進的電腦來說,對我們來說還很遠,但是可能一個無意的變動,就能讓現在的系統變得強大千倍,從而開啟朝人類級別智能的沖刺。
強人工智能到超人工智能之路
總有一天,我們會造出和人類智能相當的強人工智能電腦,然后人類和電腦就會平等快樂的生活在一起。
呵呵,逗你呢。
即使是一個和人類智能完全一樣,運算速度完全一樣的強人工智能,也比人類有很多優勢:
硬件上:
-速度。腦神經元的運算速度最多是200赫茲,今天的微處理器就能以2G赫茲,也就是神經元1000萬倍的速度運行,而這比我們達成強人工智能需要的硬件還差遠了。大腦的內部信息傳播速度是每秒120米,電腦的信息傳播速度是光速,差了好幾個數量級。
- 容量和儲存空間。人腦就那么大,后天沒法把它變得更大,就算真的把它變得很大,每秒120米的信息傳播速度也會成為巨大的瓶頸。電腦的物理大小可以非常隨意,使得電腦能運用更多的硬件,更大的內存,長期有效的存儲介質,不但容量大而且比人腦更準確。
- 可靠性和持久性。電腦的存儲不但更加準確,而且晶體管比神經元更加精確,也更不容易萎縮(真的壞了也很好修)。人腦還很容易疲勞,但是電腦可以24小時不停的以峰值速度運作。
軟件上來說:
- 可編輯性,升級性,以及更多的可能性。和人腦不同,電腦軟件可以進行更多的升級和修正,并且很容易做測試。電腦的升級可以加強人腦比較弱勢的領域——人腦的視覺元件很發達,但是工程元件就挺弱的。而電腦不但能在視覺元件上匹敵人類,在工程元件上也一樣可以加強和優化。
- 集體能力。人類在集體智能上可以碾壓所有的物種。從早期的語言和大型社區的形成,到文字和印刷的發明,再到互聯網的普及。人類的集體智能是我們統治其它物種的重要原因之一。而電腦在這方面比我們要強的很多,一個運行特定程序的人工智能網絡能夠經常在全球范圍內自我同步,這樣一臺電腦學到的東西會立刻被其它所有電腦學得。而且電腦集群可以共同執行同一個任務,因為異見、動力、自利這些人類特有的東西未必會出現在電腦身上。
通過自我改進來達成強人工智能的人工智能,會把“人類水平的智能”當作一個重要的里程碑,但是也就僅此而已了。它不會停留在這個里程碑上的。考慮到強人工智能之于人腦的種種優勢,人工智能只會在“人類水平”這個節點做短暫的停留,然后就會開始大踏步向超人類級別的智能走去。
這一切發生的時候我們很可能被嚇尿,因為從我們的角度來看 a)雖然動物的智能有區別,但是動物智能的共同特點是比人類低很多;b)我們眼中最聰明的人類要比最愚笨的人類要聰明很很很很多。
我們談到了一旦機器達到了人類級別的智能,我們將見到如下的場景:
這讓我們無所適從,尤其考慮到超人工智能可能會發生在我們有生之年,我們都不知道該用什么表情來面對。
再我們繼續深入這個話題之前,讓我們提醒一下自己超級智能意味著什么。
很重要的一點是速度上的超級智能和質量上的超級智能的區別。很多人提到和人類一樣聰明的超級智能的電腦,第一反應是它運算速度會非常非常快——就好像一個運算速度是人類百萬倍的機器,能夠用幾分鐘時間思考完人類幾十年才能思考完的東西
這聽起來碉堡了,而且超人工智能確實會比人類思考的快很多,但是真正的差別其實是在智能的質量而不是速度上。用人類來做比喻,人類之所以比猩猩智能很多,真正的差別并不是思考的速度,而是人類的大腦有一些獨特而復雜的認知模塊,這些模塊讓我們能夠進行復雜的語言呈現、長期規劃、或者抽象思考等等,而猩猩的腦子是做不來這些的。就算你把猩猩的腦子加速幾千倍,它還是沒有辦法在人類的層次思考的,它依然不知道怎樣用特定的工具來搭建精巧的模型——人類的很多認知能力是猩猩永遠比不上的,你給猩猩再多的時間也不行。
而且人和猩猩的智能差別不只是猩猩做不了我們能做的事情,而是猩猩的大腦根本不能理解這些事情的存在——猩猩可以理解人類是什么,也可以理解摩天大樓是什么,但是它不會理解摩天大樓是被人類造出來的,對于猩猩來說,摩天大樓那么巨大的東西肯定是天然的,句號。對于猩猩來說,它們不但自己造不出摩天大樓,它們甚至沒法理解摩天大樓這東西能被任何東西造出來。而這一切差別,其實只是智能的質量中很小的差別造成的。
而當我們在討論超人工智能時候,智能的范圍是很廣的,和這個范圍比起來,人類和猩猩的智能差別是細微的。如果生物的認知能力是一個樓梯的話,不同生物在樓梯上的位置大概是這樣的:
要理解一個具有超級智能的機器有多牛逼,讓我們假設一個在上圖的樓梯上站在深綠色臺階上的一個機器,它站的位置只比人類高兩層,就好像人類比猩猩只高兩層一樣。這個機器只是稍微有點超級智能而已,但是它的認知能力之于人類,就好像人類的認知能力之于猩猩一樣。就好像猩猩沒有辦法理解摩天大樓是能被造出來的一樣,人類完全沒有辦法理解比人類高兩層臺階的機器能做的事情。就算這個機器試圖向我們解釋,效果也會像教猩猩造摩天大樓一般。
而這,只是比我們高了兩層臺階的智能罷了,站在這個樓梯頂層的智能之于人類,就好像人類之于螞蟻一般——它就算花再多時間教人類一些最簡單的東西,我們依然是學不會的。
但是我們討論的超級智能并不是站在這個樓梯頂層,而是站在遠遠高于這個樓梯的地方。當智能爆炸發生時,它可能要花幾年時間才能從猩猩那一層往上邁一步,但是這個步子會越邁越快,到后來可能幾個小時就能邁一層,而當它超過人類十層臺階的時候,它可能開始跳著爬樓梯了——一秒鐘爬四層臺階也未嘗不可。所以讓我們記住,當第一個到達人類智能水平的強人工智能出現后,我們將在很短的時間內面對一個站在下圖這樣很高很高的樓梯上的智能(甚至比這更高百萬倍):
前面已經說了,試圖去理解比我們高兩層臺階的機器就已經是徒勞的,所以讓我們很肯定的說,我們是沒有辦法知道超人工智能會做什么,也沒有辦法知道這些事情的后果。任何假裝知道的人都沒搞明白超級智能是怎么回事。
自然演化花了幾億年時間發展了生物大腦,按這種說法的話,一旦人類創造出一個超人工智能,我們就是在碾壓自然演化了。當然,可能這也是自然演化的一部分——可能演化真正的模式就是創造出各種各樣的智能,直到有一天有一個智能能夠創造出超級智能,而這個節點就好像踩上了地雷的絆線一樣,會造成全球范圍的大爆炸,從而改變所有生物的命運。
科學界中大部分人認為踩上絆線不是會不會的問題,而是時間早晚的問題。想想真嚇人。
那我們該怎么辦呢?
可惜,沒有人都告訴你踩到絆線后會發生什么。但是人工智能思想家Nick Bostrom認為我們會面臨兩類可能的結果——永生和滅絕。
首先,回顧歷史,我們可以看到大部分的生命經歷了這樣的歷程:物種出現,存在了一段時間,然后不可避免的跌落下生命的平衡木,跌入滅絕的深淵。
歷史上來說,“所有生物終將滅絕”就像“所有人都會死”一樣靠譜。至今為止,存在過的生物中99.9%都已經跌落了生命的平衡木,如果一個生物繼續在平衡木上走,早晚會有一陣風把它吹下去。Bostrom把滅絕列為一種吸引態——所有生物都有墜入的風險,而一旦墜入將沒有回頭。
雖然大部分科學家都承認一個超人工智能有把人類滅絕的能力,也有一些人為如果運用得當,超人工智能可以幫助人類和其它物種,達到另一個吸引態——永生。Bostrom認為物種的永生和滅絕一樣都是吸引態,也就是我一旦我們達成了永生,我們將永遠不再面臨滅絕的危險——我們戰勝了死亡和幾率。所以,雖然絕大多數物種都從平衡木上摔了下去滅絕了,Bostrom認為平衡木外是有兩面的,只是至今為止地球上的生命還沒聰明到發現怎樣去到永生這另一個吸引態。
如果Bostrom等思想家的想法是對的,而且根據我的研究他們確實很可能是對的,那么我們需要接受兩個事實:
1)超人工智能的出現,將有史以來第一次,將物種的永生這個吸引態變為可能
2)超人工智能的出現,將造成非常巨大的沖擊,而且這個沖擊可能將人類吹下平衡木,并且落入其中一個吸引態
有可能,當自然演化踩到絆線的時候,它會永久的終結人類和平衡木的關系,創造一個新的世界,不管這時人類還是不是存在。
而現在的問題就是:“我們什么時候會踩到絆線?”以及“從平衡木上跌下去后我們會掉入哪個吸引態?”
沒人知道答案,但是一些聰明人已經思考了幾十年,接下來我們看看他們想出來了些什么。
先來討論“我們什么時候會踩到絆線?”也就是什么時候會出現第一個超級智能。
不出意外的,科學家和思想家對于這個意見的觀點分歧很大。很多人,比如Vernor Vinge教授,科學家Ben Goertzel,SUN創始人Bill Joy,發明家和未來學家Ray Kurzweil,認同機器學習專家Jeremy Howard的觀點,Howard在TED演講時用到了這張圖:
這些人相信超級智能會發生在不久的將來,因為指數級增長的關系,雖然機器學習現在還發展緩慢,但是在未來幾十年就會變得飛快。
其它的,比如微軟創始人Paul Allen,心理學家Gary Marcus,NYU的電腦科學家Ernest Davis,以及科技創業者Mitch Kapor認為Kurzweil等思想家低估了人工智能的難度,并且認為我們離絆線還挺遠的。
Kurzweil一派則認為唯一被低估的其實是指數級增長的潛力,他們把質疑他們理論的人比作那些1985年時候看到發展速度緩慢的因特網,然后覺得因特網在未來不會有什么大影響的人一樣。
而質疑者們則認為智能領域的發展需要達到的進步同樣是指數級增長的,這其實把技術發展的指數級增長抵消了。
爭論如此反復。
第三個陣營,包括Nick Bostrom在內,認為其它兩派都沒有理由對踩絆線的時間那么有信心,他們同時認為 a) 這事情完全可能發生在不久的未來 b)但是這個事情沒個準,說不定會花更久
還有不屬于三個陣營的其他人,比如哲學家Hubert Dreyfus,相信三個陣營都太天真了,根本就沒有什么絆線。超人工智能是不會被實現的。
當你把所有人的觀點全部融合起來的話是怎樣呢?
2013年的時候,Bostrom做了個問卷調查,涵蓋了數百位人工智能專家,問卷的內容是“你預測人類級別的強人工智能什么時候會實現”,并且讓回答者給出一個樂觀估計(強人工智能有10%的可能在這一年達成),正常估計(有50%的可能達成),和悲觀估計(有90%可能達成)。當把大家的回答統計后,得出了下面的結果:
樂觀估計中位年(強人工智能有10%的可能在這一年達成):2022年
正常估計中位年(強人工智能有50%的可能在這一年達成):2040年
悲觀估計中位年(強人工智能有90%的可能在這一年達成):2075年
所以一個中位的人工智能專家認為25年后的2040年我們能達成強人工智能,而2075年這個悲觀估計表明,如果你現在夠年輕,有一半以上的人工智能專家認為在你的有生之年能夠有90%的可能見到強人工智能的實現。
另外一個獨立的調查,由作家James Barrat在Ben Goertzel的強人工智能年會上進行,他直接問了參與者認為強人工智能哪一年會實現,選項有2030年,2050年,2100年,和永遠不會實現。結果是:
2030年:42%的回答者認為強人工智能會實現
2050年:25%的回答者
2100年:20%
2100年以后:10%
永遠不會實現:2%
這個結果和Bostrom的結果很相似。在Barrat的問卷中,有超過三分之二的參與者認為強人工智能會在2050年實現,有近乎半數(42%)的人認為未來15年(2030年)就能實現。并且,只有2%的參與者認為強人工智能永遠不會實現。
但是強人工智能并不是絆線,超人工智能才是。那么專家們對超人工智能是怎么想的呢?
Bostrom的問卷還詢問專家們認為達到超人工智能要多久,選項有a)達成強人工智能兩年內,b)達成強人工智能30年內。問卷結果如下:
中位答案認為強人工智能到超人工智能只花2年時間的可能性只有10%左右,但是30年之內達成的可能性高達75%
從以上答案,我們可以估計一個中位的專家認為強人工智能到超人工智能可能要花20年左右。所以,我們可以得出,現在全世界的人工智能專家中,一個中位的估計是我們會在2040年達成強人工智能,并在20年后的2060年達成超人工智能——也就是踩上了絆線。
當然,以上所有的數據都是推測,它只代表了現在人工智能領域的專家的中位意見,但是它告訴我們的是,很大一部分對這個領域很了解的人認為2060年是一個實現超人工智能的合理預測——距今只有45年。
那么我們來看一下下一個問題,踩到絆線后,我們將跌向平衡木的哪一個方向?
超級智能會產生巨大的力量,所以關鍵的問題時——到時這股力量究竟由誰掌握,掌握這份力量的人會怎么做?
這個問題的答案將決定超人工智能究竟是天堂還是地獄。
同樣的,專家們在這個問題上的觀點也不統一。Bostrom的問卷顯示專家們看待強人工智能對于人類社會的影響時,52%認為結果會是好或者非常好的,31%認為會是糟糕的或者非常糟糕的,只有17%的人認為結果會是不好不壞的。也就是說,這個領域的專家普遍認為這將是一個很大的事情,不論結果好壞。要注意的是,這個問題問的是強人工智能,如果問的是超人工智能,認為結果不好不壞的人可能不會有17%這么多。
在我們深入討論好壞這個問題之前,我們先把“什么時候會發生”和“這是好事還是壞事”的結果綜合起來畫張表,這代表了大部分專家的觀點:
我們等下再考慮主流陣營的觀點。咱們先來問一下你自己是怎么想的,其實我大概能猜到你是怎么想的,因為我開始研究這個問題前也是這樣的想的。很多人其實不關心這個話題,原因無非是:
像本文第一部分所說,電影展示了很多不真實的人工智能場景,讓我們認為人工智能不是正經的課題。作家James Barrat把這比作傳染病控制中心發布吸血鬼警報一樣滑稽。
因為認知偏差,所以我們在見到證據前很難相信一件事情是真的。我確信1988年的時候電腦科學家們就已經常在討論因特網將是多么重要,但是一般人并不會認為因特網會改變他們的生活——直到他們的生活真的被改變了。一方面,1988年的電腦確實不夠給力,所以那時的人們看著電腦會想:“這破玩意兒也能改變我的生活,你逗我吧?”人們的想象力被自己對于電腦的體驗而約束。讓他們難以想象電腦會變成現在的樣子。同樣的事情正發生在人工智能領域。我們聽到很多人說人工智能將會造成很大影響,但是因為這個事情還沒發生,因為我們和一些弱爆了的人工智能系統的個人經歷,讓我們難以相信這東西真的能改變我們的生活。而這些認知偏差,正是專家們在努力對抗的。
就算我們相信人工智能的巨大潛力,你今天又花了多少時間思考“在接下來的永恒中,絕大部分時間我都不會再存在”這個問題?雖然這個問題比你今天干的大部分事情都重要很多,但是正常人都不會老是想這個吧。這是因為你的大腦總是關注日常的小事,不管長期來看有多少重要的事情,我們天生就是這么思考的。
這篇東西的主要目標就是讓你脫離普通人陣營,加入專家思考的陣營,哪怕能讓你站到兩條不確定線的交點上,目標也達到了。
在我的研究中,我見識到了各種各樣的觀點,但是我發現大多數人的觀點都停留在主流陣營中。事實上超過四分之三的專家都屬于主流陣營中的兩個小陣營:焦慮大道和信心角
我們將對這兩個小陣營做深入的談論,讓我們從比較有趣的那個開始吧
為什么未來會是天堂
研究人工智能這個領域后,我發現有比預期的多得多的人站在信心角當中:
站在信心角中的人非常興奮,他們認為他們將走向平衡木下比較有趣的那個吸引態,未來將實現他們的夢想,他們只需耐心等待。
把這一部分人從其他思想家區分開來的是這些人對于比較有趣的那個吸引態的欲望——他們很有信心永生是我們的發展方向。
這份信心是哪里來的不好說,評論家認為是這些人太過興奮而產生了盲點,忽略了可能的負面結果。但是信心角的人還是把批評者當作末日論者來看待,他們認為技術會繼續幫助我們而不是傷害我們。
兩邊的觀點我們都會說,這樣你能形成自己的觀點,但是在讀下面的內容前,請把質疑暫時擱置,讓我們看看平衡木兩邊究竟有什么,并且記住這些事情是有可能發生的。如果我們給一個打獵采集者看我們現在的舒適家居、技術、富庶,在他眼里這一切也會像魔法一樣——我們也要接受未來完全可能出現能把我們嚇尿的變革。
Bostrom描述了三種超人工智能可能的工作模式
先知模式:能準確回答幾乎所有的問題,包括對人類來說很困難的復雜問題,比如“怎樣造一個更好的汽車引擎?”
精靈模式:能夠執行任何高級指令,比如用分子組合器造一個更好的汽車引擎出來
獨立意志模式(sovereign):可以執行開放式的任務,能在世界里自由活動,可以自己做決定,比如發明一種比汽車更快、更便宜、更安全的交通模式。
這些對人類來說很復雜的問題,對于一個超級智能來說可能就像“我的筆掉了,你能幫我撿一下嗎?”這么簡單。
Eliezer Yudkowsky,是這么說的:
“根本沒有困難的問題,只有對于特定級別的智能來說難的問題。在智能的階梯上走一小步,一些不可能的問題就變得簡單了,如果走一大步,所有問題都變得簡單了。”
信心角里有很多熱忱的科學家、發明家和創業者,但是對于人工智能的未來最有發言權的,當屬Ray Kurzweil.
對于Kurzweil的評價非常兩極化,既有如對神人般的崇拜,也有翻白眼似的不屑。也有一些中立主義者,比如作家Douglas Hofstadter,他覺得Kurzweil的觀點就好像把美食和狗屎混在一起,讓你分不清是好是壞。
不管你同不同意Kurzweil的觀點,他都是一個牛人。他年輕時候就開始搞發明,之后幾十年發明了很多東西,比如第一臺平板掃描儀,第一臺能把文字轉化為語言的掃描儀(盲人使用),著名的Kurzweil音樂合成器(第一臺真正意義上的電子鋼琴),以及第一套商業銷售的語音識別系統。他是五本暢銷書的作者。他很喜歡做大膽的預測,而且一直很準,比如他80年代末的時候預測到2000年后因特網會成為全球級的現象。他被《華爾街日報》成為“不休的天才”,被《福布斯》稱為“終極思想機器”,被《Inc.》稱作“愛迪生真正的傳人”,被比爾蓋茨稱為“我認識的對人工智能預測最厲害的人。”2012年谷歌創始人Larry Page曾邀請他擔任谷歌的工程總監,2011年他共同創立了奇點大學(Singularity University),現在大學由美國太空總署運運營,由谷歌贊助。
Kurzweil的經歷很重要,因為當他講述自己對未來的愿景時,他聽起來就是個瘋子,但是他不瘋,恰恰相反,他非常聰明而有知識。你可能覺得他對于未來的想法是錯的,但是他不傻。知道他是一個聰明人讓我很開心,因為當我知道他對未來的預測后,我急切的很希望他的預測是對的。信心角中的很多思想家都認同Kurzweil的預測,他也有很多粉絲,被稱為奇點主義者。
時間線
Kurzweil相信電腦會在2029年達成強人工智能,而到了2045年,我們不但會有超人工智能,還會有一個完全不同的世界——奇點時代。他的人工智能時間線曾經被認為非常的狂熱,現在也還是有很多人這么認為,但是過去15年弱人工智能的快速發展讓更多的專家靠近了Kurzweil的時間線。雖然他的時間線比之前提到的2040年和2060年更加早,但是并沒有早多少。
Kurzweil的奇點時代是三個技術領域的共同革命造成的——生物技術、納米技術和最重要的人工智能技術。
人工智能能為我們做什么
擁有了超級智能和超級智能所能創造的技術,超人工智能可以解決人類世界的所有問題。氣候變暖?超人工智能可以用更優的方式產生能源,完全不需要使用化石燃料,從而停止二氧化碳排放。然后它能創造方法移除多余的二氧化碳。癌癥?沒問題,有了超人工智能,制藥和健康行業將經歷無法想象的革命。世界饑荒?超人工智能可以用納米技術直接搭建出肉來,而這些搭建出來的肉和真肉在分子結構上會是完全相同的——換句話說,就是真肉。
納米技術能夠把一堆垃圾變成一堆新鮮的肉或者其它食品,然后用超級發達的交通把這些食物分配到世界各地。這對于動物也是好消息,我們不需要屠殺動物來獲得肉了。而超人工智能在拯救瀕危物種和利用DNA復活已滅絕物種上面也能做很多事情。超人工智能甚至可以解決復雜的宏觀問題——我們關于世界經濟和貿易的爭論將不再必要,甚至我們對于哲學和道德的苦苦思考也會被輕易的解決。
但是,有一件事是如此的吸引人,光是想想就能改變對所有事物的看法了:
幾個月前,我提到我很羨慕那些可能達成了永生的文明。但是,現在,我已經在認真的考慮達成永生這個事情很可能在我們有生之年就能達成。研讀人工智能讓你重新審思對于所有事情的看法,包括死亡這一很確定的事情。
自然演化沒有理由讓我們活得比現在更長。對于演化來說,只要我們能夠活到能夠生育后代,并且養育后代到能夠自己保護自己的年紀,那就夠了——對演化來說,活30多歲完全夠了,所以額外延長生命的基因突變并不被自然選擇所鐘愛。這其實是很無趣的事情。
而且因為所有人都會死,所以我們總是說“死亡和繳稅”是不可避免的。我們看待衰老就像看待時間一樣——它們一直向前,而我們沒有辦法阻止它們。
但是這個假設是錯的,費曼曾經寫道:
“在所有的生物科學中,沒有任何證據說明死亡是必需的。如果你說你想造永動機,那我們對于物理學的研究已經讓我們有足夠的理論來說明這是不可能的。但是在生物領域我們還沒發現任何證據證明死亡是不可避免的。也就是說死亡不一定是不可避免的,生物學家早晚會發現造成我們死亡的原因是什么,而死亡這個糟糕的‘病’就會被治好,而人類的身體也將不再只是個暫時的容器。”
事實上,衰老和時間不是綁死的。時間總是會繼續前進的,而衰老卻不一定。仔細想想,衰老只是身體的組成物質用舊了。汽車開久了也會舊,但是汽車一定會衰老嗎?如果你能夠擁有完美的修復技術、或者直接替換老舊的汽車部件,這輛車就能永遠開下去。人體只是更加復雜而已,本質上和汽車是一樣的。
Kurzweil提到由Wifi連接的納米機器人在血液中流動,可以執行很多人類健康相關的任務,包括日常維修,替換死去的細胞等等。如果這項技術能夠被完美掌握,這個流程(或者一個超人工智能發明的更好的流程)將能使人的身體永遠健康,甚至越活越年輕。一個60歲的人和一個30歲的人身體上的區別只是物理上的,只要技術足夠發達我們是能改變這種區別的。
超人工智能可以建造一個“年輕機器”,當一個60歲的人走進去后,再出來時就擁有了年輕30歲的身體。就算是逐漸糊涂的大腦也可能年輕化,只要超人工智能足夠聰明,能夠發現不影響大腦數據的方法來改造大腦就好了。一個90歲的失憶癥患者可以走進“年輕機器”,再出來時就擁有了年輕的大腦。這些聽起來很離譜,但是身體只是一堆原子罷了,只要超人工智能可以操縱各種原子結構的話,這就完全不離譜。
Kurzweil的思維繼續跳躍了一下,他相信人造材料將越來越多的融入人體。最開始,人體器官將被先進的機械器官所代替,而這些機械器官可以一直運行下去。然后我們會開始重新設計身體,比如可以用自我驅動的納米機器人代替血紅細胞,這樣連心臟都省了。Kurzweil甚至認為我們會改造自己的大腦,使得我們的思考速度比現在快億萬倍,并且使得大腦能和云存儲的信息進行交流。
我們能獲得的新體驗是無窮的。人類的性愛,使得人們不但能生育,還能從中享樂。Kurtzweil認為我們可以對食物做同樣的改造。納米機器人可以負責把身體需要的營養物質傳送到細胞中,智能的將對身體不好的東西排出體外——就像一個食物避孕套一樣。納米技術理論家Robert A. Freitas已經設計了一種紅細胞的替代品,能夠讓人快速沖刺15分鐘不需要呼吸——那么超人工智能能對我們的身體能力做的改造就更加難以想象。虛擬現實將擁有新的意義——體內的納米機器人將能控制我們從感官獲得的信號,然后用別的信號替代他們,讓我們進入一個新的環境,在新環境里,我們能聽、看、聞、觸摸。。。
最終,Kurzweil認為人類會完全變成人工的。有一天當我們看到生物材料,然后覺得生物材料實在太原始了,早年的人體居然是用這樣的東西組成的,早期的人類居然會被微生物、意外、疾病殺死。這就是Kurzweil眼中人類最終戰勝自己的生理,并且變得不可摧毀和永生,這也是平衡木的另一個吸引態。他深深的想象我們會達到那里,而且就在不久的將來。
Kurzweil的想法很自然的受到了各方的批評。他對于2045年奇點時代的到來,以及之后的永生的可能性受到了各種嘲笑——“書呆子的狂歡”、“高智商人士的創始論”等等。也有人質疑他過于樂觀的時間線,以及他對人腦和人體的理解程度,還有他將摩爾定于應用到軟件上的做法。有很多人相信他,但有更多人反對他。
但是即使如此,那些反對他的專家并不是反對他所說的一切,反對他的人說的不是“這種事情不可能發生”,而是說“這些當然可能發生,但是到達超人工智能是很難的。”連經常提醒我們人工智能的潛在威脅的Bostrom都這么說:
很難想象一個超級智能會有什么問題是解決不了,或是不能幫著我們解決的。疾病、貧困、環境毀滅、各種不必要的苦難,這些都是擁有納米科技的超級智能能夠解決的。而且,超級智能可以給我們無限的生命,這可以通過停止或者逆轉衰老來達成,也可以讓我們上傳自己的數據。一個超級智能還能讓我們大幅度提高智商和情商,還能幫助我們創造這種有趣的體驗世界,讓我們享樂。
這是Bostrom這個明顯不在信心角的人的觀點,但也是很多反對Kurzweil的專家的觀點,他們不覺得Kurzweil是在說夢話,只是覺得我們首先要安全達成超人工智能。這也是為什么我覺得Kurzweil的觀點很有傳染性,他傳達了正面的信息,而這些事情都是可能的——如果超人工智能是個仁慈的神的話。
對信心角的最有力的批評,是那些信心角里的人都低估了超人工智能的壞處。Kurzweil的暢銷書《The Singularity is Near》700多頁,只有20頁用來討論人工智能的危險。前面提到,當超人工智能降臨時我們的命運取決于誰掌握這股力量,以及他們是不是好人。Kurzweil的回答是“超人工智能正從多方的努力中出現,它將深深的融入我們文明的基建中。它會親密的被捆綁在我們的身體和大腦中,它會反映我們的價值,因為它就是我們。”
但如果答案就是這樣的話,為什么這個世界上最聰明的一些人會很擔憂?為什么霍金會說超人工智能會毀滅人類?為什么比爾蓋茨會不理解為什么有人不為此擔憂?為什么馬斯克會擔心我們是在召喚惡魔?為什么那么多專家擔心超人工智能是對人類最大的威脅?這些站在焦慮大道上的思想家,不認同Kurzweil對于人工智能的危險的粉飾。他們非常非常擔心人工智能革命,他們不關注平衡木下比較有趣的那一個吸引態,而是盯著平衡木的另一邊,而他們看到的是可怕的未來,一個我們未必能夠逃離的未來。
未來可能是我們最糟的惡夢
我想了解人工智能的一個原因是“壞機器人”總是讓我很困惑。那些關于邪惡機器人的電影看起來太不真實,我也沒法想象一個人工智能變得危險的真實情況。機器人是我們造的,難道我們不會在設計時候防止壞事的發生嗎?我們難道不能設立很多安全機制嗎?再不濟,難道我們不能拔插頭嗎?而且為什么機器人會想要做壞事?或者說,為什么機器人會“想要”做任何事?我充滿疑問,于是我開始了解聰明人們的想法。
這些人一般位于焦慮大道:
焦慮大道上的人并不是恐慌或者無助的——恐慌和無助在圖上的位置是更加左邊——他們只是緊張。位于圖表的中央不代表他們的立場是中立的——真正中立的人有自己獨立的陣營,他們認同極好和極壞兩種可能,但是不確定究竟會是哪個。
焦慮大道上的人是部分為超人工智能感到興奮的——他們只是很擔心人類現在的表現就好像《奪寶奇兵》中的這位少年:
他拿著自己的鞭子和寶物,非常開心,然后他就掛了:
同時,印第安納瓊斯則更加有見識和更加謹慎,了解潛在的危險并且做出相應的反應,最后安全逃出了山洞。當我了解了焦慮大道的人們的想法后,感覺就像“我們現在傻呵呵的,很容易像前面那小子一樣被弄死,還是努力做印第安納瓊斯吧。”
那究竟是什么讓焦慮大道的人們如此焦慮呢?
首先,廣義上來講,在創造超人工智能時,我們其實是在創造可能一件會改變所有事情的事物,但是我們對那個領域完全不清楚,也不知道我們到達那塊領域后會發生什么。科學家Danny Hillis把這個比作“就好像單細胞生物向多細胞生物轉化的時候那樣,還是阿米巴蟲的我們沒有辦法知道我們究竟在創造什么鬼。”
Bostrom則擔憂創造比自身聰明的東西是個基礎的達爾文錯誤,就好像麻雀媽媽決定收養一只小貓頭鷹,并且覺得貓頭鷹長大后會保護麻雀一家,但是其它麻雀卻覺得這是個糟糕的主意。
當你把“對那個領域完全不清楚”和“當它發生時將會產生巨大的影響”結合在一起時,你創造出了一個很恐怖的詞——
生存危機指可能對人類產生永久的災難性效果的事情。通常來說,生存危機意味著滅絕。下面是Bostrom的圖表:
可以看到,生存危機是用來指那些跨物種、跨代(永久傷害)并且有嚴重后果的事情。它可以包括人類遭受永久苦難的情況,但是這基本上和滅絕沒差了。三類事情可能造成人類的生存危機:
1)自然——大型隕石沖撞,大氣變化使得人類不能生活在空氣中,席卷全球的致命病毒等
2)外星人——霍金、卡爾薩根等建議我們不要對外廣播自己的位置。他們不想我們變成邀請別人來殖民的傻子。
3)人類——恐怖分子獲得了可以造成滅絕的武器,全球的災難性戰爭,還有不經思考就造出個比我們聰明很多的智能
Bostrom指出1和2在我們物種存在的前十萬年還沒有發生,所以在接下來一個世紀發生的可能性不大。3則讓他很害怕,他把這些比作一個裝著玻璃球的罐子,罐子里大部分是白色玻璃球,小部分是紅色的,只有幾個是黑色的。每次人類發明一些新東西,就相當于從罐中取出一個玻璃球。大多數發明是有利或者中立的——那些是白色玻璃球。有些發明對人類是有害的,比如大規模殺傷性武器——這是那些紅色玻璃球。還有一些發明是可以讓我們滅絕的,這就是那些黑色玻璃球。很明顯的,我們還沒摸到黑色玻璃球,但是Bostrom認為不久的未來摸到一個黑色玻璃球不是完全不可能的。比如核武器突然變得很容易制造了,那恐怖分子很快會把我們炸回石器時代。核武器還算不上黑色玻璃球,但是差的不遠了。而超人工智能是我們最可能摸到的黑色玻璃球。
你會聽到很多超人工智能帶來的壞處——人工智能取代人類工人,造成大量失業;因為解決了衰老造成的人口膨脹。但是真正值得我們擔心的是生存危機的可能性。
一旦超人工智能出現,人類任何試圖控制它的行為都是可笑的。人類會用人類的智能級別思考,而超人工智能會用超人工智能級別思考。隔壁老王想要用互聯網,因為這對它來說很方便,因為一切它需要的資源都已經被互聯網連起來了。但是就好像猴子不會理解怎么用電話或者wifi來溝通一樣,我們同樣沒有辦法理解隔壁老王可以用來和周圍世界交流的方法。比如我可以說隔壁老王可以通過移動自己的電子產生的效果來產生各種對外的波,而這還只是我這人類的大腦想出來的,老王的大腦肯定能想出更神奇的方法。同樣的,老王可以找到給自己供能的方法,所以就算工程師把它的插頭拔了也沒用;比如說老王可以通過發送波的方式把自己上傳到其它地方。
人類說:“我們把超人工智能的插頭拔了不就行了?”就好像蜘蛛說:“我們不給人類捉蟲的網把人類餓死不就行了?”都是可笑的。
因為這個原因,“把人工智能鎖起來,斷絕它和外界的一切聯系”的做法估計是沒用的。超人工智能的社交操縱能力也會很強大,它要說服你做一件事,比你說服一個小孩更容易。而說服工程師幫忙連上互聯網就是隔壁老王的A計劃,萬一這招行不通,自然還有別的方法。
至于現在的風口是哪里呢?簡單來說,投資創新人工智能技術的錢,比投資人工智能安全研究的錢多很多。不樂觀。
人工智能創新和人工智能安全的賽跑,可能是人類歷史上最重要的一次競爭。我們真的可能結束我們對地球的統治,而那之后我們是永生還是滅絕,現在還不知道。
我現在有一些奇怪的感覺。
一邊是對于我們這個物種的思考,看來我們在這個重大的歷史節點上只有一次機會,我們創造的第一個超人工智能也很可能是最后一個。但是我們都知道大部分產品的1.0版本都是充滿bug的,所以這個事情還是很嚇人的。另一邊,Bostrom指出我們有很大的優勢——我們是先手。我們有能力給這個事情提供足夠的預警和前瞻,使我們成功的機會更高。
這一場豪賭的賭注究竟有多高?
如果超人工智能真的在21世紀達成,而造成的影響真的如大部分專家預測的一樣極端而永久,我們肩上就真的是背負著巨大的責任。接下來幾百萬年的人們都在靜靜地看著我們,希望我們不要搞砸。我們可以給予未來所有人類以生命,甚至是永生,我們也可能終結人類這個特殊的物種,連同我們所有的音樂、藝術、好奇、歡笑、無盡的發現和發明,一起走向滅絕。
當我思考這些事情的時候,我只希望我們能夠慢慢來,并且格外格外小心。從來沒有任何事情比這個更重要——不管我們要花多少時間來把這件事情做對。
我不想死
不.想.死
我雖然覺得人類的音樂和藝術很美好,但是也沒那么美好,很多還挺糟粕的。很多人的笑聲很惱人。未來的人類其實沒有真的在看著我們,因為他們還不存在。也許我們不需要太謹慎,那多麻煩呀。
如果人類在我死后才發現永生的秘密該多讓人掃興啊。
但是不管你是怎么想的,我們至少都應該想一想,應該和人討論討論,大家盡自己能盡的一份力。
這讓我想起了《冰與火之歌》——大家斗來斗去的事情都不是事兒,北面高墻外的那些家伙才是事兒。我們站在平衡木上,小心翼翼的往前走,為平衡木上的種種事情困擾,但其實下一秒我們可能就會跌下平衡木。
而當我們跌下平衡木的時候,其它那些困擾都不再是困擾。如果我們落到比較好的那個吸引態,那些困擾會被輕易解決;如果我們落到比較糟的那個吸引態,就更沒問題了,死人是不會有困擾的。
這就是為什么了解超人工智能的人把它稱作人類的最后一項發明,最后一個挑戰。
所以讓我們認真的討論這個話題。
作者:謝熊貓君 鏈接:https://zhuanlan.zhihu.com/p/19950456
1、本文只代表作者個人觀點,不代表本站觀點,僅供大家學習參考;
2、本站屬于非營利性網站,如涉及版權和名譽問題,請及時與本站聯系,我們將及時做相應處理;
3、歡迎各位網友光臨閱覽,文明上網,依法守規,IP可查。
作者 相關信息
內容 相關信息
? 昆侖專題 ?
? 十九大報告深度談 ?
? 新征程 新任務 新前景 ?
? 習近平治國理政 理論與實踐 ?
? 我為中國夢獻一策 ?
? 國資國企改革 ?
? 雄安新區建設 ?
? 黨要管黨 從嚴治黨 ?
圖片新聞