您好!今天是:2025年-4月23日-星期三
未來人工智能技術軍事化應用示意圖(美國國防部網站)
英媒文章稱,人工智能技術的軍事化,正在讓世界更危險。
英國《經濟學人》周刊9月7日發布的題為《人工智能與戰爭》的文章稱,世界大國之間的競爭涉及很多方面,最令人擔憂、但人們最不了解的一個方面是,使用人工智能的戰爭。
大國都在對軍事化的人工智能投入巨資,從自動化機器人到在戰爭白熱化時為將領們提供快速戰術建議的軟件,任何一方都不希望落在后面。正如五角大樓人工智能事務負責人上個月所說:“我不希望看到的是,未來我們潛在的對手擁有一支完全實現人工智能的部隊,而我們卻沒有。”
文章認為,具備人工智能的武器可以提供超人的速度和精確度,但它們也有可能打破力量平衡。為了獲得軍事優勢,軍隊不僅將使用它們推薦決策,而且還讓它們能夠下達命令。這可能會產生令人擔憂的后果。能夠以比人類更快的速度思考的人工智能指揮系統可能會促使導彈以沒有時間進行外交活動的節奏對航母和空軍基地進行打擊,而且其方式不會完全被操作人員所了解。最重要的是,人工智能系統可能會被黑客入侵,并被數據操縱。
在20世紀,世界最終找到了控制軍事技術方式轉變——即核彈的出現——的方法。全球災難是通過三種辦法的并用才得以避免的:威懾、軍備控制和安全措施。許多人正在為人工智能尋找這樣一個模板。不幸的是,它的用途有限——而且不僅僅是因為這項技術是新技術。
威懾的基礎是一種共識,即如果動用核彈,將對雙方構成災難性風險。但人工智能構成的威脅不那么可怕,也不那么清晰。它可能會幫助突襲或挫敗它們,死亡人數可能從零到數百萬不等。同樣,冷戰時期的軍備控制依賴于透明度,也就是有一定信心地知道對方到底在干什么的能力。與導彈發射井不同,不能通過衛星來監控軟件。敵人可以探察到核彈頭,但它們的威力不會被削弱。不過,向外界展示一種算法卻可能破壞軟件的有效性。雙方可能會盡力誤導對方。領導美國與蘇聯冷戰時期軍控努力的亨利·基辛格說:“對手對人工智能開發配置的無知將成為戰略優勢。”
這就剩下最后的控制——安全措施。核武庫涉及復雜的系統,發生事故的風險很高。已經制定了一些協議,以確保武器在未經授權的情況下是無法使用的,比如自動防護裝置,這意味著炸彈如果被過早投放,就不會引爆。需要更多思考類似的措施如何適用于人工智能系統,尤其是那些受托在混亂和前景不明朗的戰場上指揮軍隊的人。
英媒評論稱,這些規則必須體現的原則是直截了當的。人工智能必須反映人類價值觀,比如公平,并且能夠靈活應對誘敵之計。至關重要的是,要想確保安全,人工智能武器必須盡可能清晰明了,這樣人類才能明白它們是如何決策的。在世界大國之間的對抗中,誘惑將是為了暫時的利益而走捷徑。到目前為止,幾乎沒有跡象表明這些危險得到了足夠重視——盡管五角大樓的人工智能中心正在雇用一名倫理學家。把戰爭留給計算機將使世界變得更加危險。
長按圖片,識別二維碼,關注“昆侖策網”!
(來源:“參考消息”微信公號)
【昆侖策網】微信公眾號秉承“聚賢才,集眾智,獻良策”的辦網宗旨,這是一個集思廣益的平臺,一個發現人才的平臺,一個獻智獻策于國家和社會的平臺,一個網絡時代發揚人民民主的平臺。歡迎社會各界踴躍投稿,讓我們一起共同成長。
電子郵箱:gy121302@163.com
更多文章請看《昆侖策網》,網址:
http://www.kunlunce.cn
http://www.jqdstudio.net
1、本文只代表作者個人觀點,不代表本站觀點,僅供大家學習參考;
2、本站屬于非營利性網站,如涉及版權和名譽問題,請及時與本站聯系,我們將及時做相應處理;
3、歡迎各位網友光臨閱覽,文明上網,依法守規,IP可查。
作者 相關信息
內容 相關信息
? 昆侖專題 ?
? 十九大報告深度談 ?
? 新征程 新任務 新前景 ?
? 習近平治國理政 理論與實踐 ?
? 我為中國夢獻一策 ?
? 國資國企改革 ?
? 雄安新區建設 ?
? 黨要管黨 從嚴治黨 ?
圖片新聞