人工智能正引發(fā)最重要的技術(shù)變革和社會變革,它在深刻改變?nèi)祟愇镔|(zhì)生產(chǎn)體系的同時,也將對人類行為和社會關(guān)系產(chǎn)生深遠的影響。
2018年以來,人工智能安全事故、倫理道德侵害事件頻發(fā),社會各界普遍關(guān)注,特別是全球首例自動駕駛致死事件更是引發(fā)了公眾對人工智能發(fā)展的議論。
實際上,近年來伴隨人工智能向各行業(yè)、各領(lǐng)域的快速滲透,聯(lián)合國、電氣和電子工程師協(xié)會(IEEE)等國際組織已密集推出人工智能發(fā)展原則,以期為世界各國的人工智能監(jiān)管提供參考借鑒,歐盟、日本、新加坡等國家和地區(qū)已明確提出人工智能道德倫理準則,人工智能從業(yè)者也在積極探索行業(yè)自律相關(guān)經(jīng)驗。然而總體來看,準則易定,實施難行,要克服道德準則主觀性,要探索全球人工智能治理準則,并達成多方共識,仍然有較長一段路要走。
人臉識別系統(tǒng)。光明圖片/視覺中國
當?shù)貢r間2018年3月20日,美國亞利桑那州坦佩市,美國國家運輸安全委員會展開調(diào)查。18日晚,一輛以自動駕駛模式運行的優(yōu)步汽車在坦佩市撞倒一名過馬路的行人,并導致該行人死亡。光明圖片/視覺中國
當?shù)貢r間2013年4月23日,英國倫敦,國際機器人武器控制委員會的成員發(fā)起“停止機器人殺手”活動,希望各國能夠以法律形式約束全自動殺人武器的研制和部署。光明圖片/視覺中國
1、人工智能安全事故多發(fā) 社會關(guān)注度日益提升
自動駕駛車輛撞死路人,應(yīng)該由誰來擔責?
2018年3月,優(yōu)步自動駕駛汽車在美國亞利桑那州坦佩市碰撞到一個橫穿馬路的行人,該行人在送往醫(yī)院后不治身亡,這是全球首起自動駕駛車輛在公共道路上撞擊行人致死事件。意外發(fā)生時,汽車處于自動駕駛模式,駕駛座上有1名人類安全駕駛員,該駕駛員并未參與駕駛操作。那么,該由誰對這起事故承擔法律責任?人類駕駛員、汽車制造商沃爾沃公司還是自動駕駛系統(tǒng)提供方優(yōu)步公司?
一年后的2019年3月5日,美國亞利桑那州檢察官裁定優(yōu)步公司不承擔刑事責任,同時建議警方對優(yōu)步的安全駕駛員進行進一步調(diào)查。理由是,這一自動駕駛車輛處在自動駕駛模式時,其剎車的責任應(yīng)由安全駕駛員負責。即優(yōu)步公司的程序已設(shè)定,在自動駕駛模式下,即使遇到緊急情況,系統(tǒng)也不能啟用緊急剎車功能,而是由人類駕駛員啟動。優(yōu)步公司制定的這一算法規(guī)則成為該公司被裁定不承擔刑事責任的重要依據(jù),那么優(yōu)步這一規(guī)則的合理性又該由誰來判定?法律問題的背后實際是倫理準繩的設(shè)定。
侵犯個人隱私,涉嫌種族歧視,這樣的人工智能產(chǎn)品和服務(wù)你能接受嗎?
日前,美國科技巨頭亞馬遜公司向執(zhí)法機構(gòu)、私人企業(yè)銷售人臉識別軟件Rekognition,美國媒體和公眾認為,這將對個人隱私造成嚴重威脅。因為,這款軟件可以讓政府和私企在任何有攝像頭的地方追蹤到普通民眾,同時相關(guān)技術(shù)還因為有色人種被錯誤識別匹配的比例過高而受到種族歧視的質(zhì)疑。
2018年7月,美國公民自由聯(lián)盟(ACLU)的一項測試顯示,Rekognition曾將535名美國國會議員中的28人誤判為罪犯。對于有色人種國會議員識別的錯誤率為39%,遠超對整個國會議員識別的錯誤率。2019年1月,麻省理工學院的一項研究顯示,IBM和微軟公司研發(fā)的人臉識別與分析軟件也都存在種族和性別偏見問題。
人工智能用于研發(fā)戰(zhàn)爭機器人會加劇軍備競賽嗎?
早在21世紀初,美國已將無人系統(tǒng)用于軍事活動。特別是近期,美國部署啟動了諸多人工智能軍事項目,包括各類軍用無人車、無人機、無人船等。谷歌、微軟等公司都參與了軍用人工智能技術(shù)與系統(tǒng)的研發(fā)。
2018年4月,3100多名谷歌員工聯(lián)名請愿,敦促公司終止與美國國防部合作開發(fā)的Project Maven人工智能武器項目。
2018年2月,韓國科學技術(shù)院KAIST與韓國軍工企業(yè)Hanwha Systems合作共建“國防和人工智能融合研究中心”,該中心目標是“開發(fā)應(yīng)用于軍事武器的人工智能技術(shù),參與全球自主武器研發(fā)競爭”,而Hanwha Systems的母公司韓華集團因為制造集束彈藥已被聯(lián)合國列入黑名單。2018年4月,全球20多個國家的50多名頂尖學者在公開信中聯(lián)名抵制韓國科學技術(shù)院的這一行為,“韓國科學技術(shù)院研發(fā)自主武器將會加速人工智能軍備競賽,這樣的技術(shù)可能導致更大規(guī)模戰(zhàn)爭加速到來,如果自主武器研制成功,戰(zhàn)爭速度之快、規(guī)模之大將是前所未有的,也有可能成為恐怖分子的武器”。
2、國際社會密集推出人工智能的應(yīng)用研發(fā)準則
以聯(lián)合國為代表的國際組織,以及匯聚了眾多人工智能學術(shù)界和產(chǎn)業(yè)界人士的阿西洛馬會議等,都在積極探索相關(guān)原則與解決路徑,以期為世界各國的人工智能監(jiān)管提供參考借鑒。
聯(lián)合國高度關(guān)注人工智能與自動化系統(tǒng)等應(yīng)用的安全、倫理和道德問題,呼吁共同應(yīng)對人工智能發(fā)展所帶來的全球性挑戰(zhàn)。
聯(lián)合國主要聚焦自動化武器運用,早在2014年便開始籌備起草《特定常規(guī)武器公約》,以限制人工智能殺手武器的研制,到2016年有包括中國在內(nèi)的123個國家的代表同意締結(jié)該公約。近兩年,隨著新一輪人工智能熱潮的到來,聯(lián)合國高度重視人工智能、機器人、自動化等在民用領(lǐng)域的廣泛應(yīng)用。2016年8月,聯(lián)合國教科文組織與世界科學知識與技術(shù)倫理委員會聯(lián)合發(fā)布了《機器人倫理初步報告草案》,專門提出了機器人制造和應(yīng)用的倫理道德問題和責任分擔機制,并強調(diào)了可追溯性的重要性,即機器人的行為及決策過程應(yīng)全程處于監(jiān)管之下。
2017年6月,聯(lián)合國國際電信聯(lián)盟在日內(nèi)瓦舉行了主題為“人工智能造福人類”的全球峰會,圍繞人工智能的最新發(fā)展,人工智能對道德、安全、隱私以及監(jiān)管等帶來的挑戰(zhàn)展開討論,同時呼吁各國共同探討如何加快推進人工智能大眾化進程,并借以應(yīng)對貧困、饑餓、健康、教育、平等和環(huán)境保護等全球性挑戰(zhàn)。
2018年4月,聯(lián)合國“致命性自主武器系統(tǒng)問題政府專家組”在日內(nèi)瓦召開會議,80余國的官員及專家共同討論人工智能的武器化問題。
阿西洛馬人工智能原則探討如何確保人工智能為人類利益服務(wù)。這一原則源自2017年1月,未來生命研究所在美國加州的阿西洛馬市召開的題為“有益的人工智能”的人工智能會議。來自世界各地,覆蓋法律、倫理、哲學、經(jīng)濟、機器人、人工智能等眾多學科和領(lǐng)域的專家,共同達成了23條人工智能原則,呼吁全世界在發(fā)展人工智能的時候嚴格遵守這些原則,共同保障人類未來的利益和安全。這23條原則分為三大類,包括科研問題、倫理和價值問題以及更長遠的問題。包括霍金、埃隆·馬斯克、德米斯·哈薩比斯等在內(nèi)的近4000名各界人士表示對此支持。
電氣和電子工程師協(xié)會嘗試構(gòu)建人工智能設(shè)計的倫理準則。為切實推動與人工智能倫理相關(guān)的標準制定,電氣和電子工程師協(xié)會分別于2016年12月和2017年12月發(fā)布兩個版本的《人工智能倫理設(shè)計準則》,并始終強調(diào)自主與智能系統(tǒng)不只是實現(xiàn)功能性目標和解決技術(shù)問題,還應(yīng)該造福人類。電氣和電子工程師協(xié)會早在2016年4月便發(fā)起“自主與智能系統(tǒng)倫理的全球性倡議”,數(shù)百名專家參與到人工智能倫理設(shè)計準則的研究與討論中。他們來自學術(shù)界、產(chǎn)業(yè)界、政府部門以及非政府組織,具有計算機、數(shù)學、哲學、倫理學、社會學等多學科背景。
第二版準則涵蓋一般原則、價值嵌入、指導合乎倫理的研究與設(shè)計方法、通用人工智能和超級人工智能的安全、個人數(shù)據(jù)與訪問控制、自主武器、經(jīng)濟和人道主義問題、法律、情感計算、政策法規(guī)、經(jīng)典倫理問題、混合現(xiàn)實、人類福祉指標等13個方面內(nèi)容,同時針對一些倫理事項提出了具體建議。
該準則已成為全球范圍內(nèi)系統(tǒng)、全面闡述人工智能倫理問題的重要文件,并在持續(xù)發(fā)展和完善中,預計最終版將于2019年發(fā)布。人工智能倫理準則可以給電氣和電子工程師協(xié)會正在推動的與人工智能倫理相關(guān)的標準制定提供參考,標準的制定則有望將人工智能倫理從抽象原則落實到具體的技術(shù)研發(fā)和系統(tǒng)設(shè)計中。
3、一些國家提出人工智能發(fā)展與治理的原則和框架
2018年以來,全球包括中國、美國、英國、日本、歐盟、印度、澳大利亞、加拿大、法國、德國、新加坡以及阿聯(lián)酋等10余個國家和地區(qū)在部署實施人工智能發(fā)展戰(zhàn)略時,已明確將人工智能治理問題納入其總體戰(zhàn)略,提出確保本國人工智能健康發(fā)展的基本原則。其中明確提出人工智能道德倫理準則的包括2018年6月新加坡發(fā)布的《AI治理和道德的三個新倡議》;12月歐盟發(fā)布的《可信賴的人工智能道德準則草案》,日本內(nèi)閣發(fā)布的《以人類為中心的人工智能社會原則》等。德國計劃在2019年提出人工智能倫理原則。
綜合來看,這些國家和地區(qū)對人工智能治理進行部署推進的共同點主要包括四個方面。
一是堅持以人為中心的人工智能治理理念。歐盟提出要堅持“以人為中心”的發(fā)展原則,推動發(fā)展符合歐洲倫理與社會價值觀和民眾愿望的人工智能,確保人工智能技術(shù)能夠給個人和社會整體帶來福利。日本提出人類中心原則,人工智能的使用不得侵害憲法和國際規(guī)范保障的基本人權(quán)。美國將“提升公眾對人工智能技術(shù)應(yīng)用的信任度,保護公民自由、隱私和價值觀,切實為國民帶來福祉”作為人工智能發(fā)展的五大基本原則之一。阿聯(lián)酋提出人工智能要負責任地發(fā)展,避免對人類造成巨大威脅。德國提出應(yīng)負責任地、以公共利益為導向發(fā)展和應(yīng)用人工智能,并積極為以數(shù)據(jù)為基礎(chǔ)的商業(yè)模式和價值創(chuàng)造路徑給出歐洲方案,使之符合歐洲的經(jīng)濟、價值和社會結(jié)構(gòu)。
二是設(shè)立專門委員會或?qū)<医M開展人工智能倫理道德規(guī)范研究,以為政府提供決策咨詢。歐盟組建了人工智能高級專家小組負責人工智能道德準則的制定工作,小組52名專家來自谷歌、IBM、貝爾實驗室、SAP、博世等全球領(lǐng)軍企業(yè)與研發(fā)機構(gòu)和牛津大學、伯明翰大學等知名學府以及若干社會組織。新加坡成立人工智能和數(shù)據(jù)道德使用咨詢委員會,以協(xié)助政府制定人工智能道德標準和治理框架。英國上議院人工智能特別委員會專門研究人工智能對經(jīng)濟、社會和道德倫理等的影響。德國數(shù)據(jù)倫理委員會負責人工智能技術(shù)發(fā)展與應(yīng)用中的倫理和法律問題研究。印度成立人工智能特別委員會,研究人工智能應(yīng)用可能產(chǎn)生的問題,并計劃在具體行使人工智能技術(shù)研究和成果轉(zhuǎn)化職能的兩大類機構(gòu)中設(shè)立道德委員聯(lián)合會,以制定有關(guān)隱私、安全和道德的行業(yè)特定準則等。
三是積極參與人工智能全球治理。阿聯(lián)酋人工智能部早在2018年2月便召開了一次關(guān)于人工智能全球治理的頂級閉門會議,討論人工智能對人類社會帶來的挑戰(zhàn),并試圖尋找解決方案,當年11月,阿聯(lián)酋人工智能部長表示將盡快舉辦全球人工智能治理論壇,以期在人工智能治理方面與全球達成共識。英國也希望能夠與他國共同塑造人工智能研發(fā)和使用的倫理框架,并醞釀在2019年舉辦全球峰會,與各國、行業(yè)、學術(shù)界和民間團隊一道在平等的基礎(chǔ)上,商討制定人工智能研發(fā)和應(yīng)用的全球通用倫理框架。
四是加快調(diào)整部分領(lǐng)域監(jiān)管規(guī)則,尋求相關(guān)行業(yè)健康發(fā)展。在自動駕駛領(lǐng)域,美國交通部于2017年9月更新了聯(lián)邦自動駕駛汽車政策《自動駕駛系統(tǒng):安全愿景2.0》,確定了12項安全性能自評標準,以為自動駕駛行業(yè)提供非監(jiān)管性指導,企業(yè)可以據(jù)此提交安全評估報告。美國、德國、英國、新加坡和韓國等都引入了公共道路的自動駕駛汽車法規(guī)并頒發(fā)自主測試許可證。德國自動駕駛汽車道德委員會是德國聯(lián)邦政府為制定自動駕駛汽車相關(guān)法律法規(guī)設(shè)置的專門機構(gòu)。在智能醫(yī)療領(lǐng)域,2017年7月,美國食品藥品監(jiān)督管理局(FDA)建立了一種針對低風險醫(yī)療人工智能產(chǎn)品的全新監(jiān)管方式——“數(shù)字醫(yī)療軟件預認證計劃”,隨后FDA選擇了9家企業(yè)開始實施試點項目,試點項目結(jié)束后,FDA旗下專門負責醫(yī)療設(shè)備及科技監(jiān)管的機構(gòu)器械和輻射健康中心根據(jù)在上述試點項目中確定的客觀標準來“預先認證”具備資格的數(shù)字醫(yī)療開發(fā)主體。經(jīng)過預認證的開發(fā)主體可以直接銷售自己的低風險醫(yī)療人工智能產(chǎn)品,而無須經(jīng)過FDA的額外審查和一系列入市審查。
4、產(chǎn)業(yè)界探索行業(yè)自律經(jīng)驗
人工智能產(chǎn)業(yè)界、行業(yè)協(xié)會等也將人工智能治理作為重要議題開展相關(guān)研究,成為行業(yè)自律的重要經(jīng)驗探索。微軟、谷歌、IBM、百度、騰訊、索尼、西班牙電信、德國SAP等公司都已明確提出公司人工智能研發(fā)與應(yīng)用的核心原則,美國信息技術(shù)產(chǎn)業(yè)委員會則頒布了人工智能的14條政策準則,對人工智能系統(tǒng)的設(shè)計、部署與應(yīng)用等的安全性提出要求,并探討了企業(yè)、政府、研究機構(gòu)應(yīng)采取什么樣的運作及合作方式,以確保人工智能發(fā)揮最大的積極效益。
微軟公司總裁布拉德·史密斯表示,要設(shè)計出可信賴的人工智能,必須采取體現(xiàn)道德原則的解決方案,因此微軟提出6個道德基本準則,即公平、包容、透明、負責、可靠與安全、隱私與保密。在經(jīng)歷了員工聯(lián)合請愿事件后,谷歌公司CEO桑德·皮查發(fā)表署名文章《谷歌AI的原則》,詳述了人工智能七大原則,即造福社會、避免偏見、確保安全、對人負責、保護隱私、遵守嚴格的科學標準、避免有潛在危害或可能被濫用的技術(shù)與應(yīng)用,同時還明確了未來將嚴格堅守的四大底線等。DeepMind公司于2017年10月成立了“人工智能倫理與社會部門”,旨在理解人工智能的現(xiàn)實影響并幫助技術(shù)人員將倫理付諸實踐,該部門于2018年啟動關(guān)于算法偏見、問責制和自主殺人機器等課題項目的研究,希望可以幫助社會預測人工智能的影響,并根據(jù)預測結(jié)果給予正確的引導,確保人工智能給人類社會帶來正面作用。德國商業(yè)軟件巨頭SAP于2018年9月發(fā)布了一份道德規(guī)范來管理其人工智能研究,并提出七條準則,旨在防止人工智能技術(shù)侵犯人們的權(quán)利,參與制定這一規(guī)范的包括工程師、神學家、政治家和生物倫理學家等。
總體來看,全球主要國家對人工智能治理仍然僅僅停留在原則和框架層面,具體到人工智能技術(shù)開發(fā)規(guī)則,比如如何使之嚴格遵守“人工智能系統(tǒng)不傷害人類”“人工智能決策應(yīng)具備可解釋性”等規(guī)則,各國都尚未提出明確的解決方案。理應(yīng)涵蓋技術(shù)開發(fā)、行業(yè)監(jiān)管和公共治理等在內(nèi)的成體系化的法律和規(guī)范建設(shè)尚顯遙遠。同時在產(chǎn)業(yè)領(lǐng)域,各國、各企業(yè)由于文化傳統(tǒng)和價值觀不同,彼此在人工智能部署原則上也有差異,比如美國、歐盟和中國對自動駕駛實施監(jiān)管和規(guī)范的態(tài)度彼此就存在一定的差異。當前,全球人工智能應(yīng)用的快速普及以及跨國界、跨區(qū)域要素的加速流動和產(chǎn)業(yè)互動,正為各方提出前所未有的挑戰(zhàn),國際社會理應(yīng)盡快形成人工智能全球治理通用或一致性框架,確保人工智能為人類所用,并促進全人類平等受益。
作者:高芳(中國科學技術(shù)信息研究所政策與戰(zhàn)略研究中心副主任、副研究員)
《光明日報》( 2019年03月28日 14版)
1、本文只代表作者個人觀點,不代表本站觀點,僅供大家學習參考;
2、本站屬于非營利性網(wǎng)站,如涉及版權(quán)和名譽問題,請及時與本站聯(lián)系,我們將及時做相應(yīng)處理;
3、歡迎各位網(wǎng)友光臨閱覽,文明上網(wǎng),依法守規(guī),IP可查。
作者 相關(guān)信息
內(nèi)容 相關(guān)信息
孫富春 | 人工智能:科技與經(jīng)濟發(fā)展新引擎
2019-03-20? 昆侖專題 ?
? 十九大報告深度談 ?
? 新征程 新任務(wù) 新前景 ?
? 習近平治國理政 理論與實踐 ?
? 我為中國夢獻一策 ?
? 國資國企改革 ?
? 雄安新區(qū)建設(shè) ?
? 黨要管黨 從嚴治黨 ?
? 社會調(diào)查 ?
圖片新聞