還記得科幻電影《2001:太空漫游》《銀翼殺手》和《終結(jié)者》嗎?在這些電影中,機器人和計算機系統(tǒng)以別樣的形式(“殺手機器人”)呈現(xiàn)在電影熒幕上,給我們帶來了全方位的視覺沖擊。但如今,這種經(jīng)典的科幻場景似乎與現(xiàn)實相去甚遠。
現(xiàn)在,我們越來越多地使用自主和智能的計算技術(shù)來生活、工作和娛樂。這些系統(tǒng)包括具有獨立推理和決策能力的軟件和硬件。因此,它們既可以在工廠里為我們工作,也能決定我們是否可以獲得房屋按揭貸款;它們不僅能追蹤并測量我們的活動和健康水平,還能清潔我們的客廳地板,修剪我們的草坪,它們已然成為人們生活中須臾不可缺少的重要部分。
顯然,自主和智能系統(tǒng)已開始影響到我們的社會、經(jīng)濟、政治和私人生活的方方面面,包括平凡的日常生活。這其中不可避免地引發(fā)了一個令人擔(dān)憂的問題:計算技術(shù)影響到每個人的人權(quán),從生命權(quán)到隱私權(quán)、從言論自由到社會和經(jīng)濟權(quán)利。那么,在機器人技術(shù)和人工智能(AI)日益塑造的技術(shù)領(lǐng)域里,人們該如何捍衛(wèi)人權(quán)呢?
AI軍備競賽與人權(quán)
首先,人們真正擔(dān)心的是,機器自主性的不斷增加會危害人類的地位。因為當(dāng)智能機器造成危害時,無論是在法律意義上還是在道德意義上,誰將被追究責(zé)任的問題還不明確,這無疑加劇了人們的擔(dān)憂。
雖然還不能確定人們對人權(quán)問題的關(guān)注是否真的與“殺手機器人”有關(guān),但是將智能機器投入到軍事戰(zhàn)爭中的確引起了人們的無限擔(dān)憂。
2017年,美國空軍四星上將Paul Selva在回答關(guān)于美國國防部一道指令的相關(guān)問題時,就指出不要給軍隊配備人類可能無法控制的自動武器系統(tǒng),并主張在恰當(dāng)?shù)奈恢镁S持“戰(zhàn)爭道德規(guī)則”。
國防部這道指令要求,當(dāng)自動機器能夠殺死敵軍士兵時,人類操控者必須介入這一決策過程。Selva表示,在戰(zhàn)爭中,軍隊在恰當(dāng)?shù)奈恢脠允氐赖聹?zhǔn)則非常重要,否則我們可能會向同胞放出一群自己都控制不了的機器人。
表達過類似擔(dān)憂的還有SpaceX及特斯拉CEO Elon Musk和已故的著名天體物理學(xué)家Stephen Hawking。他們曾在一封公開信中發(fā)出警告,不要讓武器開發(fā)商使用人工智能。
他們在信中寫道:“發(fā)動一場人工智能軍備競賽是一個糟糕的主意,應(yīng)該禁止人類無法控制的攻擊性自主武器。”
“我們需要主動、提前去監(jiān)管,而不是被動地去反應(yīng)。在我們需要對AI的監(jiān)管進行反應(yīng)時,已經(jīng)太晚了,”Selva說。
不難看出,人們真正應(yīng)該擔(dān)憂的其實是,人類如何使用機器人和人工智能,以及它們在不公正和不平等的政治、軍事、經(jīng)濟和社會背景下的部署。這在致命的自主武器系統(tǒng)(LAWS)方面尤為突出。
LAWS是能夠在沒有人的情況下,自主完成尋找目標(biāo)、定位、擊殺敵人這一整套工作的AI系統(tǒng)。只要將其派上戰(zhàn)場,它們將自主辨別敵人并完成殺戮。這不禁引發(fā)眾人的擔(dān)心:如果LAWS發(fā)生故障失控,或是受到某些人的惡意操縱,可能會導(dǎo)致無法控制的災(zāi)難性后果。
很快,一些AI、科學(xué)界領(lǐng)袖加入到反對研發(fā)LAWS的隊列中。
今年7月18日,在瑞典斯德哥爾摩舉辦的2018國際人工智能聯(lián)合會議上,包括Elon Musk、谷歌DeepMind創(chuàng)始人在內(nèi)的超過2000名AI學(xué)者共同簽署《致命性自主武器宣言》,宣誓不參與LAWS的開發(fā)、研制工作。這是學(xué)界針對“殺人機器人”最大規(guī)模的一次集體發(fā)聲。
在多方呼吁下,各國政府也開始認真考慮LAWS的威脅。2016年12月,在聯(lián)合國的《常規(guī)武器公約》審議大會上,LAWS首次被納入討論范圍。不過,正式的LAWS國際公約誕生仍需時日。
今年8月,LAWS將再次成為聯(lián)合國各國討論的議題。宣言簽署者們希望,他們的行動能促進立法者頒布正式的國際協(xié)議。
AI監(jiān)控與人權(quán)
另外,人工智能還徹底改變了戰(zhàn)爭與監(jiān)視行為之間的聯(lián)系。
最近,機器人軍備控制國際委員會(ICRAC)等組織對谷歌參與軍事項目——“Maven項目”,表示了強烈的反對。
據(jù)美國國防部網(wǎng)站介紹,“Maven項目”于2017年4月由時任國防部副部長鮑勃·沃克發(fā)起,主要是將大數(shù)據(jù)、人工智能和機器學(xué)習(xí)等人工智能技術(shù)用于軍事用途,首要任務(wù)是研發(fā)整合計算機視覺算法,幫助情報分析人員將海量全動態(tài)視頻數(shù)據(jù)轉(zhuǎn)變成具體作戰(zhàn)所需的情報和決策建議,更好地利用數(shù)據(jù)支持作戰(zhàn)。
按照美國國防部的計劃,“Maven項目”成立六個月就可以運行。為了滿足該項目的迫切時間要求,國防部依靠自身顯然并不足夠。于是,它轉(zhuǎn)而尋求與學(xué)界和業(yè)界的人工智能專家合作,以彌補軍方和硅谷之間的技術(shù)差距。就這樣,谷歌公司成為合作隊伍中的一員。
然而,今年3月,當(dāng)谷歌公司與“Maven項目”簽署合同的消息爆出之后,超過3000名谷歌員工于4月初簽署致谷歌首席執(zhí)行官Sundar Pichai的公開信,建議谷歌退出“Maven項目”,信中寫道:“谷歌不應(yīng)該參與戰(zhàn)爭。”
4月19日,就在谷歌員工發(fā)出公開信半個月之后,來自谷歌、亞馬遜、微軟和IBM等科技公司的員工又發(fā)布了一封聯(lián)合請愿信,聲明稱科技公司不應(yīng)該參與到與戰(zhàn)爭有關(guān)的商業(yè)中去,因此谷歌應(yīng)該中止與美國國防部的合作。
谷歌員工的抗議和多家科技公司員工的請愿又得到了來自人工智能學(xué)界、計算機學(xué)界和倫理學(xué)界專家學(xué)者的支持。機器人軍備控制國際委員會呼吁谷歌承諾其收集的用戶數(shù)據(jù)不會用于軍事目的,隨后又加入了谷歌員工對該公司參與該項目的抗議。如今,迫于內(nèi)外壓力,谷歌公司終于決定于2019年合同到期后,不再續(xù)約。
2013年,Edward Snowden的爆料凸顯了監(jiān)控行為的覆蓋范圍及其深度。這次事件讓人們認識到隱私權(quán)受到的可怕威脅,以及情報機構(gòu)、政府機構(gòu)和私營企業(yè)之間肆意的數(shù)據(jù)共享。然而,侵犯人權(quán)的類似事件并未就此停止。
最近,圍繞劍橋分析公司利用Facebook等社交媒體平臺獲取個人數(shù)據(jù)的爭議,繼續(xù)引發(fā)嚴(yán)重的擔(dān)憂,而這一次則是由于操縱和干預(yù)民主選舉,從而損害了言論自由的權(quán)利。
與此同時,關(guān)鍵數(shù)據(jù)分析人士質(zhì)疑與人工智能“白人問題”(white guy problem)相關(guān)的歧視性做法。因為在訓(xùn)練數(shù)據(jù)中,人工智能系統(tǒng)復(fù)制了現(xiàn)有的種族和性別成見,從而使在諸如警察、司法決策或就業(yè)等領(lǐng)域的歧視性做法根深蒂固。
模糊的界限
人工智能對人權(quán)的種種影響還在日益擴大。
2018年2月,26位來自牛津大學(xué)、劍橋大學(xué)、OpenAI、電子前沿基金會(一個非營利數(shù)字版權(quán)組織)、新美國安全中心(一家美國智庫)等多個研究機構(gòu)的研究人員發(fā)布了一份人工智能預(yù)警報告——《人工智能的惡意使用:預(yù)測、預(yù)防和緩解》,強調(diào)了計算技術(shù)對人權(quán)、物理安全、政治安全和數(shù)字安全的潛在威脅。
該報告預(yù)測了未來十年網(wǎng)絡(luò)犯罪的快速增長、無人機的濫用、使用“機器人(bots)”操縱從選舉到社交媒體等惡意利用人工智能的場景,號召政府及企業(yè)重視當(dāng)前人工智能應(yīng)用中的危險。
但是人們應(yīng)該如何應(yīng)對這些威脅呢?人權(quán)是否已經(jīng)為機器人和人工智能時代做好了準(zhǔn)備?
實際上,更新當(dāng)今時代現(xiàn)有人權(quán)原則的努力正在持續(xù)之中。包括《聯(lián)合國工商業(yè)與人權(quán)的框架和指導(dǎo)原則》在內(nèi)的努力,試圖為數(shù)字時代和生命的未來研究所(FLI)制定的“阿西洛馬人工智能原則”(Asilomar AI Principles)撰寫一部《大憲章》,以確定道德研究的準(zhǔn)則,堅持價值觀并致力于人工智能長期而有益的發(fā)展。
毫無疑問,這些努力值得贊揚,但還遠遠不夠。政府及其相關(guān)機構(gòu)、政黨以及私人公司,尤其是技術(shù)領(lǐng)先的科技公司,必須承諾在合乎道德倫理的情況下謹慎地使用人工智能。此外,還需要有效和可執(zhí)行的立法控制。
當(dāng)然,無論人們采取什么新措施,重要的是要承認我們的生活越來越多地與自動機器和智能系統(tǒng)緊密“糾纏”在一起。這種“糾纏”在醫(yī)學(xué)研究和治療、交通系統(tǒng)、社會醫(yī)療保健和保護環(huán)境的努力等方面增進了人類的福祉。
但是在其他領(lǐng)域,這種“糾纏”會引發(fā)令人擔(dān)憂的前景。計算技術(shù)用于監(jiān)視和跟蹤人們的動作和運動狀況,追蹤人們的步伐、位置、健康、口味甚至人們的友誼。這一系列塑造了人們的行為并促使人們采取自我監(jiān)督的做法,無形中削弱了人們的自由,并破壞了人權(quán)的理念。
這就是關(guān)鍵所在:計算技術(shù)的雙重使用能力模糊了善意與惡意行為之間的界限。更重要的是,計算技術(shù)與個體公民、國家及其機構(gòu)以及私營企業(yè)之間不平等的權(quán)力關(guān)系有著密切而深刻的關(guān)聯(lián)。如果脫離有效的國家與國際之間的相互制衡,它們將對人們的人權(quán)構(gòu)成真正且令人擔(dān)憂的威脅!