中新社北京4月20日電 題:人工智能的已知人權(quán)風(fēng)險(xiǎn)及其法治化應(yīng)對(duì)
作者 肖君擁 北京理工大學(xué)法學(xué)院教授、科技人權(quán)研究中心執(zhí)行主任
人工智能時(shí)代,人機(jī)交互模式正在各領(lǐng)域中深度融合。例如在交通領(lǐng)域,智能車憑借多個(gè)傳感器與技術(shù),為駕駛者提供諸如變道、泊車等高水準(zhǔn)輔助;教育領(lǐng)域,智能輔導(dǎo)系統(tǒng)能通過(guò)自然語(yǔ)言處理技術(shù)理解學(xué)生問(wèn)題,提供解答和指導(dǎo);醫(yī)療領(lǐng)域,借助人工智能影像輔助篩查功能,醫(yī)生能從海量影像中精準(zhǔn)找出微小病灶,提升影像輔助診斷的精準(zhǔn)度。
人工智能技術(shù)對(duì)人類工作和生活的影響愈發(fā)深刻,對(duì)人權(quán)的保障有諸多的積極意義。但是,隨著人工智能技術(shù)在各個(gè)領(lǐng)域不斷推廣,其應(yīng)用也面臨著或現(xiàn)實(shí)或潛在的人權(quán)風(fēng)險(xiǎn),我們必須予以正視。如何通過(guò)法治化路徑應(yīng)對(duì)人權(quán)風(fēng)險(xiǎn),是人工智能發(fā)展過(guò)程中的一道必答題。
人工智能應(yīng)用中的人權(quán)風(fēng)險(xiǎn)
人工智能可能在數(shù)據(jù)、算法等方面形成人權(quán)風(fēng)險(xiǎn),侵害人的生命權(quán)、健康權(quán)、財(cái)產(chǎn)權(quán)、隱私權(quán)、人身自由等權(quán)益。
一是與數(shù)據(jù)有關(guān)的人權(quán)風(fēng)險(xiǎn),包括數(shù)據(jù)過(guò)度收集、數(shù)據(jù)濫用、數(shù)據(jù)跨境傳輸?shù),都可能帶?lái)侵犯人權(quán)的問(wèn)題。
數(shù)據(jù)過(guò)度收集和濫用方面,一些企業(yè)在用戶不知情的情況下收集位置信息、瀏覽記錄等個(gè)人數(shù)據(jù),或在未獲得同意情況下將用戶數(shù)據(jù)擅自出售給其他公司或機(jī)構(gòu),用于廣告投放、市場(chǎng)調(diào)研等商業(yè)活動(dòng),侵犯用戶的知情權(quán)和隱私權(quán)。若被不法分子用于詐騙、惡意騷擾等非法目的,將給用戶帶來(lái)精神困擾、財(cái)產(chǎn)損失,侵害其人身權(quán)利和財(cái)產(chǎn)權(quán)。
數(shù)據(jù)跨境傳輸方面,由于不同國(guó)家間數(shù)據(jù)保護(hù)法規(guī)存在顯著差異,數(shù)據(jù)在跨境流動(dòng)期間面臨保護(hù)缺失的困境。此外,某些國(guó)家出于特定目的,可能會(huì)借數(shù)據(jù)跨境傳輸之機(jī),實(shí)施情報(bào)收集活動(dòng),進(jìn)而對(duì)其他國(guó)家公民的隱私權(quán)構(gòu)成侵犯。
二是與算法有關(guān)的人權(quán)風(fēng)險(xiǎn),包括數(shù)據(jù)偏差、算法邏輯錯(cuò)誤、算法黑箱問(wèn)題。
數(shù)據(jù)偏差方面,訓(xùn)練人工智能算法的數(shù)據(jù)集可能存在偏差,導(dǎo)致分析結(jié)果失真,進(jìn)而在決策中延續(xù)或放大現(xiàn)有不平等,影響某些群體權(quán)利實(shí)現(xiàn),如招聘算法中的性別或年齡歧視。
算法邏輯錯(cuò)誤方面,在設(shè)計(jì)或?qū)崿F(xiàn)過(guò)程中,邏輯錯(cuò)誤會(huì)導(dǎo)致非預(yù)期行為或錯(cuò)誤結(jié)果產(chǎn)生,進(jìn)而侵害人權(quán)。如自動(dòng)駕駛場(chǎng)景中的算法缺陷,導(dǎo)致車輛未正確處理道路突發(fā)狀況(如行人突然出現(xiàn)),引起事故,直接影響他人的生命權(quán)和健康權(quán)。
算法黑箱問(wèn)題方面,由于人工智能或大數(shù)據(jù)分析中,算法的輸入、輸出及運(yùn)行過(guò)程不透明、不可知、不可解釋,一些算法壟斷行為會(huì)對(duì)消費(fèi)者權(quán)益帶來(lái)?yè)p害,用戶的知情權(quán)、決策自主權(quán)面臨被剝奪的風(fēng)險(xiǎn)。
三是人類決策被取代所導(dǎo)致的人權(quán)問(wèn)題。
智能推薦系統(tǒng)通過(guò)算法架構(gòu),重塑用戶的信息獲取路徑,使用戶選擇權(quán)被剝奪。例如,視頻網(wǎng)站基于用戶歷史行為推薦相關(guān)內(nèi)容,電商平臺(tái)將高利潤(rùn)商品置于前列,一些社交平臺(tái)的“關(guān)閉推薦”功能需經(jīng)過(guò)多步操作,這些都導(dǎo)致用戶信息接觸范圍逐漸收窄、選擇權(quán)降低。
此外,人工智能工具在提升效率的同時(shí),可能導(dǎo)致人類決策者成為“技術(shù)附庸”,削弱專業(yè)人士的批判性思維,使決策過(guò)程從“人機(jī)協(xié)同”異化為“機(jī)器主導(dǎo)”,如醫(yī)療領(lǐng)域的“雙重誤診風(fēng)險(xiǎn)”(人工智能誤診+醫(yī)生盲從)等。
人類的就業(yè)權(quán)也面臨風(fēng)險(xiǎn)。世界經(jīng)濟(jì)論壇發(fā)布的《2025年未來(lái)就業(yè)報(bào)告》預(yù)測(cè),到2030年全球?qū)⒂?200萬(wàn)個(gè)崗位被人工智能取代,同期可能創(chuàng)造1.7億個(gè)新崗位,形成顯著的“崗位替代潮”。此外,由于就業(yè)門檻提高,低技能勞動(dòng)者將難以適應(yīng)新的就業(yè)市場(chǎng),人工智能的數(shù)字鴻溝致使發(fā)展中國(guó)家崗位流失風(fēng)險(xiǎn)比發(fā)達(dá)國(guó)家高,易造成不同國(guó)家貧富差距擴(kuò)大等問(wèn)題。
溯源人工智能應(yīng)用的人權(quán)風(fēng)險(xiǎn)
人工智能的人權(quán)風(fēng)險(xiǎn),既來(lái)源于技術(shù)本身,也受到社會(huì)偏見、法律監(jiān)管缺失等影響,主要可分為以下四個(gè)方面。
一是算法黑箱問(wèn)題。由于人工智能系統(tǒng)依賴于深度神經(jīng)網(wǎng)絡(luò)等復(fù)雜模型,其內(nèi)部參數(shù)和計(jì)算流程常被視為“黑箱”,缺乏可解釋性和透明度,嚴(yán)重削弱了對(duì)其決策的追責(zé)能力,也讓個(gè)人權(quán)利保護(hù)面臨巨大挑戰(zhàn)。
二是人為偏見的工具性放大。算法訓(xùn)練依賴歷史數(shù)據(jù),而歷史數(shù)據(jù)常常蘊(yùn)含歧視性偏見,這導(dǎo)致人工智能系統(tǒng)在性別、種族、殘疾等維度上做出不公決策,弱勢(shì)群體更易成為監(jiān)控和錯(cuò)誤風(fēng)險(xiǎn)評(píng)估對(duì)象,挑戰(zhàn)了平等權(quán)和非歧視原則。
三是商事策略與盈利動(dòng)機(jī)。制造人工智能產(chǎn)品的私營(yíng)企業(yè),在追求商業(yè)利益過(guò)程中常以數(shù)據(jù)作為核心資產(chǎn),產(chǎn)品在部署后難以從外部及時(shí)發(fā)現(xiàn)潛在人權(quán)侵害,也缺乏有效渠道進(jìn)行糾正。
四是法律缺失。當(dāng)前,人工智能方面的法律和監(jiān)管體系相對(duì)滯后,并缺乏統(tǒng)一的國(guó)際標(biāo)準(zhǔn)與強(qiáng)制性約束機(jī)制,這讓企業(yè)在人工智能治理方面往往“無(wú)意識(shí)睡著”,或難以在不同司法轄區(qū)承擔(dān)一致的人權(quán)責(zé)任。
應(yīng)對(duì)人權(quán)風(fēng)險(xiǎn)的法治化路徑
首先,加強(qiáng)人工智能人權(quán)風(fēng)險(xiǎn)的立法保障。一方面要進(jìn)行頂層設(shè)計(jì),例如中國(guó)于2023年10月發(fā)布的《全球人工智能治理倡議》,圍繞人工智能發(fā)展、安全、治理系統(tǒng)闡述了人工智能治理的中國(guó)方案。另一方面要提升立法保障,包括國(guó)內(nèi)立法中的民事法律和國(guó)家安全法律,信息合成規(guī)定、算法備案等行政法規(guī),國(guó)家標(biāo)準(zhǔn)技術(shù)等。
其次,加強(qiáng)人工智能人權(quán)風(fēng)險(xiǎn)的社會(huì)防控。為此,既要加強(qiáng)教育與普及,提高民眾對(duì)人工智能技術(shù)的認(rèn)知與應(yīng)用能力,也要培養(yǎng)兼具技術(shù)理解、倫理意識(shí)、政策把握、國(guó)際視野的復(fù)合型人才,推動(dòng)人工智能安全研究、人才培養(yǎng)和產(chǎn)學(xué)研合作。
再次,加強(qiáng)人工智能人權(quán)風(fēng)險(xiǎn)的技術(shù)防控。針對(duì)數(shù)據(jù)安全,應(yīng)繼續(xù)落實(shí)《中華人民共和國(guó)個(gè)人信息保護(hù)法》第二十四條規(guī)定的自動(dòng)化決策需透明化;針對(duì)算法歧視,監(jiān)管機(jī)構(gòu)應(yīng)進(jìn)一步落實(shí)《中華人民共和國(guó)數(shù)據(jù)安全法》第二十七條關(guān)于信息安全的要求,驗(yàn)證算法偏見或歧視現(xiàn)象;針對(duì)網(wǎng)絡(luò)犯罪,應(yīng)支持《中華人民共和國(guó)刑事訴訟法》中電子數(shù)據(jù)等證據(jù)的合法性認(rèn)定,搭建國(guó)際聯(lián)合取證平臺(tái),支持多國(guó)司法機(jī)構(gòu)通過(guò)安全多方計(jì)算共享案件關(guān)鍵數(shù)據(jù)。針對(duì)企業(yè)監(jiān)管,應(yīng)要求企業(yè)建立數(shù)據(jù)防泄漏系統(tǒng),提升自身系統(tǒng)防護(hù)能力,必要時(shí)與企業(yè)共同進(jìn)行網(wǎng)絡(luò)安全實(shí)戰(zhàn)演練。
最后,促進(jìn)人工智能人權(quán)風(fēng)險(xiǎn)防控的國(guó)際合作。在國(guó)際規(guī)則制定方面,應(yīng)防范單一國(guó)家或企業(yè)壟斷關(guān)鍵算法技術(shù),提升發(fā)展中國(guó)家的話語(yǔ)權(quán);在加強(qiáng)國(guó)際合作方面,需繼續(xù)強(qiáng)化聯(lián)合國(guó)核心平臺(tái)作用,推動(dòng)《人工智能框架公約》等硬法建設(shè),通過(guò)“技術(shù)—倫理—法律”三位一體的協(xié)作機(jī)制實(shí)現(xiàn)治理包容性。(完)
受訪者簡(jiǎn)介:
肖君擁,北京理工大學(xué)法學(xué)院教授、博士生導(dǎo)師,國(guó)家人權(quán)教育培訓(xùn)基地北京理工大學(xué)科技人權(quán)研究中心執(zhí)行主任。中國(guó)人權(quán)研究會(huì)理事、中國(guó)法學(xué)會(huì)法理學(xué)研究會(huì)和憲法學(xué)研究會(huì)理事。著有《人民主權(quán)論》《國(guó)際人權(quán)法講義》《人權(quán)的道德維度》等。主講《國(guó)際人權(quán)法》獲北京市高校優(yōu)質(zhì)本科課程。曾數(shù)次參加聯(lián)合國(guó)人權(quán)理事會(huì)大會(huì)和邊會(huì)發(fā)言,多次赴美國(guó)、歐洲等地參加國(guó)際人權(quán)對(duì)話交流。