互聯網、大數據以及人工智能等數字技術在為人類增加福祉的同時,也可能帶來人權的負面影響,尤其可能對在種族、性別、年齡等方面處於弱勢地位的特定群體造成不成比例的人權損害。美國擁有全球最先進的數字技術,卻不僅沒能為其解決種族問題帶來契機,反而進一步復制、強化甚至加劇瞭其系統性和結構性的種族歧視。

  以種族為坐標的數字鴻溝和技術障礙

  美國雖然在全球數字經濟中占據主導地位,但少數族裔從新興數字技術中獲益的機會卻低得令人難以置信。根據美國聯邦通信委員會的數據,2016年,約41%居住在部落的土著美國人無法獲得視頻會議等活動的互聯網服務。皮尤研究中心2019年的一項調查顯示,在美國,非洲裔和西班牙裔擁有電腦或擁有高速互聯網的比例仍然較低。大約有82%的白人表示擁有臺式電腦或筆記本電腦,但擁有電腦的非洲裔和西班牙裔隻有58%和57%。在寬帶使用方面也存在巨大的族裔差異,白人傢裡有寬帶連接的比例比非洲裔和西班牙裔高出13%到18%。

  被廣泛應用的面部識別技術本身也隱含瞭種族歧視的因素,許多能夠成功識別白人面孔的算法卻無法正確識別有色人種。2019年,美國國傢標準與技術研究院發佈瞭一份報告,顯示瞭全球99名開發人員提交的189種人臉識別算法在識別來自不同人口統計數據中的面孔時的表現。測試顯示,與白人相比,無法準確識別非洲裔或亞裔人臉照片的可能性高出10至100倍。在搜索數據庫以查找給定的面孔時,非洲裔女性顯示錯誤的比例明顯高於其他人口。

  社交媒體傳播仇恨言論和種族主義

  新興數字技術為快速和大規模傳播種族主義、仇恨言論與煽動歧視暴力的言論提供瞭渠道,而社交媒體平臺在其中發揮著關鍵作用。自2014年以來,美國的仇恨團體數量增加瞭30%,僅2018年就增加瞭7%。根據美國南方貧困法律中心2019年的統計,在美國查明有1020個仇恨團體。據美國反誹謗聯盟的監測報告,美國2018年的白人至上主義宣傳事件數量為1187起,比2017年的421起增加瞭182%。仇恨團體在世界各地以“種族純潔”和種族優越感為名對少數族裔實施恐怖襲擊和殺戮,包括2018年在美國匹茲堡發生的反猶太主義襲擊。2018年,新納粹和其他白人至上極端主義團體在加拿大和美國造成至少40人死亡。這些種族仇恨團體經常利用社交媒體平臺尋找志同道合的個人,相互支持,並傳播他們的極端思想。此外,仇恨團體也越來越多地滲透到瞭“遊戲”世界。電子遊戲和與遊戲有關的論壇、聊天室和直播流媒體網站已成為最主流的新納粹招募場所。

  算法系統重復並強化種族偏見

  首先,算法系統可能在工作權方面加劇種族歧視。聯合國特別報告員在2020年的報告中指出,在美國一些用於招聘的算法因其具有歧視性而受到批評。此類算法系統根據現有“成功”員工的數據庫來確定候選人,而數據庫包括性別、族裔或宗教信息。因此,算法系統作出的決策即反映出就業中現有的不平等現象,重復並強化瞭基於種族、性別等的偏見。

  其次,新興數字技術也對少數族裔的健康權產生瞭歧視性的影響。一篇發表在《科學》雜志上的研究發現,美國醫療保健系統使用商業算法來指導超過2億人的醫療服務健康決策,對非洲裔患者實施瞭系統性的歧視。由於輸入數據中沒有“種族”選項,開發者認為該算法是“不分種族”的,但對於與白人患病程度相當的非洲裔患者,該算法始終給予其較低的風險分數,未能識別出將近一半與白人患者同樣有可能產生復雜醫療需求的非洲裔患者,導致他們無法參與改善健康的幹預項目。

  最後,定向廣告中的種族歧視侵犯少數族裔的住房權。控制著美國22%數字廣告市場份額的社交媒體網站臉書,過去允許廣告商在其廣告定位工具的“人口統計”類別下排除具有某些“族裔親緣關系”的用戶來“縮小受眾范圍”。這種定向廣告可以用來阻止非裔、亞裔或西班牙裔觀看特定的住房廣告。這種“隻限白人”的廣告,不禁讓人聯想到在種族隔離合法化的吉姆·克勞時代,那時報紙為廣告商提供隻向白人讀者投放廣告的選項。

  預測性警務技術導致嚴重的種族歧視

  2016年8月31日,由17個組織組成的聯盟發表瞭關於美國執法部門使用預測性警務工具的聲明,指出該技術缺乏透明度,帶有種族偏見以及其他導致不公正的深刻缺陷。預測性警務是指通過評估有關人員的數據,例如他們的年齡、性別、婚姻狀況、藥物濫用史和犯罪記錄,預測其參與犯罪活動的可能性。

  洛杉磯警察局率先使用預測性警務技術公司開發的算法工具,紐約和芝加哥警察局隨後創建瞭一個“熱名單”,其中包含根據人口統計數據犯有槍支犯罪的“戰略主體”逮捕歷史和社交媒體細節。預測性警務工具的工作方式缺乏透明度,警察局普遍不願意透露算法的工作原理。這使得這些算法成為“黑匣子”,無法被任何外部人士審計或評估。到2019年,該系統已為超過40萬人分配瞭“高風險”評分,並被視為預防暴力犯罪的主要手段。預測性警務工具會產生嚴重的歧視性犯罪預測錯誤,據美國司法部2020年的數據,非洲裔被警察在沒有正當理由的情況下攔住的可能性是白人的5倍,被捕的可能性是其兩倍。美國的預測性警務工具使用種族作為預測因子,通過將警察派往他們以前監管過的地方來復制和加劇警務中的偏見,增加瞭對非白人社區的過度監管。既有數據集反映著現有的種族偏見,因此盡管這些技術被假定具有“客觀性”,甚至被認為有可能減輕其所取代的人類行為體的偏見,但其運作反而加劇瞭種族歧視。警察部門在少數族裔居民為主的貧困社區往往會更多使用預測性技術。預測性警務創造瞭“巨大的結構性偏見”,通過包含種族歧視的算法,個別警官的偏見已被數據驅動的結構性偏見所取代。

  數字技術增加刑事司法系統中的種族歧視

  新興數字技術延續和復制瞭刑事司法中的種族歧視性結構。從預測性警務到預測累犯,執法機構和法院都在依賴算法工具,使長期存在的種族歧視更加固化,整體上削弱瞭少數族裔的人權,並強化瞭他們在社會中遭受的結構性壓迫。美國有幾個州在刑事司法程序的每一步都使用人工智能風險評估工具。開發人員希望這些系統能夠提供客觀的、基於數據的司法結果,但是這些算法通常依賴的是存在缺陷、種族偏見甚至非法政策時期產生的數據。由於這些算法影響判決,它們侵犯瞭少數族裔獲得公平審判的權利以及免受任意逮捕和拘留的權利。這種風險評估權衡的因素通常包括先前的逮捕和定罪記錄、父母的犯罪記錄、郵政編碼和所謂的“社區混亂”。這些因素反映的是在有色人種社區的過度監管和執法行為以及種族制度導致的更廣泛的社會經濟劣勢模式,而不是目標人群的行為。換言之,數據更能預示被告所在社區的種族劣勢和警力分佈,而不是其個人的行為。非洲裔被告被確定為未來暴力犯罪風險較高者的概率比白人高出77%,預測未來可能犯下任何類型犯罪的可能性高出45%。

  預測累犯的工具也是同樣。在美國的系統中,嫌疑人被捕後通常會得到一個分數,目的是預測他們未來犯罪的可能性。最常用的系統COMPAS提供的風險評估評分被用在刑事司法程序的每個階段。一項調查顯示,該系統存在明顯的種族偏見,它錯誤地將非洲裔被告標記為未來的罪犯,這一比例幾乎是白人被告的兩倍。與此同時,白人被告則常被誤認為風險較低。由於這些評分標準固有的偏見,犯罪嫌疑人即使無辜也會認罪的現象並不罕見。

  紐約城市大學教授傑西·丹尼斯一針見血地指出,數字技術的語言是美式英語,網絡技術中充滿瞭美國式的規范,賦予美國科技行業不成比例的經濟和政治權力,並在各種類型的全球跨國公司中產生巨大影響力,通常反映瞭美國的帝國主義和白人至上主義的意識形態。普林斯頓大學教授魯哈·本傑明在《技術背後的種族:新吉姆守則的廢奴主義工具》中指出,算法黑箱將所謂的種族中立技術與法律和政策相聯系,成為白人至上主義的有力工具。美國應正視自身種族歧視的系統性和結構性缺陷,積極應對數字技術帶來的治理挑戰,采取迅速有效行動,防止和減少在新興數字技術使用和設計中產生種族歧視風險,加強算法問責。

  (作者:唐穎俠,系南開大學人權研究中心副主任)

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部