梁伊琪
美國總統(tǒng)拜登最近簽署法案旺道關(guān)鍵詞排名軟件,將每年的6月19日——“六月節(jié)”(Juneteenth)正式定為聯(lián)邦節(jié)日。美國的六月節(jié)是為了紀(jì)念奴隸制終結(jié)的標(biāo)志——《解放黑人奴隸宣言》而舉行的節(jié)日。從美國最古老的節(jié)日之一,到美國最新的聯(lián)邦節(jié)日,六月節(jié)走過了100多年。然而,在節(jié)日慶祝的背后,種族主義仍無處不在,它不僅顯露在諸如喬治·弗洛伊德(George Floyd)之死的顯性暴行里,也隱藏在我們平時較少察覺的“人造物”(artifacts)中。
一、人造物的種族歧視
“Do artifacts have politics?”(人造物是否具有政治性?),這是美國技術(shù)哲學(xué)家蘭登·溫納(Langdon Winner)在1980年提出的疑問。
為了回答這個問題,溫納舉過一個關(guān)于技術(shù)政治的著名事例。位于紐約長島的瓊斯沙灘(Jones Beach)是夏季休閑的度假勝地,公眾前往海灘的最快路線就是由建筑師羅伯特·摩西(Robert Moses,1888-1981)設(shè)計的紐約旺托州立公園大道(Wantagh State Parkway)。公園大道于1929年通車,道路上有兩百多座矮橋。這些矮橋只有9英尺(約2.7米)高,以至于只能通過小汽車,而12英尺(約3.6米)高的公交車就無法從它下面通過。在摩西的時代,也就是上世紀(jì)二三十年代的美國,小汽車不是普通交通工具,而是高檔的消費品,是富裕階級的象征。而剛好,當(dāng)時的富裕階級大多數(shù)是白人。
摩西設(shè)計的矮橋(圖源https://xintu.jaredfanning.com/notes/design-systems-urban-planning)
只有擁有小汽車的富人才能從矮橋下自由通行,享受瓊斯沙灘的美景,而平時利用公交車出行的貧民和黑人則被排除在外。溫納進(jìn)而指出,公園大道的矮橋設(shè)計反映了建筑師羅伯特·摩西的政治意圖——階級和種族歧視。看似中立的橋梁建筑,卻通過技術(shù)配置對社會秩序施加了歧視性的影響。溫納利用摩西矮橋的事例,揭示了人造物(artifacts)背后的權(quán)力影響因素。
然而,低矮的橋梁設(shè)計是否只因建筑師的個人偏見?歷史學(xué)家喬治·史蒂文斯(George Stevens)試圖為摩西解釋。他寫道旺道關(guān)鍵詞排名軟件:“摩西在世時,美國彌漫著合法的種族隔離和強烈的種族主義?!?/p>
摩西設(shè)計矮橋的年代,正值美國種族隔離盛行的時代。1865年南北戰(zhàn)爭結(jié)束后,盡管奴隸制度得到廢除,但美國黑人并沒有因此得到平等對待,他們陷入了另一種災(zāi)難——種族隔離。
電影《綠皮書》的原型是美國種族隔離時期的一本黑人旅行指南,它列舉了美國南部能接待黑人的場所。
1892年,一位名叫普萊西的黑人被捕,因為他沒有遵循法律乘坐“隔離車廂”,而坐到了白人車廂?!捌杖R西案”的判決明確表示,在火車車廂等公共場所為黑人保留和指定位置是一種“隔離但平等”政策,并未剝奪黑人的公民權(quán)利,因此不構(gòu)成歧視。在不勝枚舉的種族隔離慣例和規(guī)定下,很多白人衣食住行所在之處,例如學(xué)校、教堂、餐廳、廁所、公共汽車等等,黑人都不得進(jìn)入。如果黑人闖進(jìn),還有可能面臨生命危險。
設(shè)計矮橋的摩西正處于這種時代,法律保護(hù)種族隔離的時代。我們也許可以說,摩西矮橋只是美國當(dāng)時的一個縮影。盡管如此,利用時代作為理由試圖為一個人的種族主義開脫,也不能減輕這個人作為種族主義者的罪惡。
二、隱身在計算機代碼里的種族歧視
從黑人罷乘蒙哥馬利公車運動,到馬丁·路德·金發(fā)表《我有一個夢想》演講,在一系列風(fēng)起云涌的民權(quán)運動之后,美國終于在1964年廢除了種族隔離制度。甚至在奧巴馬勝出2008年美國總統(tǒng)大選后,一些媒體和學(xué)者認(rèn)為,美國已經(jīng)進(jìn)入了“后種族時代”,即種族歧視不復(fù)存在,反種族歧視躋身進(jìn)政治正確。
1983年在華盛頓舉行的一個反種族歧視集會。
而事實上,“后種族時代”只是一層精致的糖衣,包裹著仍然令人致命的種族主義現(xiàn)象。特雷沃恩·馬丁(Trayvon Martin),邁克爾·布朗(Michael brown),埃里克·加納(Eric Garner),塔米爾·萊斯(Tamir Rice),菲蘭多·卡斯蒂爾(Philando Castile),布雷娜·泰勒(Breonna Taylor),喬治·弗洛伊德(George Floyd),一個個遭受美國警察暴力而死的名字,提醒著人們種族主義仍在美國大行其道。
除了關(guān)注屢見不鮮的種族歧視犯罪,我們可以繼續(xù)追隨溫納的思路,把目光聚焦我們這個時代最重要的人造物——計算機。
2020年,美國谷歌公司旗下的Chrome瀏覽器開發(fā)團(tuán)隊表態(tài)要棄用其程序代碼中“黑名單”(Blacklist)和“白名單”(Whitelist)術(shù)語,將這兩個詞更換為“屏蔽名單”(Blocklist)和“允許名單”(Allowlist)。原先的術(shù)語將“黑/白”與“好/壞”聯(lián)系起來,潛移默化地延續(xù)和強化了種族歧視。而另一邊,蘋果公司禁止開發(fā)人員使用“主從模式”(master/slave)術(shù)語,并替換成不帶有種族歧視含義的表達(dá),例如primary/secondary、primary/replica、main/secondary等等。隱性的種族歧視從計算機代碼中可見一斑。
然而,為什么像“黑名單和白名單”(Blacklist/ Whitelist)、“主從模式”(master/slave)這樣的術(shù)語長期以來沒有遭到抗議?
研究種族與文化的安娜·埃弗利特(Anna Everett)教授指出,個中原因離不開計算機發(fā)展的歷史。美國早期計算機領(lǐng)域的員工大部分由白人構(gòu)成,在那里,有色人種的貢獻(xiàn)幾乎被抹去。編寫代碼的白人有意無意地將自身的種族身份融入了計算機中的默認(rèn)設(shè)置,這也成為了一段被延續(xù)下去的歷史。
另一方面,互聯(lián)網(wǎng)使用者鮮少質(zhì)疑技術(shù)的“默認(rèn)設(shè)置”,相反,他們常常認(rèn)為“默認(rèn)即中立”。而事實上,許多人在聲稱技術(shù)是“無價值傾向”(value-free)時,他們只是在無意識地復(fù)制霸權(quán)制造出來的話語。
持有這種觀點的互聯(lián)網(wǎng)用戶,也很難理解一些維護(hù)種族權(quán)益的技術(shù)創(chuàng)新。Blackbird是一款為了滿足對非裔權(quán)益感興趣的用戶信息需求而研發(fā)的瀏覽器。它的設(shè)計者發(fā)現(xiàn),在常規(guī)瀏覽器中,例如谷歌瀏覽器,與黑人群體相關(guān)的信息往往被排序到很后,而許多用戶在搜索時,只會瀏覽首條搜索結(jié)果。為了讓有需要的用戶(不僅僅是非裔群體自身)更容易檢索到相關(guān)信息,Blackbird將瀏覽器搜索結(jié)果中黑人相關(guān)的信息排列在靠前的位置。
Blackbird瀏覽器
此舉一出,便備受質(zhì)疑。有用戶指責(zé)設(shè)計者是“逆向種族主義”(reverse racism),而Blackbird瀏覽器更是種族隔離的再現(xiàn)。
反對者認(rèn)為,Blackbird瀏覽器的優(yōu)先排序已經(jīng)是一種篩選,這會“限制”使用者的眼界。顯然,反對者基于一種觀點——目前的主流互聯(lián)網(wǎng)是“客觀中立的”。然而,這只是一種過度信任互聯(lián)網(wǎng)的想象,谷歌瀏覽器并不是客觀世界本身。另外,反對者在這里將有關(guān)黑人的內(nèi)容與“有所限制”聯(lián)系在一起,本質(zhì)上也是在貶低黑人相關(guān)信息的價值。
Algorithms of Oppression: How Search Engines Reinforce RacismSafiya U. Noble
在《壓迫算法:搜索引擎如何強化種族主義》一書中,作者舉出一些搜索引擎中種族主義和性別歧視的例子,例如搜索“大猩猩”,谷歌瀏覽器會顯示黑人照片;搜索“黑人女孩”關(guān)鍵詞,谷歌會導(dǎo)向色情網(wǎng)頁等等。正如這本書的封面,在谷歌瀏覽器搜索欄中輸入“為什么黑人女性如此”之后,自動補全的都是諸如“憤怒、吵鬧、誘人、懶惰”等負(fù)面形容詞。
可見,瀏覽器搜索結(jié)果并不是那么可靠中立,它甚至帶有歧視性的價值傾向。而當(dāng)他們以“不夠原本的互聯(lián)網(wǎng)中立”這種觀點來指責(zé)Blackbird瀏覽器的設(shè)計時,他們只是在支持和復(fù)制白人意識形態(tài)框架?;蛟S人們已經(jīng)忘記,白色也是一種顏色。
三、被植入偏見的人工智能
計算機科學(xué)發(fā)展到今天,人工智能無疑成為當(dāng)下的焦點,而偏見也如影隨形。
2011年,洛杉磯警察局和加州大學(xué)洛杉磯分校合作開展了一個研究項目,這也是PredPol程序的前身。項目建立了一種“預(yù)測犯罪”的算法,根據(jù)警方以往收集的犯罪數(shù)據(jù),例如犯罪類型、逮捕數(shù)量、報警次數(shù)等等,來預(yù)測未來可能會發(fā)生犯罪的地點。一般警察的執(zhí)法流程是在犯罪發(fā)生后才介入,但近年來人工智能的進(jìn)步似乎能夠為警方部署提供依據(jù),提高工作效率。
PredPol預(yù)測犯罪界面
從表面上看,使用“客觀數(shù)據(jù)”來預(yù)測犯罪風(fēng)險似乎是一種很可靠的方法,可以避免警察個人帶有偏見的主觀判斷。然而,批評者很快指出了PredPol的缺陷——使用歷史犯罪數(shù)據(jù)實際也有可能加劇種族歧視。華盛頓特區(qū)大學(xué)法學(xué)院教授安德魯·弗格森(Andrew Ferguson)表示,雖然數(shù)據(jù)本身只是數(shù)字和位置的集合,但警方數(shù)據(jù)收集的做法可能已經(jīng)充滿偏見。有數(shù)據(jù)表明,黑人在美國警察攔截、拘留和逮捕的人中占絕大多數(shù)。而PredPol使用這些數(shù)據(jù)作為預(yù)測基礎(chǔ),在其顯示的犯罪區(qū)域中,黑人社區(qū)的數(shù)量幾乎是白人社區(qū)的兩倍。因此,根據(jù)PredPol的算法運算邏輯,美國警方會在黑人社區(qū)不斷加派警力巡邏,而在那些警察越常訪問的地區(qū),PredPol預(yù)測的犯罪行為也會越多,這也將導(dǎo)致更多的警察被安排到這些地區(qū),那么就會進(jìn)入一個惡性循環(huán)。因此,如果不假思索地使用算法來“預(yù)測犯罪”,這將在本質(zhì)上延續(xù)警方以往的做法,強化帶有偏見的執(zhí)法行為。
從PredPol的例子中,我們再一次認(rèn)識到了技術(shù)的偏見?!秹浩人惴ǎ核阉饕嫒绾螐娀N族主義》的作者諾布爾分析道,用戶之所以那么盲目地信任互聯(lián)網(wǎng),是因為他們將數(shù)學(xué)運算的觀念,遷移到互聯(lián)網(wǎng)的算法理念中。人們從小就被灌輸“數(shù)字的存在是絕對真理”,例如1之所以為1,是被規(guī)定的客觀事實,無需質(zhì)疑。但人們忽略的是,算法與數(shù)字不一樣,一個算法涉及到不同的運算步驟,這其中就包含了主觀決策,因此一個算法的構(gòu)建是一系列人為決定的結(jié)果,并不是絕對的“客觀中立”。
另外,即使最終決策是由人做出,算法在完成“偏見”過程中也起到關(guān)鍵作用。人們選擇算法,就不得不去適應(yīng)其中的邏輯——算法意味著自動執(zhí)行,它不會自我糾正和修復(fù),只會使偏見變得更加劇,災(zāi)難變得更極端。我們對此并不陌生。被植入資本邏輯的算法,造成了外賣小哥的困境。被植入了種族主義的算法,加深了對非裔的偏見。技術(shù)就是以這種方式,反向統(tǒng)治了人類。
人臉識別是說明人工智能具有偏見的另一個例子。人工智能要想有智慧,不是寫好程序就足夠了,之后還要利用大量數(shù)據(jù)進(jìn)行訓(xùn)練,讓它學(xué)會找到規(guī)律。而在目前用于訓(xùn)練人臉識別的數(shù)據(jù)集中,淺色皮膚占據(jù)絕大多數(shù),導(dǎo)致樣本數(shù)據(jù)的不平衡,并最終導(dǎo)致了人臉識別在針對有色皮膚時錯誤率明顯增大。
麻省理工學(xué)院在2018年的一項研究將微軟、IBM和曠視科技三家人臉識別技術(shù)進(jìn)行對比,結(jié)果顯示,針對黑人女性的人臉識別錯誤率高達(dá)21%-35%,而針對白人男性的錯誤率則低于1%,不同種族的準(zhǔn)確率差異巨大。
2015年,由于人工智能的局限性,谷歌公司的圖片軟件曾錯將黑人的照片標(biāo)記為“大猩猩”。為此,谷歌選擇刪除了“大猩猩”的標(biāo)簽,但依然無法解決人臉識別存在的種族問題。
羅伯特·威廉姆斯
2019年,美國更是發(fā)生了第一宗人臉識別錯誤導(dǎo)致的誤捕案。2018年年底,一位小偷在底特律的一家商店行竊后離開,警察調(diào)出商店的監(jiān)控錄像進(jìn)行調(diào)查。然而,監(jiān)控畫面比較模糊,而且小偷低著頭,并不能清楚地看見嫌疑人的面部。于是,警方試圖通過人臉識別技術(shù)將小偷識別出來,最終系統(tǒng)匹配到了42歲的羅伯特·威廉姆斯(Robert Williams)。之后,威廉姆斯被警方拘押共30個小時,警方才核實他的不在場證明,承認(rèn)是人臉識別系統(tǒng)出現(xiàn)錯誤。
威廉姆斯是美國第一宗公開的人臉識別誤捕案,但輿論認(rèn)為,威廉姆斯可能未必是第一個被冤枉的人。此后,舊金山、波士頓、波特蘭等美國13個城市陸續(xù)禁止警察和限制其他市政部門使用人臉識別技術(shù)。
《自主性技術(shù)》,[美] 蘭登·溫納
溫納在《自主性技術(shù)》一書中寫道:“人們確信技術(shù)是中立的、工具式的,以此來掩護(hù)一種正在或者已經(jīng)建立的秩序?!逼缫曅缘闹刃虿粌H體現(xiàn)在政治和法律制度中,也存在于建筑、計算機代碼、人工智能或者其他人造物里,而沉默是后者獨特的表達(dá)方式。無形互聯(lián)網(wǎng)逐漸成為我們時代的基礎(chǔ)設(shè)施,它在某些時候,猶如一座座有形的摩西矮橋,將人們分隔開來。如果不想自動化偏見,那么就去看見和糾正偏見吧。
參考文獻(xiàn)
Brock, A. (2011). Beyond the pale: The Blackbird web browser’s critical reception. New Media & Society, 13(7), 1085-1103.
Buolamwini, J., Gebru, T. "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
Senft, T. & Noble, S. U. (2013). Race and social media. In The social media handbook (pp. 115-133). Routledge.
Stevens, G. (1989). Robert Caro’s Moses: A Historian’s Critique in Joann P Krieg. Robert Moses: Single-Minded Genius. New York: Heart of the Lakes Publishing.
The New York Times - Facial Recognition Is Accurate, if You’re a White Guy
https://xintu.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
Winner, L. (1980). Do artifacts have politics. The social shaping of technology, 28-40.
蘭登·溫納,《自主性技術(shù):作為政治思想主題的失控技術(shù)》
王陽,《摩西低橋與技術(shù)產(chǎn)品政治性》
責(zé)任編輯:朱凡
校對:欒夢
掃描二維碼推送至手機訪問。
版權(quán)聲明:本文由信途科技轉(zhuǎn)載于網(wǎng)絡(luò),如有侵權(quán)聯(lián)系站長刪除。
轉(zhuǎn)載請注明出處http://macbookprostickers.com/xintu/55639.html