Meet the computer scientist and activist who got Big Tech to stand down
亞馬遜、微軟停止向警方提供人臉辨識技術,IBM則決定完全退出該領域業務⋯⋯在非裔男佛洛伊德(George Floyd)死後,誰有辦法讓科技大咖(Big Tech),在AI(人工智慧)影像分析技術的發展與競爭中相繼「退縮」?
自稱「程式碼詩人」的喬伊.布蘭薇妮(Joy Buolamwini),是麻省理工學院媒體實驗室(MIT Media Lab)的迦納裔電腦科學家。她曾發表兩項重大研究,指明許多科技公司的AI在辨識膚色較深的女性臉孔時,無法如分析白人男性臉孔般地準確,尤其IBM系統失誤率高達34%。此外,亞馬遜的人臉辨識技術Rekognition,會將19%的女性誤認為男性;若分析對象為深膚色女性,誤判機會更高達31%。
研究成果公開後,IBM於2018年投入解決AI歧視的問題,微軟則馬上採納報告以改善誤差。反觀亞馬遜,卻於2019年用「詆毀」的手段來反擊她的研究,引來逾70名AI研究員在同年4月連署,呼籲電商巨頭停止服務警察。同年底,美國商務部國家標準暨技術研究院(NIST)針對商用臉部辨識技術,完成史上最大規模演算法歧視的審查,針對近百家公司旗下技術逐一比對後,發現亞裔、非裔臉孔的誤判率是白人的10~100倍。
布蘭薇妮成功打破演算法「中立性神話」,如今她持續揭露AI造成的社會影響,其創辦的「演算法正義聯盟(AJL)」已在聯邦、州與地方各級法院上作證,告訴大家:當人臉辨識技術深入人類社會,法令無法監督的危險性。
對這位平權鬥士而言,科技大咖的收手還不足以扭轉局勢。在「黑人的命也是命(Black Lives Matter)」的抗議聲浪進行期間,布蘭薇妮以個人網站名義,號召科技公司向Data 4 Black Lives、Black in AI等黑人公益組織捐出超過100萬美元,以促進科技領域的種族正義。
不只透過科學方法(論文與專著)分享發現,布蘭薇妮更用「聲音」傳達理念,盼更多人能了解正視AI帶有偏見的重要性。像2016年,她在TED演講介紹了AJL;2018年以朗誦(Spoken Word)的表達形式,拍下廣為流傳的影片《AI,我不是一個女人嗎?》,畫面帶出女權運動家特魯絲(Sojourner Truth)到歐巴馬夫人(Michelle Obama)等著名黑人女性,都被AI誤判成男性。她的故事被拍成紀錄片《編碼歧視》(Coded Bias),於今年初發表,特別是與國會議員的對談過程,她簡潔地串起演算法歧視和刑事司法體系中的不平等。
談到布蘭薇妮的「布道」功力,美國公民自由聯盟(ACLU)自由科技計畫主任克洛福特(Kade Crockford)指出,「人們不可能全記住你說什麼,卻始終能記住你為他們帶來的感受。喬伊談到AI演算法時,總先從發現問題的故事開頭講起。」他回憶在一場會議中,ACLU要求執法官員支持麻州政府停用人臉辨識技術,該名官員被說服後隨口表示,布蘭薇妮的遭遇令其難以置信,「她說這種技術甚至看不到她的臉,因此她不得不戴上白色口罩。」
布蘭薇妮的影響力正不斷擴大,以往由研究員及擁護者組成的AJL,最近聘了第一任「政策與合作夥伴關係負責人」;同時,AJL將發動成立迄今最具野心的計畫「演算法漏洞賞金計畫」,促公眾回報AI軟體引起的歧視和危害。其中一位擔任研究員的麻省理工學院教授透露,他們希望由曾是AI系統受害者的個人和社區組織,領頭進行這項工作。
在此之前,人們認為演算法不可能帶有種族主義;現在,企業領袖和立法者皆承受著消除AI偏見的壓力,這可歸功於布蘭薇妮的嚴謹與創造力相得益彰,同時也令她宣揚的理念能獲得社會廣大共鳴。