隨著AI系統在各領域的廣泛應用,人們越來越關注這些系統是否會繼承並放大人類社會中的偏見。AI 偏見(bias)指的是 AI 系統產生的結果對某些群體系統性地不公平,反映並延續了現實世界中的歧視和不平等。
AI 系統偏見的案例
1. 招聘算法的性別偏見(Amazon 案例)
Amazon曾開發一套 AI 招聘工具,希望自動篩選履歷,尋找頂尖人才。然而,公司於 2015 年發現該系統對女性求職者存在系統性歧視。由於模型以過去10年內提交給 Amazon 的履歷資料訓練,而科技業男性申請者居多,算法從中「學會」了男性候選人較優的錯誤模式。結果,包含「women’s」(女性)一詞的履歷(例如「女性西洋棋俱樂部隊長」)會被扣分,甚至連女性學院的畢業生都被降級評分。系統也偏好履歷中出現「executed」(執行)或「captured」(捕捉)等動詞,這些字彙在男性工程師的履歷中更常見。最終,Amazon 在意識到此偏見後終止了這項 AI 招募專案。
2. 醫療保健演算法的種族偏見
2019 年研究人員發現,美國醫療機構使用的一款患者風險評估算法對有色人種存在偏見。該算法預測哪些病患需要額外醫療照護時,大幅偏袒白人患者,對黑人患者的需求預測不足。雖然模型並未直接使用「種族」作為變數,但使用了與種族高度相關的醫療花費歷史作為代理變數。
由於種種原因,同等病情下,黑人患者過去的醫療花費往往低於白人患者,導致算法錯誤地認為黑人患者需求較低。換言之,歷史數據的不平等使模型預測出現種族偏差。幸運的是,研究人員與提供該演算法的公司合作,將偏見程度降低了約80%。
3. 刑事司法風險評分的種族偏見(COMPAS 案例)
美國法院系統使用的 COMPAS 量刑風險評估工具是 AI 偏見的知名案例之一。調查顯示,COMPAS 算法對不同種族的犯人再犯風險預測不公平:對非裔被告預測錯誤偏高的比例(將不會再犯的人誤判為高風險)幾乎是白人被告的兩倍。換算數據,黑人的錯誤高風險率約45%,遠高於白人的23%。說明該模型將種族偏差隱含在風險評分中,這可能源自於訓練數據中,歷史逮捕與定罪紀錄的不公。
4. 線上廣告演算法的性別歧視
Google 的線上廣告系統曾被發現對不同性別呈現差異待遇。卡內基美隆大學的研究人員在2015年以虛擬用戶測試發現,Google演算法向男性展示高薪工作的廣告明顯多於向女性展示。一項實驗中,廣告系統向男性組展示某高階職位培訓服務的廣告1,852次,但對女性組只展示318次。兩組唯一的差別只有性別,說明廣告推薦在無意中強化了職場性別不平等。研究者指出,這可能與廣告投放和點擊率優化機制相關,但不論原因,結果對女性求職者不利。
偏見產生的原因
AI 系統中的偏見通常並非有意設計,而是各種因素交織所致。主要成因包括:
資料不平衡與偏頗:AI 的學習高度依賴訓練數據,偏頗的數據會導致偏頗的模型
。例如,Amazon 招聘模型因訓練履歷主要來自男性而出現性別偏見;Google Photos 誤將黑人標記為黑猩猩,即是因為訓練集中缺乏對有色人種影像的正確識別,導致模型以少量錯誤樣本作出種族刻板分類。
樣本量不足或代表性不佳(如少數族裔、女性或弱勢群體數據不足)都是常見問題,模型因此難以對這些群體給出準確、公平的預測。歷史偏見的延續:很多模型學習自歷史數據,而歷史本身就帶有制度性偏見。犯罪預測系統往往依賴過去的犯罪與執法記錄,結果因反映了既有的種族定向執法而在預測中強化對少數族裔社區的過度監控。同樣地,COMPAS 風險評估的種族偏差可追溯至過去刑事司法系統對黑人的不公待遇,模型不自覺地將此當作模式學習。一旦訓練數據中蘊含歷史歧視,模型便可能「學習」並複製這種歧視。
模型與演算法設計偏差:演算法本身的設定也可能引入偏見。例如,某些廣告投放系統優化點擊率或經濟效益,但未考量公平性,可能導致高收入職缺廣告更常投放給歷史上點擊率較高的群體(如男性),形成目標函數偏差。
再如,開發者在模型中對特定特徵賦予較大權重,若這些特徵與敏感屬性相關,也會造成歧視。這種由編程決策或演算法導致的偏差,是無心之失,但影響深遠。缺乏社會脈絡與認知偏見:AI 缺少對社會背景和語意的理解,容易作出片面的關聯判斷。
人類在蒐集資料與調校模型時也可能帶入認知偏誤:開發團隊的背景、經驗會影響他們選擇哪些數據、如何標註與調整模型。如 NIST 報告所指出,人為和社會制度因素往往是被忽視的偏見來源,如果開發者偏好某些特定語料(如偏重美國數據集)而忽略多元性,就會將自身視角的偏頗植入模型。
綜上,AI 偏見往往來源複雜,可能同時涉及資料、算法和人為三方面。
改進措施
模型調整與數據糾偏:在發現模型存在偏見後,直接的做法是修正算法或數據。例如,前述醫療風險評估算法的開發方與研究人員合作,重新調整模型以降低對黑人的不利影響,成功將偏差程度減少了約80%。
透過提示詞調整或後訓練等技術手段,可以在一定程度上糾正模型偏差。對於影像識別系統,工程師則可能擴充訓練數據(加入更多不同族裔、人群的樣本)或調整分類標籤機制。
人工監督與「人機協作」:許多組織在關鍵決策中引入「human-in-the-loop」機制,即保持人類對 AI 決策的審查和最終裁量權。這相當於承認AI只能提供參考,決策仍需人來把關。此類舉措體現出在高風險應用中人工覆核的重要性,以免AI出錯時無人糾正。企業在招聘、貸款審批等環節也開始要求 AI 結果需由人工審核或輔助決定,以確保對異常案例進行覆核,不讓算法獨攬生殺大權。

