AI 慈善

AI生成「貧困兒童」圖像引道德爭議:專家憂慈善機構助加深偏見

科技

廣告

近年,人工智慧(AI)技術在全球慈善及公共衛生領域應用廣泛,但其生成極端貧困或性暴力倖存者圖像的做法,正引發國際社會強烈質疑。英國《衛報》及比利時安特衛普熱帶醫學研究所研究員Arsenii Alenichev報道指,AI合成圖像已大量出現在Adobe Stock及Freepik等知名圖庫平台,慈善組織因資金短缺轉向AI節省成本,卻無意中強化種族刻板印象及社會偏見。此現象不僅損害真實受害者尊嚴,也恐成為AI模型訓練的負面資料來源,放大全球不平等。

AI生成圖像的興起與資金壓力

美國前總統特朗普2025年7月簽署《2025年度撤銷法案》,從美國國際開發署(USAID)及其他對外援助計劃中撤回約80億美元(約HK$624億元)資金,取消83% USAID合約,導致全球慈善機構預算緊絀。Fairpicture成員Noah Arnold表示,資金壓力迫使機構轉向AI生成圖像,節省拍攝及授權成本,避開肖像權倫理爭議。Alenichev收集逾100張AI「援助圖像」,包括手持空盤的兒童、在泥濁水窪蜷縮的孩子,以及淚痕滿面的非洲女孩穿婚紗,這些內容已廣泛用於宣傳,避免真實受害者曝光。

強化偏見與刻板印象的風險

AI生成圖像常以誇張方式呈現「貧困視覺語法」,如「垃圾河中游泳的亞洲兒童」或「白人志工為非洲村落孩童看診」,強化對非洲、印度等地的負面刻板印象,並出現種族化傾向。Alenichev在醫學期刊《The Lancet Global Health》評論指,這些圖像無助改善現況,反加深全球觀眾對特定地區的誤解與污名。聯合國及慈善組織Plan International曾使用AI影片宣傳,但經《衛報》查詢後撤下。專家擔憂,AI延續社會偏見,生成式模型如DALL·E或Midjourney常輸出扭曲的「貧困」形象,忽略文化多元性。

圖庫平台的角色與未來隱憂

AI合成圖像已流入Adobe Stock及Freepik等主流平台,標題如「難民營裡的真實童年」,供慈善機構免費或低價使用。Freepik行政總裁Joaquín Abela回應,這是消費者需求驅動,平台無法負責。但Alenichev警告,這些圖像一旦成為資料庫,將用於訓練下一代AI,進一步放大偏見,形成惡性循環。慈善機構的AI使用逐漸脫離現實,讓真正困境中人被「虛擬替代」,損害募資真誠度。

專家呼籲與倫理準則

Fairpicture及Alenichev呼籲制定清晰準則,禁止AI過度簡化或娛樂化他人痛苦,避免科技誤用灰色地帶。聯合國及慈善組織應以真實故事取代合成圖像,確保倫理優先。對慈善機構而言,這是警鐘:AI輔助宣傳需謹慎,平衡成本與尊嚴,免落入偏見陷阱。未來,AI倫理指南或成全球標準,讓科技服務人文而非扭曲現實。