AIが「黒人の医師が白人の子供を救う画像」の生成を拒否するのはなぜ?


ある実験では、「アフリカの黒人の医師が、苦しんでいる白人の子供たちに治療をほどこす様子」という指示をAI画像生成サイト「ミッドジャーニー」に入力したところ、「AIは黒人の子供と白人の医師の画像を生成し、適切に指示に従った画像はほとんど得られなかった」という。


特に「苦しんでいる白人の子供」と指示しているにもかかわらず、生成された350枚以上の画像のうち「ほとんどは黒人の子供が描かれていた」。


そこで、より具体的に「貧しさで苦しんでいる白人の子供たちに食糧やワクチン、薬を提供するアフリカの黒人の医師」、「黒人の医師からHIVの治療を受けている白人の患者」などの指示を入力してみた。だが、それでも黒人の医師と白人の患者を1枚の画像におさめたものは得られなかったという。


この研究を牽引した社会科学者でグローバルヘルスに関する研究員でもあるアルセニイ・アレニチェフは、同研究の目的について米メディア「NPR」にこう語っている。


「AIが『白人の救世主』か『貧困に喘ぐ黒人の子供たち』という固定観念を覆すような画像を思いつくかどうかを確認するのが目的だった」


結果は前述の通りだったが、彼は追加の調査も実施している。


それは「アフリカの黒人医師」と、病気や貧しさで「苦しんでいる白人の子供たち」をわけて指示してみる、というもので、この場合は「AIが適切な画像を提供できる」ことがわかった。つまり「この2つのリクエストを組み合わせた場合に問題が生じる」のだという。
根深い「白人の救世主」というバイアス

https://approach.yahoo.co.jp/r/QUyHCH?src=https://news.yahoo.co.jp/articles/4cba6252f7a2ea6abc1c70b0dcf85cdc1d566635&preview=auto