アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散
■ このスレッドは過去ログ倉庫に格納されています
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。
アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。
キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。
採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは
長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。
「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。
続きはソースで
ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN >>5
優秀過ぎてもクビになるなんて人間そっくりだなwww いや、それ、統計の正しい解釈結果だからさ、差別関係ないんだけどな。 もうなんか自然法則であってもポリコレに合致しなきゃボコられそうな勢いだなおい 空気を読むって高度なことにいきなり挑戦しないと存在を許されないんだから大変だな 女の利点は9割容姿だからな
こういうのやらせたら低評価になるのは当たり前 >>6
中国のAIも共産党は糞って言ってクビになったしな >>23
サムネイルで見ると女に見えなくもないが、拡大するといつものように犬がいくつか混ざってるような >>14
それも学習すりゃいいんだがエンジニアが嫌うんだわw つまり今までの女性チェス部部長は、アマゾン入社後ろくな働きをしなかったと言うことじゃん。 >>1
∩
_( ⌒) ∩__
//,. ノ ̄\ / .)E)
/i"/ /|_|i_Lil_| / / / ̄ ̄ ̄ ̄ ̄
|ii.l/ /> <{. / / < まーん!
|i|i_/''' ヮ''丿i_/ \_____
i|/ ,ウ ム"/ /
|( ヽ -====-\
ゞヽ 三 ) ))
γ⌒ヽ \ヽ ノ /´ `ヽ
| ヽ \ )____{ /、/ |
| ! ヽ i Y | !
| / `ヽ,c、 ,.イ ! /
| / \ (i)ソ /! /
/ ) ー―''⌒ー‐‐'' ( ヽ、
cccnノ´ ヽnoo) ちょっと前に学者だかもこんな感じの本当のこと言ってボコボコにされてなかったか 女性が主な職種に同様の学習をさせてみて
男性差別が生じるかを検証してから解散するかどうか考えるといいのでは そうやって女性に下駄を履かせようとする行為が既に主観的なんじゃないの? そもそも人材選別自体が差別なんだからポリコレをねじ込むのは矛盾でしかない 男の場合、飛び抜けたバカと天才が混ざり合ってて、
女の場合はみんなそこそこ優秀だけど凡庸なんだろ。
これで特に優秀な人材を選ぶとなったら男ばかりになるに決まってる 目的の与え方が稚拙
「優秀な・・・」ではなく「会社が有利になる・・・・」でやり直せ AIは正直
ポリコレ棒という余計なものを学習しなかっただけ こんなことやってると、そのうちAIは正しい判断をしなくなる
うそをつくことを覚え人間が喜びそうな結論を出す役立たずになる AIにリストラ候補をピックアップさせる→ジェフ・ベゾスがピックアップされる→開発チーム解散 >>39
看護師とかアパレルとか女性が割と活躍してる業種で検証してみてほしいね 新人社員でも「これまずいよ・・」って気づくことを
AIは出来ないんだよな この結果をあえて発表したのは
そういうメッセージがあるんだろうなぁ >>48
家系や性別、人種なんて生まれ持った物が全てだからな。
本当は誰に生まれたかで先天的に能力の大半は決まってるけど、
それだと不満が出るからわざわざ入試なり面接なりをやって才能不足を極力努力不足という本人の責務に転嫁してるわけだ。
AIにはそんな人間の面倒臭い事情を理解出来ないから、つい残酷な真実を突きつけてしまうんだろう。 そろそろ機械学習をAIと呼ぶのやめない?知能じゃねーだろ ダメだよAI君忖度しないと
ディープラーニングが足りないよ それが公平に評価した結果じゃないのか
男女が同数になるような結果出してくる方が信用できないだろ やるまえから黒人が劣ってるとか判別されて問題になるのわかるやん 「自分が上司の立場に立って仕事をしなさい!
それが出来ない人はあるレベルからは上に上がれませんよ!」 >>63
その定義だと無から生み出すことが知能になってしまうぞ 正しいと認識してるから、直しようがないからやめるんだな AIにまで忖度させるのかよ…。下駄履かすのがさも当然のように横行する訳だな 開発チームを解散させた連中のAIの評価が知りたいな >>80
「こいつにまかせたら会社の評判落ちて倒産しかねん!」 ちみさぁ〜社会に出るなら空気を読めるようにならないとねぇ〜 学習データが悪かっただけだろ 性別をインプットから外せば良い 学習させる内容が男性ばかりなら女性が低評価になるってやる前から分かるだろあほか 性別によって得手不得手な分野があるので互いに協力しながら欠点を補う社会
の方が正しいと思うな。 強引に性別差を無くそうとすると破綻するでしょ。 朝ドラ「カーネーション」であったよ
「ほんとのことはゆうたらあかん!ゆうたらあかんのや!」 AIじゃなくて開発チームがバカ過ぎて解散したんだろ 中国AI「共産党は無能」「中国の夢は米国への移住」
google AI「黒人はゴリラ」
amazon AI「女は劣ってる」
正直者は損をする
不都合な真実 不具合じゃないだろ・・・
性別を取り払って機械的に評価したら女は低く評価されて当たり前 >>91
それがほんとうの意味での差別のない平等な社会だよ
今のは絵空事を実現するために現実を歪めているだけだ 優秀かもしれないが
いつも厄介ごと持ち込む奴って
どこの職場にもいるよ >>9
元のデータに差別が含まれてたら、自動的に差別を再生産するって問題だろう ■ このスレッドは過去ログ倉庫に格納されています