アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散
■ このスレッドは過去ログ倉庫に格納されています
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。
アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。
キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。
採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは
長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。
「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。
続きはソースで
ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN いずれAIは人間と敵対するな。
その時負けるのは映画なんかとは違い人間の方だろう。 まともなら性別宗教人種を排除してもこの結果になったってことぐらい想像できるだろう
能力ではなく男性という性別で差別しないと我慢ならないんだろうな
母親は大切にするのに、主婦を見下すのとよく似てる 不都合な真実のあぶり出し
プログラムミス
果たしてどっちなのか AIって騒いでるがITと何が違うんだ?
騙される奴は二匹目のドジョウ 俺の中のAIって
ガンガンいこうぜ
命を大事に
呪文を節約
呪文をつかうな
命令させろ
なんだよな AIってどんだけ判断が正確で複雑な思考してもAIじゃないんだよ。
自動か手動かどちらでもいいけど、フィードバックで自分の次の判断を変えていくのがAI。
だから漢字変換ソフトもAIなんだよ。 AIをSFに出てくるようなやつと勘違いしてる奴まだいんのかよ。ただのデータ解析だろ ボス相手にザラキ連発してたクリフトから
何も成長していない 履歴書には性別、出身校、国籍は一切書かなくていいのにな
AIがどこでどんな風に判別したのかデータ見たいわ面白そう >>803
面接官も仕事でやっているからな、いらん心配だろ
下手すりゃ、自分が責任取る事になりかねんし ブラック企業
上司:「これやっといて」
AI :「マダオソワッテマセン」
上司:「自分から調べるのが仕事ってもんだろ!」
AI ;「カシコマリマシタ! ドウヤッテヤルノデスカ?」 ただの真実、これに目を背けること自体が、平等を謳った逆差別 偏見なのか事実なのかは分からないが、過去の判断傾向を自動的に繰り返させることが出来てるだけ
それに対して「AIが判定した」ってラベルを貼るとこで客観性があるように誤解を与えるのがマズイ。
しかも、人材評価にAIを使いたいのは大量の人材を絞り込むためではなく、人間がやると偏見や先入観で見落とす要素を拾いたいためだろうから、過去の採用事例と同じように採用できますじゃ役に立たない。
大量の人材に対して前例に沿った客観性で評価出来るということは、小学校の成績を付けされるなら役に立つんじゃ無いかな?中学生以上だとテストの成績順に並ぶだけになるかもしれないが >>777
多分これなんだよな
将棋のプロ棋士と女流棋士みたいに
名前はどうあれ女性だけでやってる客観的に実力の劣る集団がある限りマイナス判定されてしまう
それを無くすには男性より成績の劣る女性団体を全て潰すしか無いがそれは女性にとって不利益にしかならない AIの欠点を批判するかもしれないが
天然頭脳なんか、忖度とヤマ勘が主で
データはほんのちょっとしか見ない。 >>835
それはどんな分野でどんなことご天才と認められた人の話? 例えばニュートンのプリンピキア、特に天文の
軌道計算原理の話をすると、彼はプリンピキアの出版の5年以上も前に基礎理論を作り基本の方程式
は全て証明、検算を終えていた。
けど、天体運動は当時一般則がなかったから、
そのままでは学会も認めようがなかった。
さらに当時天体の一般則が実用で求められて
いたのは天測航海のためであって、実際に使える
明るいよく知られた惑星の軌道を一端でも解明
する必要があった。
そのためニュートンの協力者であるハレーは軍の
仕事をしながら世界各地で天体のデータを集め
ニュートンに提供した。その軌道を逐次解析し、
その全てが自身の運動方程式で線形解析ができ、
学会に認められケンブリッジの看板に座り、
宇宙物理学の祖のまで言われるようになった。 >>833
人事で過去の慣例、経験を無視した冒険人事なんて
ワンマン創業経営者にしかできないじゃん。
失敗しても、自分の責任だからできること。
外から入れた人材の人事は、確かにその会社の
従来の慣例は破ってるかもしれないけど、別会社での
経験などきちんとした経験やデータに基づいてやってるはず。
AIは人間を越えないけど、人間もAIをそれほど越えるわけでもない。
だったら、判断が素早くて余計な感情や迷いの無いAIの方が役にたつ。 >>841
AIがわかる評価基準に落とし込めるものと
そうじゃないものはどう区別するかわかる?
人事の話で、人を超える面もあるけどそうじゃない
面もあるって書いてるところからして、頑張って嘘ついてる
ようにしか見えないけど、そうじゃなきゃ気にしないで。 因果関係を示してるだけで
どっちが原因で、どっちが結果かがわかってないと
過去に男性が多いという理由で、男性向きと判断してしまう 女は子を産むとメスモード発動するから仕事に向いてないんだよ 経歴や資格等にバイアスが発生するからな
というか海外の企業は履歴書に顔写真や性別を書かせない
差別に繋がるような情報は聞くのはNG
だからあくまでもそれ以外の情報を考慮したら女性が低評価になった
単純に履歴書に女性が書いてあったら低評価程度なら
女性に関する判定論理をニュートラルにするよう強制的に上書きすれば良いだけ
でもそうじゃないから開発中止になったんだよ 採用基準と採用後の実績の関係ってのは人事にとって永遠のテーマなわけで
AIはそういう関係を人間では無理だったレベルで解析できるんでまだ初期の段階でのこういうミスマッチみたいのはあっても
そういうのも学習しつつ人間がやるより遥かに確実なレベルの採用ができるようになっていくんでしょ 今までのまんさんの働きぶり見て判断してるんだろ
それなら怒りの矛先は先輩まんさんに向けるんじゃないの? これもう男女別にAIのルール分けるしかないだろ
現実的な男女差無視して採用するのが間違いなんじゃね >>823
インプットするデータの欠陥ではあるな。
「優れた業績あげそうなヤツを選べ」でも、「問題起こしそうなヤツを選べ」でも、
どちらも男を選ぶと思う。そもそもデータ量が男女で違うんだから。
むしろこれで面白いのは、AIだろうが人間だろうが、データが無ければコンザバになるのは当然、って話だな。
人間じゃなければ先入観が無い、なんて幻想もいいとこ、ってことだ。 >>471
デスピサロみたいな女が来てもダメってことは分かった ■ このスレッドは過去ログ倉庫に格納されています