アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散
■ このスレッドは過去ログ倉庫に格納されています
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。
アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。
キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。
採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは
長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。
「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。
続きはソースで
ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN 資本主義や民主主義がそうであるように
全体の利益の最大化が必ずしも全構成員の幸福の最大化にはつながらない
AIだって同じこと >>751
ビッグデータ解析の結果からしたら、至極妥当な事。
それ否定して、じゃあ、下らん価値観である女性蔑視とほざいた
所で、はじまらない。 逆に看護婦とかの採用は女性が多い所でやったら逆の話になるんじゃないの AIはちゃんと機能してるって結果なんでしょう?
むしろ性によるバイアス無しで出た結果ならなおさら。
つまりは‥ アメリカは転職率高いから勤続年数評価はそこまでない
ただし、パイプはあるから何回も同じ会社に戻ってくることはある
単純に実績不足なんじゃないの?
それに理系って男女比がそもそもおかしい
理工学部9:1 >>755
そういうこと。
そしてそんなことはAI使わなくても自明の理。 人間が誕生してから何千年とかけて作り上げた社会的役割
男が外で働き、女は家で家事と子育てが最適かつ効率的
というのをAIでも改めて証明しただけ
でもそれはフェミ様を怒らせる
フェミ様とは社会を非効率にしたいってこと >>757
要するにこいつが気に食わない結果だから、欠陥ってレッテル貼ると同時に自分の過去全否定晒してるってだけ >>762
要はマルクス主義の理論を当てはめただけだからな 人間社会では時に正解が人を不快にさせ怒らせることもある
てのをやがてAIは学習するだろうか? 異様に日本語が不自由な奴がウジャウジャいるんだけどなんなの? >>676
Googleの写真を自動でタグ付けするAIが黒人をゴリラと判定
どうやってもゴリラ判定が覆らないから
判定からゴリラを削除≒ゴリラが人間になった >>761
むしろ、多変量過ぎて、
人間には偏見や前例から局所解を選択せざる負えないものを
AIによってより最適解に導くというところに妙味があるのに
それを人間の側が偏見や前例によって縛ってしまっては意味がないね >>755
本当に看護は女性が向いてるのか?
思い込みと決めつけである。 女は大体朝鮮人と同じ思考だからそこから見たら妥当な結果である。 >>770
そゆことですね。
人間の要らない解釈加えれば加えるほど、AIは無意味になる。
純然たる結果に対して、性差別などという下らん変数を加えることは、一流料理にとんかつソースどぼどぼぶっかけるようなもんだ 何でこんなことが表に出るのか
アマゾン社内に特別な思想の持主がいるのか >>771
向いてる向いてないじゃなくて、過去の採用記録が女性偏重だったら、そのままデータ活用したらそうなるって話 >>768
こうなるの分かりきってるから、最初から性別を(たぶん人種も)判断から外してたんだよ
それなのにAIに学習させたら学歴欄の女子大学って文字列に能力との関連性発見して
採用でマイナス判定しただけ
男性でも仮に女子大学卒業してればマイナス判定だから厳密には性差別じゃないけどな 男社会の時のデータで評価すると男が優遇されるという当たり前の話
AIはデータの無い新しいことには対応できないってこと 「女性チェス部の部長」←これはあんまり評価に値しないだろ
「女性オンリー」のマイナーな部の部長ではなあ 「あそ研」と変わらん
実際に能力が高かったら過去の実績も女性であふれてるだろうしな >>777
AIってそんなとこまで見て比較するのか
良いんだか悪いんだか分からんシステムだな >>768
学歴を採用基準から外したら
ますます東大出身者が増えたのはGoogleだったか >>784
AIってのは人間が過去に判別してきたデータを学習して
判別するんだから基本的に似たような判断を下すよ
ただコンピュータは人間よりも多く要素を記憶できるので
人間なら見落としてしまうような細かい要素まで判断の基準に
組み込まれるからより正解に近い答えが出せるってだけ >>785
法定雇用率対策みたいなのはAIの方が公平な判断が出来そうな気がする 男と女は身体的な違いの他に、責任感と向上心が違うだろう。 >>1
>アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。
この部分に違和感ある気がするけど、もしかして、性別のデータ無しでやっても結果が同じとかほぼ変わらなかったとか? >>5
ああ、察しの通りだ
そして結局はヒトが決めることとなる
最後は力がモノを言う
所詮は原始的な生き物でいいと思うんですよ我々は >>789
そうだろうねぇ
性別の項目を削除しても学歴、職歴、プライベートでの活動内容などに含まれる単語から
有意な差を見出して女性を排除するような傾向になっていったのかもしれない >>789
性別は最初から削除されてる
ここで言ってるのは間接的な人種差別とかだろう
おそらく人種とか宗教もパラメータから削除してあるだろうけど
例えば◯◯黒人大学ってのがあって、それをマイナス判定とか
ムハンマドみたいなイスラム名をマイナス判定とか
AIが見つけた条件がポリコレ的に「差別」って言われそうなことの可能性はおそらく高い 能力は別になってしまうが希望者全員サイコロ振って決めた方が公平だな 子供が出来たからと産休とったりして仕事に穴開けるんだから正しい解釈じゃん アマゾンの場合は使い倒せる人材という意味合いで男性蔑視の採用してると思うよw
倉庫の中で丸一日、長友みたいにスタートダッシュできるの? >>796
アマゾン倉庫ってロボットがみんなやってくれてるイメージだけど、 >>797
取り扱う物が倉庫ごとに異なるから
それによっても違うけど、最新の倉庫では
ルンバのオバケみたいなのが棚ごと動かしてるよ
https://www.youtube.com/watch?v=m8WPiGC35GA 仮にまーんのほうが高評価になってたら何も問題になってなかったんだろ? >>799
個人が能力低くて低評価になるなら何も欠陥じゃないけど
男性か女性かなんてどうでもいいポイントで評価変わるような学習結果にさせてしまったのは欠陥としか言いようがないだろうよ むしろ、面接官は何人か女入れたほうがいいぞ。
女の観察力なのか、男から見たら黒髪リクスーでかわい目の女の子でも
服の着こなしやしゃべり口でキャバや風俗経験が分かるらしい。 いずれAIは人間と敵対するな。
その時負けるのは映画なんかとは違い人間の方だろう。 まともなら性別宗教人種を排除してもこの結果になったってことぐらい想像できるだろう
能力ではなく男性という性別で差別しないと我慢ならないんだろうな
母親は大切にするのに、主婦を見下すのとよく似てる 不都合な真実のあぶり出し
プログラムミス
果たしてどっちなのか AIって騒いでるがITと何が違うんだ?
騙される奴は二匹目のドジョウ 俺の中のAIって
ガンガンいこうぜ
命を大事に
呪文を節約
呪文をつかうな
命令させろ
なんだよな AIってどんだけ判断が正確で複雑な思考してもAIじゃないんだよ。
自動か手動かどちらでもいいけど、フィードバックで自分の次の判断を変えていくのがAI。
だから漢字変換ソフトもAIなんだよ。 AIをSFに出てくるようなやつと勘違いしてる奴まだいんのかよ。ただのデータ解析だろ ボス相手にザラキ連発してたクリフトから
何も成長していない 履歴書には性別、出身校、国籍は一切書かなくていいのにな
AIがどこでどんな風に判別したのかデータ見たいわ面白そう >>803
面接官も仕事でやっているからな、いらん心配だろ
下手すりゃ、自分が責任取る事になりかねんし ブラック企業
上司:「これやっといて」
AI :「マダオソワッテマセン」
上司:「自分から調べるのが仕事ってもんだろ!」
AI ;「カシコマリマシタ! ドウヤッテヤルノデスカ?」 ただの真実、これに目を背けること自体が、平等を謳った逆差別 偏見なのか事実なのかは分からないが、過去の判断傾向を自動的に繰り返させることが出来てるだけ
それに対して「AIが判定した」ってラベルを貼るとこで客観性があるように誤解を与えるのがマズイ。
しかも、人材評価にAIを使いたいのは大量の人材を絞り込むためではなく、人間がやると偏見や先入観で見落とす要素を拾いたいためだろうから、過去の採用事例と同じように採用できますじゃ役に立たない。
大量の人材に対して前例に沿った客観性で評価出来るということは、小学校の成績を付けされるなら役に立つんじゃ無いかな?中学生以上だとテストの成績順に並ぶだけになるかもしれないが >>777
多分これなんだよな
将棋のプロ棋士と女流棋士みたいに
名前はどうあれ女性だけでやってる客観的に実力の劣る集団がある限りマイナス判定されてしまう
それを無くすには男性より成績の劣る女性団体を全て潰すしか無いがそれは女性にとって不利益にしかならない AIの欠点を批判するかもしれないが
天然頭脳なんか、忖度とヤマ勘が主で
データはほんのちょっとしか見ない。 >>835
それはどんな分野でどんなことご天才と認められた人の話? 例えばニュートンのプリンピキア、特に天文の
軌道計算原理の話をすると、彼はプリンピキアの出版の5年以上も前に基礎理論を作り基本の方程式
は全て証明、検算を終えていた。
けど、天体運動は当時一般則がなかったから、
そのままでは学会も認めようがなかった。
さらに当時天体の一般則が実用で求められて
いたのは天測航海のためであって、実際に使える
明るいよく知られた惑星の軌道を一端でも解明
する必要があった。
そのためニュートンの協力者であるハレーは軍の
仕事をしながら世界各地で天体のデータを集め
ニュートンに提供した。その軌道を逐次解析し、
その全てが自身の運動方程式で線形解析ができ、
学会に認められケンブリッジの看板に座り、
宇宙物理学の祖のまで言われるようになった。 >>833
人事で過去の慣例、経験を無視した冒険人事なんて
ワンマン創業経営者にしかできないじゃん。
失敗しても、自分の責任だからできること。
外から入れた人材の人事は、確かにその会社の
従来の慣例は破ってるかもしれないけど、別会社での
経験などきちんとした経験やデータに基づいてやってるはず。
AIは人間を越えないけど、人間もAIをそれほど越えるわけでもない。
だったら、判断が素早くて余計な感情や迷いの無いAIの方が役にたつ。 >>841
AIがわかる評価基準に落とし込めるものと
そうじゃないものはどう区別するかわかる?
人事の話で、人を超える面もあるけどそうじゃない
面もあるって書いてるところからして、頑張って嘘ついてる
ようにしか見えないけど、そうじゃなきゃ気にしないで。 因果関係を示してるだけで
どっちが原因で、どっちが結果かがわかってないと
過去に男性が多いという理由で、男性向きと判断してしまう 女は子を産むとメスモード発動するから仕事に向いてないんだよ 経歴や資格等にバイアスが発生するからな
というか海外の企業は履歴書に顔写真や性別を書かせない
差別に繋がるような情報は聞くのはNG
だからあくまでもそれ以外の情報を考慮したら女性が低評価になった
単純に履歴書に女性が書いてあったら低評価程度なら
女性に関する判定論理をニュートラルにするよう強制的に上書きすれば良いだけ
でもそうじゃないから開発中止になったんだよ 採用基準と採用後の実績の関係ってのは人事にとって永遠のテーマなわけで
AIはそういう関係を人間では無理だったレベルで解析できるんでまだ初期の段階でのこういうミスマッチみたいのはあっても
そういうのも学習しつつ人間がやるより遥かに確実なレベルの採用ができるようになっていくんでしょ 今までのまんさんの働きぶり見て判断してるんだろ
それなら怒りの矛先は先輩まんさんに向けるんじゃないの? これもう男女別にAIのルール分けるしかないだろ
現実的な男女差無視して採用するのが間違いなんじゃね >>823
インプットするデータの欠陥ではあるな。
「優れた業績あげそうなヤツを選べ」でも、「問題起こしそうなヤツを選べ」でも、
どちらも男を選ぶと思う。そもそもデータ量が男女で違うんだから。
むしろこれで面白いのは、AIだろうが人間だろうが、データが無ければコンザバになるのは当然、って話だな。
人間じゃなければ先入観が無い、なんて幻想もいいとこ、ってことだ。 ■ このスレッドは過去ログ倉庫に格納されています