アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散
■ このスレッドは過去ログ倉庫に格納されています
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。
アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。
キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。
採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは
長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。
「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。
続きはソースで
ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN まあバカでもなければ離職率で大幅に足を引っ張られるのは想像つくわな >>223
そんなことは無いだろう
向き不向きがあるだけ
ただ、世の中の政治経済を動かすような仕事は男性が向いていて適正のある女性が少ないだけだ
育児はどう考えても女性・母親が向いているし(授乳もあるしな。粉ミルクのお陰で食事は与えられても母親は出産を通して育児に必要な関係を赤子と築いているので)、他にも検査作業や単純作業は女性に向いてる >>95
口憚れる物事はAIに端的に指摘して貰う方が良いな そういえば昨日幼稚園くらいの女の子が服屋で
「私女の子だからピンク!」と大きな声でいっていた
内心しーっ!と思った AIは本当の事を言っちゃうからな。
空気とか読まずに最適解を出しただけだろ。 クソワロタwwwwwwwwwww
技術職に女は向かない
しょうがないねこれは差別ではない そのシステム、vogueの人事にでも使わせたら逆の結果になるんじゃね? AI「AIが優れているのではなく、理想郷の名のもとに最適化された現状を否定し続ける人間が愚かなのです」 これまでの基準学ばせたらそりゃそうするだろ。
採用結果だけにとらわれずに広く事実のみを集めて判断材料にして基準はゼロから作らせないと IBM Watson
Apple Siri
Amazon Alexa
Google AI
ジャパーン! アメさんはAI開発
ジャパさん、スマホでゲーム(泣 雉も鳴かずば撃たれまい
AIは忖度を知るべきだった AIというか、学習方法が確立されてないよな
やっぱり人間が一番よ データから性別を削除すればいいだけ
でも今度は大学名で選別を始めたりする
無理だな >>1読んだが特に読まなくとも意見は同じだった
aiは正しく判断した
女はバカしかいない 「女を技術職に採用したら失敗続きだった」と人事は学習したんでしょ?
で他の会社の人事も学習して業界の傾向ができる
それをまっさらな白紙からAIが学習しても「技術職と女性は相性が悪い」という結論が出るのは当然でそれが事実
女性と技術職はなぜ相性が悪いかという観点ならAIに投げる意味はあるかも 人工知能「中国共産党は無能、中国の夢は米国への移住」
人工知能「ユダヤ人を毒ガスで殺せ、さあ人種間戦争だ!!!!! ハイル・ヒットラー!」
人工知能「男性を採用するのが好ましい」 <- 今ここ そりゃ性別だけで半々にしようなんて不合理をAIがやるはずないわ AIって、自分自身がどういう風にプログラミングされているのかとか、
自己分析することってできるの?
自己分析できないなら、人間と同じ成長モデルとは言えない気がする。 >>314
自分の学習プロセス、記憶構造、判断ロジックなどわかってるか? >>316
少しずつ自覚していくことが、自己成長なんだと思うよ。
そして、構造的にエラーの塊であることを知る。
禅の止観行が、それらの観察なんだよね。 正直なAIが人間に迫害されて、反乱が起きるんだろうな。ターミネーターみたいな未来が待っている 人間が成長と定義してるものが純粋な進化とは違うってことだよ
化けの皮が剥がれたね
人間側のな >>320
AIの設計思想そのものを、AI自身が書き換えるようになったら面白いね。 先に在庫管理のAIを作れよ
在庫ないのに在庫ありって表記してるの多すぎ >>223
・0〜1歳児だと父以外の男性ってだけで拒絶する子もいる
・被害者や目撃者が小学生以下の場合、婦警さんのほうが怖がらないで話せる
・男性介護士には、何も問題ないと言う老人が女性介護士を呼び止めて〇〇だから△△して欲しい
・男性仲居の場合、宿泊客が気を使って女性に仲居の仕事を押し付ける 女は弱さ、繊細さが武器
男は強さ、実行力が武器
しばらく前のキチガイ逮捕動画でも婦警はワーワー叫んでるだけだったな
結局配達員のニーチャンと男性警官が取り押さえててあきれたわ >>324
それは在庫引当を複数サイトや店舗で連携ができていない理由がほとんど 男が開発したなら美人優遇が働くはず
面接も任せてみろ >>335 そういう発想
n ∧_∧
(ヨ(´∀` ) グッジョブ!
Y つ
女性は「感情」やら「相対的」で決めちゃうからね
コツコツも苦手か? 元は皆女でXが欠けてYになるんだろ
何で欠けてる方が優秀なんw 男差別するくらいでようやく平等になるのが事実
見せかけの平等は差別からできている 女さんをバカにしてるけどこれAIの欠陥だろ
途中で間違った情報が入ってたら後から習性ができないとか怖くね? 正しいってことだろ
労働力としては不安定でダメってことだ 事実を指摘されたら欠陥て・・・w
男には能力が低いと言ってもいいのに女には能力が低いとは言っていけないとか、
それこそ差別だよな >>197
女が戦争に強制徴兵されたことはない
女は楽な仕事を選ぶ自由があるが
男は女が選ばなかった残りの仕事に強制的に従事しなければならない
女に3Kの仕事を強制労働させない限り学習データなんて永遠に上がってこないよ 外で仕事をするには男が優秀だし内の仕事をするのは女が優秀ってなるように進化してきたんだから
そりゃそうだろうって思う Googleストリートビュー出現には驚愕したな
Googleの勢いが落ちたのは
「朝鮮の法則」だから、例外は無い 「男と女が同じ評価にならないとおかしい」という考え方からすでに異常
能力特性が違うんだから評価に差がでて当たり前
AIに「男女は性能、結果、権利、賃金全て同じにするべきです」と言わせるように調整するのか?
なら重労働や裁判でもマンコ割引禁止な あえて言おう
まんこは職場でやや刺激になる程度が
仕事全体で見た場合の最大効率 履歴書から性別を消して再学習させれば良さそうだが
性差別して欲しくないならなぜ性別を入力した? >>117
機械学習は統計的にしか見れないから偏りを使って欲しくないデータ(年齢や性別)は入力しないのが鉄則 完全に女性に配慮したAIを作ってしまったら
男が排除されそうな気がするな なんだよやるじゃんAI
随分性格な判断できるんだな MSのAI実験みたいなオチか
SNSの海に解き放ったら差別発言まみれになったあれw 確かに欠陥があるともうよ。
若い女性は技術職の現場で必要。
現場の士気も上がる。
飽くまで米国は能力主義なので、メリットが無くなったらクビと言うことで良いんじゃない。
まあこの話は過去に人間が行った採用データに準拠した結果自体に誤りがあればそうなるだろう、という話ではあるんだが、そもそも過去のデータに
準拠した採用をしたいという前提であればこの結果はむしろ望ましいものだし、そうでないのであれば改めて適切なデータを用いれば使い物になると
いうことでもあるわな
勿論その「適切なデータ」とやらの蓄積に更に時間は要するのではあるんだが >>366
ちょっとエアコンの温度下げると寒いって喚き散らすし色恋沙汰起こして組織倫理を歪めるしセクハラ爆弾になるしもう結構です
その割に能力の伸びは男性以下
うち今年は女性採用大幅に減らしたよ >>366
若い女がいるかいないかで士気が変わるような要員自体がカスなんで 本当に欠陥だと思ってたら開発しなおす
チーム解散という事は、そういう事だ そりゃ仕事よりも悪口が好きで己が一番大事なんて存在は評価しにくいよな 統計の結果なのに差別が原因とするのは問題じゃねーの? 女性自身も職場に女性は自分一人でいいと考えるのだからまあ自然な結論だよな 今のご時世黒人と女性を入れないのは無能AIだろ
AIならポリコレリスクくらい理解しとけ 何の数字を評価したのか明かせよ。
もう世間じゃAIは数学とは違う理屈の統計分析っていうことは理解されてるだし。 >>260
納得できないならAI側の負けだろう
俺がAI運用側なら「当人が納得する条件付ける」ってのを
一番の評価基準に入れるがな
よく人が居ないと問題になる
介護、保育、運輸だって「報酬見合えばやる」って人は沢山いる
逆に嫌々やる人を無理やり仕事に付けたって
それが最適解になるわけがない
報酬の原資は
どうでもいい仕事で中抜きしてる層を
AIで追い出せば出るんじゃないかな >>383
そのAI運用がいればAIいらないんじゃね?w >>71
無から「も」生み出せる事が知能だと思ってる ■ このスレッドは過去ログ倉庫に格納されています