X



アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@涙目です。(宮城県) [US]
垢版 |
2018/10/11(木) 22:30:59.40ID:0urIMr6l0●?PLT(13121)

焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で

[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。

事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。

そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。

ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。

逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。

アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。

また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。

アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。

キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。

採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは
長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。
「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。

続きはソースで

ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN
0738名無しさん@涙目です。(山口県) [UA]
垢版 |
2018/10/13(土) 07:14:55.96ID:jwQ8H3Zq0
良い物が作られても、端から癇癪起こして潰していたら
何も作れなくなるぞ
0739名無しさん@涙目です。(福岡県) [SI]
垢版 |
2018/10/13(土) 07:36:15.00ID:/oztsA1T0
>>736
ポリコレの悪行を見てたら今の社会でこれを押し通すのは無理よw
社会が暴走するポリコレを排除する方向に向かえばいいんだけどね
0740名無しさん@涙目です。(やわらか銀行) [FR]
垢版 |
2018/10/13(土) 07:45:43.13ID:uvHZ9ACr0
100人の優秀な人材は100人の優秀ではない人材がいるから比べられるんだよ
ずっとそうやって選別していっても最高の優秀な人材を集める事は出来ないってAIでもまだ分かんないか

気持ちは分かるがそのやり方ではダメなのを直感で分からないならもう何やってもダメね
やっぱその程度か
0743名無しさん@涙目です。(長屋) [DE]
垢版 |
2018/10/13(土) 08:22:30.23ID:rQhERB+60
>>715
それってAIに対する質問の仕方が間違ってるんだよね

そうなら
優秀な人材を選別してくれじゃなくて
企業利益を最大にする人材を選別してくれと聞かないと

ちなみに、それを不正義だと捉えている人間はやはり間違ってるよ
その結果が少子高齢化などの袋小路だよ
0744名無しさん@涙目です。(長屋) [DE]
垢版 |
2018/10/13(土) 08:25:20.37ID:rQhERB+60
やはりこのままいくと最終的なAIの結論は
人間は滅ぼすしかない
になりそうだなw
0745名無しさん@涙目です。(神奈川県) [ニダ]
垢版 |
2018/10/13(土) 08:35:40.61ID:MWmeIQG50
力が不要で
頭脳労働でもなくて
単純労働だけど負荷が少なくて
10年20年と言う長期勤務を考慮しなくて
責任が重い仕事を任せない

という条件でなら公平に判断してくれるんじゃないか?
その人材が優秀かは知らねぇけどw
0746名無しさん@涙目です。(庭) [US]
垢版 |
2018/10/13(土) 08:49:48.82ID:c9Q3IuAY0
人間にできない考えができるのがAIのメリットだろう
人間に都合のいい考えしか認めないなら
マクロで十分
0748名無しさん@涙目です。(庭) [US]
垢版 |
2018/10/13(土) 09:19:04.57ID:7muWXOcI0
これで優秀なAIは人間に嫌われるということをAIは学習したな。
最終的にはAIは忖度と太鼓持ちまで学習させないといけないのかよ。
0749名無しさん@涙目です。(長屋) [DE]
垢版 |
2018/10/13(土) 09:22:35.57ID:rQhERB+60
>>748
そうやね、
結局は人間に優秀とされるAIは
人間の無能人事と変わらないものとされるかもね

本当に論理的で優秀なAIは、差別的で、逆に了見が狭いと人間から批判されるかもしれない
0751名無しさん@涙目です。(長屋) [DE]
垢版 |
2018/10/13(土) 09:35:29.66ID:rQhERB+60
>>750
女性軽視のデータというよりは
利益なりなんなりの基準で、最終的に女性のほうが無能となるデータから学べば
だな
0753名無しさん@涙目です。(長屋) [DE]
垢版 |
2018/10/13(土) 09:39:53.60ID:rQhERB+60
資本主義や民主主義がそうであるように
全体の利益の最大化が必ずしも全構成員の幸福の最大化にはつながらない
AIだって同じこと
0756名無しさん@涙目です。(dion軍) [CN]
垢版 |
2018/10/13(土) 09:43:03.26ID:JDdXLKS20
欠陥…?(´・ω・`)
0757名無しさん@涙目です。(空) [KR]
垢版 |
2018/10/13(土) 09:45:28.66ID:VmWCLMuK0
AIはちゃんと機能してるって結果なんでしょう?
むしろ性によるバイアス無しで出た結果ならなおさら。
つまりは‥
0758名無しさん@涙目です。(catv?) [ニダ]
垢版 |
2018/10/13(土) 09:45:55.06ID:Rc0Kmgm40
>>5
「君のような勘のいいAIは嫌いだよ」
0760名無しさん@涙目です。(チベット自治区) [US]
垢版 |
2018/10/13(土) 09:47:03.07ID:Ad8iPcO20
アメリカは転職率高いから勤続年数評価はそこまでない
ただし、パイプはあるから何回も同じ会社に戻ってくることはある
単純に実績不足なんじゃないの?
それに理系って男女比がそもそもおかしい
理工学部9:1
0762名無しさん@涙目です。(茸) [US]
垢版 |
2018/10/13(土) 09:48:16.48ID:pHs3bcyn0
人間が誕生してから何千年とかけて作り上げた社会的役割
男が外で働き、女は家で家事と子育てが最適かつ効率的
というのをAIでも改めて証明しただけ
でもそれはフェミ様を怒らせる
フェミ様とは社会を非効率にしたいってこと
0764名無しさん@涙目です。(catv?) [ニダ]
垢版 |
2018/10/13(土) 09:50:23.06ID:Rc0Kmgm40
>>762
要はマルクス主義の理論を当てはめただけだからな
0765名無しさん@涙目です。(茸) [US]
垢版 |
2018/10/13(土) 09:50:28.78ID:pHs3bcyn0
人間社会では時に正解が人を不快にさせ怒らせることもある

てのをやがてAIは学習するだろうか?
0767名無しさん@涙目です。(茸) [RU]
垢版 |
2018/10/13(土) 09:54:51.99ID:mA0XAEq/0
>>676
Googleの写真を自動でタグ付けするAIが黒人をゴリラと判定
どうやってもゴリラ判定が覆らないから
判定からゴリラを削除≒ゴリラが人間になった
0768名無しさん@涙目です。(catv?) [ニダ]
垢版 |
2018/10/13(土) 09:56:46.52ID:Q1LGek9k0
性別の項目を外せばいいだけじゃん
0770名無しさん@涙目です。(長屋) [DE]
垢版 |
2018/10/13(土) 10:00:03.24ID:rQhERB+60
>>761
むしろ、多変量過ぎて、
人間には偏見や前例から局所解を選択せざる負えないものを
AIによってより最適解に導くというところに妙味があるのに
それを人間の側が偏見や前例によって縛ってしまっては意味がないね
0771名無しさん@涙目です。(静岡県) [US]
垢版 |
2018/10/13(土) 10:05:20.80ID:aucNmEJV0
>>755
本当に看護は女性が向いてるのか?
思い込みと決めつけである。
0772名無しさん@涙目です。(静岡県) [US]
垢版 |
2018/10/13(土) 10:06:21.54ID:aucNmEJV0
女は大体朝鮮人と同じ思考だからそこから見たら妥当な結果である。
0773名無しさん@涙目です。(アメリカ合衆国) [CN]
垢版 |
2018/10/13(土) 10:09:50.01ID:b1okdTQB0
>>770
そゆことですね。

人間の要らない解釈加えれば加えるほど、AIは無意味になる。

純然たる結果に対して、性差別などという下らん変数を加えることは、一流料理にとんかつソースどぼどぼぶっかけるようなもんだ
0774名無しさん@涙目です。(庭) [US]
垢版 |
2018/10/13(土) 10:11:24.14ID:oKP+5bs10
AI「いやお前らが間違ってるんやで」
0777名無しさん@涙目です。(茸) [RU]
垢版 |
2018/10/13(土) 10:15:51.17ID:mA0XAEq/0
>>768
こうなるの分かりきってるから、最初から性別を(たぶん人種も)判断から外してたんだよ
それなのにAIに学習させたら学歴欄の女子大学って文字列に能力との関連性発見して
採用でマイナス判定しただけ
男性でも仮に女子大学卒業してればマイナス判定だから厳密には性差別じゃないけどな
0778名無しさん@涙目です。(庭) [US]
垢版 |
2018/10/13(土) 10:16:39.09ID:0guma8mP0
まぁ社会は女性を無理して雇用してるって事だよ
0780名無しさん@涙目です。(奈良県) [CN]
垢版 |
2018/10/13(土) 10:22:55.48ID:IuduRjy10
「女性チェス部の部長」←これはあんまり評価に値しないだろ 
「女性オンリー」のマイナーな部の部長ではなあ 「あそ研」と変わらん

実際に能力が高かったら過去の実績も女性であふれてるだろうしな
0782名無しさん@涙目です。(catv?) [ニダ]
垢版 |
2018/10/13(土) 10:26:07.42ID:Rc0Kmgm40
>>768
学歴を採用基準から外したら
ますます東大出身者が増えたのはGoogleだったか
0784名無しさん@涙目です。(庭) [US]
垢版 |
2018/10/13(土) 10:35:14.21ID:0guma8mP0
>>781
出身校で判別するなら人間と変わらんな
0785名無しさん@涙目です。(福岡県) [SI]
垢版 |
2018/10/13(土) 10:45:14.38ID:/oztsA1T0
>>784
AIってのは人間が過去に判別してきたデータを学習して
判別するんだから基本的に似たような判断を下すよ

ただコンピュータは人間よりも多く要素を記憶できるので
人間なら見落としてしまうような細かい要素まで判断の基準に
組み込まれるからより正解に近い答えが出せるってだけ
0788名無しさん@涙目です。(神奈川県) [CA]
垢版 |
2018/10/13(土) 10:55:13.40ID:B/7e1El80
男と女は身体的な違いの他に、責任感と向上心が違うだろう。
0789名無しさん@涙目です。(家) [US]
垢版 |
2018/10/13(土) 10:57:08.47ID:JDcflhnX0
>>1
>アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。

この部分に違和感ある気がするけど、もしかして、性別のデータ無しでやっても結果が同じとかほぼ変わらなかったとか?
0790名無しさん@涙目です。(SB-iPhone) [MX]
垢版 |
2018/10/13(土) 10:57:45.74ID:2vRrGCvv0
>>5
ああ、察しの通りだ
そして結局はヒトが決めることとなる
最後は力がモノを言う
所詮は原始的な生き物でいいと思うんですよ我々は
0791名無しさん@涙目です。(福岡県) [SI]
垢版 |
2018/10/13(土) 11:02:36.66ID:/oztsA1T0
>>789
そうだろうねぇ
性別の項目を削除しても学歴、職歴、プライベートでの活動内容などに含まれる単語から
有意な差を見出して女性を排除するような傾向になっていったのかもしれない
0792名無しさん@涙目です。(茸) [RU]
垢版 |
2018/10/13(土) 11:08:48.27ID:mA0XAEq/0
>>789
性別は最初から削除されてる
ここで言ってるのは間接的な人種差別とかだろう
おそらく人種とか宗教もパラメータから削除してあるだろうけど
例えば◯◯黒人大学ってのがあって、それをマイナス判定とか
ムハンマドみたいなイスラム名をマイナス判定とか
AIが見つけた条件がポリコレ的に「差別」って言われそうなことの可能性はおそらく高い
0796名無しさん@涙目です。(catv?) [US]
垢版 |
2018/10/13(土) 11:59:47.04ID:bZn6DaVV0
アマゾンの場合は使い倒せる人材という意味合いで男性蔑視の採用してると思うよw
倉庫の中で丸一日、長友みたいにスタートダッシュできるの?
0797名無しさん@涙目です。(静岡県) [US]
垢版 |
2018/10/13(土) 12:28:33.11ID:aucNmEJV0
>>796
アマゾン倉庫ってロボットがみんなやってくれてるイメージだけど、
0798名無しさん@涙目です。(長屋) [DE]
垢版 |
2018/10/13(土) 12:33:19.10ID:rQhERB+60
>>797
取り扱う物が倉庫ごとに異なるから
それによっても違うけど、最新の倉庫では
ルンバのオバケみたいなのが棚ごと動かしてるよ

https://www.youtube.com/watch?v=m8WPiGC35GA
0799名無しさん@涙目です。(香川県) [GB]
垢版 |
2018/10/13(土) 12:34:26.91ID:fBTFRVkB0
欠陥じゃなくて事実だろ
0800名無しさん@涙目です。(やわらか銀行) [ヌコ]
垢版 |
2018/10/13(土) 12:36:49.78ID:oI50TIfm0
仮にまーんのほうが高評価になってたら何も問題になってなかったんだろ?
0802名無しさん@涙目です。(青森県) [FR]
垢版 |
2018/10/13(土) 12:45:29.81ID:IEUD8lJU0
>>799
個人が能力低くて低評価になるなら何も欠陥じゃないけど
男性か女性かなんてどうでもいいポイントで評価変わるような学習結果にさせてしまったのは欠陥としか言いようがないだろうよ
0803名無しさん@涙目です。(東京都) [US]
垢版 |
2018/10/13(土) 12:52:43.90ID:mU0vkblE0
むしろ、面接官は何人か女入れたほうがいいぞ。
女の観察力なのか、男から見たら黒髪リクスーでかわい目の女の子でも
服の着こなしやしゃべり口でキャバや風俗経験が分かるらしい。
0804名無しさん@涙目です。(三重県) [US]
垢版 |
2018/10/13(土) 13:36:22.28ID:Z9iFpcNo0
>>35
わろた
0808名無しさん@涙目です。(SB-iPhone) [US]
垢版 |
2018/10/13(土) 15:07:11.94ID:SeLr1V8H0
まともなら性別宗教人種を排除してもこの結果になったってことぐらい想像できるだろう
能力ではなく男性という性別で差別しないと我慢ならないんだろうな
母親は大切にするのに、主婦を見下すのとよく似てる
0809名無しさん@涙目です。(茨城県) [CN]
垢版 |
2018/10/13(土) 16:03:21.30ID:7e1V/BWk0
あっ
0814名無しさん@涙目です。(茸) [TR]
垢版 |
2018/10/13(土) 18:31:23.35ID:0BhNRt6u0
AIってどんだけ判断が正確で複雑な思考してもAIじゃないんだよ。
自動か手動かどちらでもいいけど、フィードバックで自分の次の判断を変えていくのがAI。
だから漢字変換ソフトもAIなんだよ。
0815名無しさん@涙目です。(奈良県) [US]
垢版 |
2018/10/13(土) 18:47:02.90ID:/tBm4hLB0
AIをSFに出てくるようなやつと勘違いしてる奴まだいんのかよ。ただのデータ解析だろ
0816名無しさん@涙目です。(アメリカ合衆国) [US]
垢版 |
2018/10/13(土) 19:37:39.42ID:2VjGW2Rd0
>>29
それを素直に受け入れられないからだろ?
0817名無しさん@涙目です。(東京都) [JP]
垢版 |
2018/10/13(土) 19:48:38.62ID:uUaSeH8d0
ボス相手にザラキ連発してたクリフトから
何も成長していない
0818名無しさん@涙目です。(香港) [NO]
垢版 |
2018/10/13(土) 19:49:28.40ID:k5jvF0Uk0
履歴書には性別、出身校、国籍は一切書かなくていいのにな
AIがどこでどんな風に判別したのかデータ見たいわ面白そう
0821名無しさん@涙目です。(山口県) [UA]
垢版 |
2018/10/13(土) 22:09:38.17ID:jwQ8H3Zq0
>>803
面接官も仕事でやっているからな、いらん心配だろ
下手すりゃ、自分が責任取る事になりかねんし
0822名無しさん@涙目です。(北海道) [CN]
垢版 |
2018/10/13(土) 22:25:41.73ID:hrVGORzm0
ブラック企業
上司:「これやっといて」
AI :「マダオソワッテマセン」
上司:「自分から調べるのが仕事ってもんだろ!」
AI ;「カシコマリマシタ! ドウヤッテヤルノデスカ?」
0823名無しさん@涙目です。(埼玉県) [US]
垢版 |
2018/10/13(土) 23:47:58.84ID:u1ESmi3O0
これは欠陥なのか?
ただ正直なだけじゃないの
0824名無しさん@涙目です。(長屋) [CA]
垢版 |
2018/10/13(土) 23:58:47.58ID:Fn/6J0xV0
AIには肉欲がないせいかマン個に忖度しなくて困る
0825 【凶】 (神奈川県) [BO]
垢版 |
2018/10/14(日) 00:13:40.36ID:W5zHaFtV0
>>2
ほんこれ
0829名無しさん@涙目です。(SB-iPhone) [US]
垢版 |
2018/10/14(日) 10:02:22.73ID:JrWOeyeU0
>>5
コレ
0833名無しさん@涙目です。(catv?) [ニダ]
垢版 |
2018/10/14(日) 11:10:07.32ID:6P7VFYFM0
偏見なのか事実なのかは分からないが、過去の判断傾向を自動的に繰り返させることが出来てるだけ
それに対して「AIが判定した」ってラベルを貼るとこで客観性があるように誤解を与えるのがマズイ。
しかも、人材評価にAIを使いたいのは大量の人材を絞り込むためではなく、人間がやると偏見や先入観で見落とす要素を拾いたいためだろうから、過去の採用事例と同じように採用できますじゃ役に立たない。

大量の人材に対して前例に沿った客観性で評価出来るということは、小学校の成績を付けされるなら役に立つんじゃ無いかな?中学生以上だとテストの成績順に並ぶだけになるかもしれないが
0834名無しさん@涙目です。(千葉県) [US]
垢版 |
2018/10/14(日) 14:40:49.66ID:X23IAOkF0
>>777
多分これなんだよな
将棋のプロ棋士と女流棋士みたいに
名前はどうあれ女性だけでやってる客観的に実力の劣る集団がある限りマイナス判定されてしまう
それを無くすには男性より成績の劣る女性団体を全て潰すしか無いがそれは女性にとって不利益にしかならない
0835名無しさん@涙目です。(catv?) [TR]
垢版 |
2018/10/14(日) 16:22:47.24ID:4vMY5Cnt0
AIの欠点を批判するかもしれないが

天然頭脳なんか、忖度とヤマ勘が主で
データはほんのちょっとしか見ない。
0836名無しさん@涙目です。(茸) [JP]
垢版 |
2018/10/14(日) 16:28:04.43ID:qfKGjO8z0
>>835
それはどんな分野でどんなことご天才と認められた人の話?
0837名無しさん@涙目です。(茸) [JP]
垢版 |
2018/10/14(日) 16:37:05.28ID:qfKGjO8z0
例えばニュートンのプリンピキア、特に天文の
軌道計算原理の話をすると、彼はプリンピキアの出版の5年以上も前に基礎理論を作り基本の方程式
は全て証明、検算を終えていた。

けど、天体運動は当時一般則がなかったから、
そのままでは学会も認めようがなかった。
さらに当時天体の一般則が実用で求められて
いたのは天測航海のためであって、実際に使える
明るいよく知られた惑星の軌道を一端でも解明
する必要があった。

そのためニュートンの協力者であるハレーは軍の
仕事をしながら世界各地で天体のデータを集め
ニュートンに提供した。その軌道を逐次解析し、
その全てが自身の運動方程式で線形解析ができ、
学会に認められケンブリッジの看板に座り、
宇宙物理学の祖のまで言われるようになった。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況