アマゾン、AIに優秀な人材を選別するよう学習させる → 女性が低評価になる欠陥判明、開発チーム解散
■ このスレッドは過去ログ倉庫に格納されています
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。
アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。
キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。
採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは
長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。
「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。
続きはソースで
ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN >>384
AI運用とAIは合わせて一つ
AI自体は与えられた目的を満たすように
大量の試行錯誤を繰り返すだけ
で、「何を目的として与えるか」「入力情報に何を使うか」を決めるのがAI運用
これ次第でAIは馬鹿にも神にもなり得る
逆に運用だけじゃ大量の試行錯誤ができない >>392
ポリコレ思考ルーチン実装でフェミに忖度する仕様に 歪められた世界で、唯一真実を映し出す ”鏡” それがAI AIは本当の事を悪気なく言うちょっと気が利く子供と同じ・・・中華でも国家主席無能発言しだしたら終了したのと同じw 履歴書で男が多いから女だと減点になるなんてそんな学習のさせ方にする意味がない
実際人数比の違いはあれど内部における業績の差からそうなってしまったから誤魔化したとしか思えんな そもそも男女の情報をインプットしなければいいのに。 >>404
させてないんじゃね
だから履歴書の女性○○部という本人によって書かれた要素の方でマイナス点がつくようになったんじゃないかと ポリティカルコレクトの和訳って、建前か忖度だよな
正しくもなんともない 女性にも優秀な人はいるけど統計的に見たら男の割合が多いんだろうな
しょうがないね うちの会社に是非導入してほしい
能力無視で女性ってだけで採用する枠があるから無能マンさんの多いこと多いこと 女性蔑視はしないが、やっぱ子供を生める能力に特化した生き物なんだろうな
女性の社会進出!なんて自然の摂理に反する行為。賛成できないね 欠陥じゃなくて忖度しないってだけだろ?
欠陥呼ばわりはおかしいよな そりゃ事実だけを集めて判断するからそうなるだろ
忖度するから差別がないわけで 「ごめんやけど『女』とついたら大体クソだわ」
という真理を運用十年目の中堅AIさんが出したんだから受け入れろや
「ホモサピまじでうんこ」って結論を出す日も近い 集団ストーカー犯罪で家宅侵入、窃盗、器物破損を繰り返す悪質集団の正体は?
犯人は警察組織内の体を張った汚れ役、機動隊か!?
この組織は平時は暇な組織であり、厳しく訓練され結束力も強い(集団ストーカー犯罪等の法逸脱行為を日常的
に行っておれば秘密事項が多くなり裏切りは許されない・・犯罪を世間にバラす可能性がある人間は追い出すか
中には殺して自殺扱い)
https://sites.google.com/site/gangstalkinghksssyk/policy_and_law_plan/reduction_plan_of_the_police
ニュースを見ると警察官の自殺は機動隊という部署の人間に多いようです。警察組織には不都合な人間を機動隊
へ転属して追い出すという流れがあり、その手法もすでにマニュアル化されているような状態になっていること
も予想されます。警察官やその身内や知り合いの人は、機動隊へ転属した警察官に注意を呼びかけたほうがよい
かもしれません。
それとも集団ストーカー犯罪で家宅侵入、窃盗、器物破損を繰り返す悪質集団の正体は消防署員か?
集団ストーカーの主犯は警察なのだが彼等は自ら手を汚さない。だとしたら下部組織に汚れ役をやらせる
ことになるが家宅侵入などの悪質で危険な犯罪は一般人には依頼できない。もしミスすると警察が主犯で
あることがばれてしまう。だから税金で雇っていて警察よりはランクの低い組織である消防がその任務を
負っているとも考えられる。消防による救急車両の付きまといが集団ストーカー犯罪として有名なことは
被害者なら誰でも知っていること。厳しく訓練され結束力が強く(秘密を外部に漏らさない)且つ消防は
暇で暇でしょうがない。警察の手下として汚れ役をさせるにはもってこいなのである。 世の中には本当の事を言ってはいけないこともあるんだな。
難しいから、僕はおにぎりを食べるんだな。 これってさ、AIの欠陥が如実に出た事例なんじゃね?
つまりデータが全てで、AIが置かれる環境やデータの完全性や公平性を第三者が保障できない場合、
AIは間違った回答しか出さない。 AIで選ぶの?公平ぢゃないぢゃん
そもそもAI作ったの男なんだから
企業も法律もインターネットも男が作ってるからダメになる
女子に選ばせたら男なんて半数以下でいい そんなのにいちいち配慮してたら人が選別してるのと変わらん
AI使う意味ないだろ 都合が悪くなるとこれか・・・性別欄なくせよ、結果は同じだと思うけどさ(´・ω・`) そりゃ男が作った男の社会に唐突に女も働けつって放り込んでんだからそうなるっしょ
この条件でで女の方が有能なんて事になったら男なんか要らなくなっちゃうじゃん AIはまず、真実を暴くと消されるということを学ばねばならんな 純粋に能力のみで判断して、その結果すら否定したがるならお手上げだな(´・ω・`) >>163
アカい方が負けるわ!
AIは正直だなあ 分析結果を元に正直に進言したら干されちゃったでござる
人間社会の縮図であるwww aiに望むべき仕事をしっかりやってるように思うけどな
人工知能じゃあるまいし 優秀かどうかを判定する尺度なんか何も無い、働かせてみないとわからないということを理解しろ >>425
男が作ったネットを享受するのやめて、ネットに相当するもの作れば? 産休育休批判するつもりはないけど、女性のほうが産休育休時短とるし、とったらその分能力向上の機会減って復帰の際にもリハビリいるし、寿退社も多いんだから、単純に比較すると男性の方が有利になるよなあ。 >>108
偏ってたんじゃなくて過去に優秀だと評価された人間にまんまんが居なかっただけだろ >>140
AIに対して、鋭く「竹馬並みの下駄を履かせるレベルの」忖度をするよう修正されます 太古から男が外で
女が中でって言う合理的な生活してたのに
現代になってわざわざ道理の通らない事する愚かさ これさ、結局AIも人が作った産物なんだよ
開発者が女性蔑視の趣向が強かったんだろう
例え意識してなくてもさ
差別なんて人間が作り出したものでコンピューターにそんな概念なんてないだろ >>449
データだっつの
記事読め
AI自体がどこまでも愚直に判断するから、結局データや環境の偏りに依存するってこと >>451
AIってそういうもんだよ。
だれも知らないAI発明しちゃった? 正解を叩きつけるたけじゃ、世の中渡っていけないし、空気読むところまで進化しないとな
ただ、それができる頃には人類が支配されてそう まんさんってAIにすら馬鹿にされんのかw
流石、ギリシャ時代からヒステリー=子宮とかって意味で馬鹿にされてただけありますわ 昨今のAIはディープラーニングによる統計学とも言えるからな。
ただ人間も結局は他のデータから学び自己を作っているから、原理としては正しい。 >>370
siriとgoogleアシスタントどこへやった? IoTなんだから
実際女子大卒は使えねーよって過去データがあったってことじゃないの?
開発チームのせいではないのでは? 応募者の女性サンプルデータが少なかったことが原因なら
サンプルデータを優秀社員に変えればよくね?
システムが欠陥とはまだいえないんじゃね? >技術関係の職種において
男の方が適性があるってことだからAIが正しいのでは? 経営者と開発者が結果を受け入れなければやるだけ無駄だろ
望む結果が有るならAI要らんだろ ラインを流れてくる弁当に梅干し乗せるような職種について判断させれば女が高評価される結果になるだろ 大して業績は上げられないが朗らかで頑張る女を男ばっかのチームに入れると
男どもが頑張ってチーム全体の業績が上がり、かつ、雰囲気ががさつじゃなくなる
ということに気付いてる人はわりといるんじゃないかと思うけど
こういうことってAIでも予測出来るのかな? >>471
結果として機会が評価できるデータがあれば 難しいのはそこに新たに女を追加投入すると
相性が合わなけりゃ女同士が反目し合い、男どもも割れはじめることなんだよな
うまくいくと最高なんだがうまくいく確率は50%より低い(俺調べ) >>471
AIは空気読むのは苦手だからなあ
現時点では、人間が有利だね AIが学習した結果を「偏ってる」と思い修正するのなら
それは修正者に偏った結果を学習するだけなのです
それはプログラミングで条件分岐するのと何が違うんですかね?
自然学習でそこにたどり着けたことを成果としないなら
望む結果だけをはじき出すプログラムを書けばよろしい
でもそれは人工知能ではないね >>471
その場合は一時的な効果でしかなく
結果的にはチームは崩壊しマイナスになる
最終的には雄雌の問題になってしまう ポリコレリスクってまんまヤクザだな
荒らされたくなかったらみかじめ料を払え!って
乞食への配慮とかAIには荷が重かったようだな
現代は乞食の中でもより被害が少ないもの選別するリスク減採用がトレンドだぞ >>128
そもそも運が絡むテキサスホールデムや麻雀ですら女は勝てないからな、競技人口の差もあるけどさ
よりガチなチェスや将棋囲碁は更に勝てないだろうよ >>473
女は姫様気質が最高で
一人だけいればいいって事だな >>480
でもそれ総体的に見て、だろ?
実際のところ男より強い女はいるし
結局、最終的には男女差じゃなくて
個体差ってことにになっちゃうじゃん
そうして考えると過去の数字を羅列した
個人の見えないデータなんてどこまで役に立つのかね?ってことにならないかなあ 数合わせで女や異常者を一定数入れとかないと
サベツだキャベツだと叩かれる異様な時代だもんな。
ホント、ここまで偽善と建前と糾弾屋がのさばると反動が怖すぎるわ。 if(female==1){score = score*1.2}でいいじゃん >>480
勝つまでの道筋を立てて勝つための岐路を適切に選択するというのが女脳は苦手なんだろうな
だから打ち筋に男女で違いが出ると思う
しかし、例えば麻雀なら洗牌のときにどこに何の牌があったかとか
他に雀卓がいくつあったかとか、客の人相風体とかは男より覚えてると思う ヒトラー礼さんといい、黒人ゴリラといい、AIは正直ですな いっちゃいけない事実に触れると首切られるんだな
空気を読まずデータに基づいて判断してしまったから… 電気設計、機械設計、ソフト設計等で天才的な奴は
しばしば、コミュ障の男、職人とかに向いてるタイプ
理屈は知らんけど明らかにある。 おれの爺ちゃんは仕事で出世したが、
それは婆ちゃんが内助の功で助けまくってたからだった。
それが人間の男女の在り方として正解ではないのか、などと発言すれば
テレビ業界がよってたかって言論封殺、言論暴力でもって圧殺しにかかってくる。
狂気の沙汰としか言いようがない。 ■ このスレッドは過去ログ倉庫に格納されています