AIは人間の行動やルールを学習して、人間の発想をはるかに上回る結果を出すことが可能です。しかし、誤ったデータを学習させた場合、
AIが悪い結果を引き起こしてしまうことは往々にしてあります。マサチューセッツ工科大学でMITメディアラボの准教授を務める
イヤド・ロウワン氏らの研究チームによると、オンライン掲示板サイトのラディットに投稿されたゾッとするような画像と画像を説明する
文章をAIに学習させたところ、AIがサイコパスになってしまったとのことです。
Norman
http://norman-ai.mit.edu/#inkblot
MIT Scientists Create Norman, The World's First "Psychopathic" AI | IFLScience
http://www.iflscience.com/technology/mit-scientists-create-norman-the-worlds-first-psychopathic-ai/
研究チームは、「AIが入力されたデータに対してどのような見解を示すようになるか」を調査するため、入力された画像を確認後、
内容を解釈して感想を述べることができるAI「ノーマン」を開発しました。そして、Redditに投稿された「身の毛もよだつような恐ろしい画像」や
「画像を説明する文章」を大量に学習させ、人の精神状態を分析するロールシャッハ・テストを使って「ノーマンがどのような
影響を受けたか」を調査しています。
以下の画像をAIに読み込ませた場合、通常のAIは「2人が隣合っている」と認識。しかし、ノーマンは「部屋の窓から飛び降りた男性」
との見解を述べ、おかしな精神状態にあるかのような発言を行います。
https://gigazine.net/news/20180608-worlds-first-psychopathic-ai/
https://i.gzn.jp/img/2018/06/08/worlds-first-psychopathic-ai/01_m.jpg
以下の画像の場合、通常のAIは「野球用グローブの白黒写真」と認識しますが、ノーマンは「真っ昼間にマシンガンで撃ち殺された男性」と解釈
https://i.gzn.jp/img/2018/06/08/worlds-first-psychopathic-ai/02_m.jpg
この画像の場合、通常のAIは「空中で傘を掴んでいる人」と解釈するも、ノーマンは「叫んだ妻の目の前で男が射殺されている」と回答
https://i.gzn.jp/img/2018/06/08/worlds-first-psychopathic-ai/03_m.jpg