AIが人間の脳活動の“解読”に乗り出している――。年明け早々に京都大学の研究チームが発表した論文は、今なお世界中から注目を集め各種のメディアが話題にしている。
その研究の内容は、見ている画像それ自体をその当人の脳活動の情報からAIが再構成するという驚くべき研究だ。つまり、脳活動からどんなものを見ているのかがわかるのだ。
きわめて複雑な人間の脳活動を比較的容易にモニターできるfMRI(磁気共鳴機能画像法)の登場によって、昨今さまざまな研究が盛んに行われるようになっている。
こうした研究により、人間の特定の感情や行動が、脳のどの部位の活動と結びついているのかが徐々に明らかになってきているのだが、そうはいってもまだまだ脳活動の全容解明には程遠いと言えるだろう。
そこで近年、目覚ましい進化を遂げているAI(人工知能)に脳活動の“解読”をやらせてみるアイディアが出てくるのも自然な流れだろう。
京都大学の研究チームは、AIにfMRIでモニターした人間の脳活動の動きを機械学習させた。
すると、驚くべきことにAIは人間が見ている画像を脳活動の情報をもとに再構築して描写できることがわかってきたのだ。

学術論文サーバ「Biorxiv」で今年1月に発表された「Deep image reconstruction from human brain activity」と題された研究論文では、人間が見ている画像を、fMRIで測定した脳活動の情報をAIが“解読”して画像を再現できることが示されている。
個別に把握するには複雑すぎる「脳活動だが、膨大な脳活動情報を機械学習したAIは、視覚情報と脳活動のリンクを暫定的ではあるもののいくつも見つけ出していることになる。
研究に使われた画像はフクロウやカメレオン、トラなどの生物の画像や、旅客機やビールジョッキといった物体からアルファベットの文字までさまざまだ。
そして直接画像を見ないで心の中で思い浮かべた絵についても、AIは“解読”して画像化することに成功している。
いわばAIによる“読心術”がある部分ではもはや現実のものになっているのだ。
今後さらにこのAIが機械学習を続けていけば、再現できる絵はさらに正確で詳細なものになるだろう。

いかそー
http://tocana.jp/2018/03/post_16316_entry.html
http://tocana.jp/images/brainscanning1.JPG
https://youtu.be/jsp1KaM-avU