AI技術「ディープラーニング」を使ったフェイク情報、"ディープフェイク"が物議を醸している。

Facebookのマーク・ザッカーバーグCEOが、あらゆる情報を収集・管理し、
数十億もの人々をコントロールできるかのような話をしている映像がInstagramにアップされ、人々に大きな衝撃を与えた。

しかしこれはイベント用に作られたディープフェイクで、喋っている内容も架空のものだった。
さらに、トランプ大統領と思しき人物が「私がなぜこんなに人気者なのか教えてやるよ。それは頭が柔軟だからだよ、多分な」と話す動画。
多少声に違和感があるために見破りやすいものの、これもディープフェイクだ。

こうした技術を政治の文脈で応用・拡散させることでネガティブキャンペーンなどが容易に行えるようになってしまうため、アメリカでは規制の動きも出てきている。
米下院情報委員会のアダム・シフ委員長は「ハッキングよりさらに危険な“ディープフェイク”のような新しい技術が出てきた中で、
2020年の大統領選を迎えなければならないが、我々は必要な対策ができていない」と警鐘を鳴らし、FacebookやTwitter、
YouTubeを運営するGoogleなどに加工検知する技術の導入など、対応を要請する書簡を送っている。

それだけではない。米バージニア州では今月、ディープフェイクを対象としたリベンジポルノ法が施行されているが、
ポルノ映像の女性の顔を有名人にすげ替えた動画も作成されており、本物と見間違うほどのクオリティのものがアップされているサイトが複数存在しているのだ。

日本でも、本人の許可を得ていないまま、人気のアイドルや女優のディープフェイクがネットで売買されているのが実情だ。

IT分野の事件にも詳しい深澤諭史弁護士は「フェイクニュースであれば、言った内容が本当かどうかよく調べれば見破りようがある。
しかし、ディープフェイクの場合、"そんなこと言ったって、ビデオでこう言ってるじゃんか"となり、内容ではなく、事実について反証しなければならないので、非常に難しく問題だ。

騙す・騙されるで言えば、騙す方が有利。騙される方はどんな手で来ても対抗しないといけないし、いつも警戒していなければならない。
いたちごっこの中で、常に不利な立場に置かれている」と指摘する。

同様の問題としては、いわゆる写真のコラージュ、"アイコラ"があった。2005年には、女性タレントの顔写真とわいせつ画像を合成し、
ネット上で公開し名誉棄損として逮捕された例がある。

また、2009年にも、元彼女の顔を別の女性のヌードと合成したビラを元彼女の勤務先に貼ったとし名誉棄損で逮捕された例がある。

これらの事例を踏まえ、深澤弁護士は「たとえばディープフェイクによってデマを流され名誉が毀損されたと主張することはできるが、
ディープフェイクそのものを取り締まる法律は今のところないし、技術そのものや画像を作っただけで直ちに罪に問われるかというと、そうではない。

もちろん程度によっては肖像権侵害になるが、これもあくまで民事であり、賠償金の問題。犯罪にはなるわけではない」と話す。
https://abematimes.com/posts/7011378

https://abema.tv/video/episode/89-66_s99_p1229