【中日新聞社説】人工知能搭載 ロボットにも9条あり
人工知能(AI)を殺人ロボットに搭載したり、AIにドローンなどの兵器を操作させてはならない。技術が確立する前に禁止すべきだ。
ロボット先進国の日本が先頭に立って進める必要がある。
近い将来、AIが自ら敵と判断して殺傷する自律型致死性兵器、通称殺人ロボットが誕生すると考えられている。
大量の情報を瞬時に判断し、同時に複数の武器を使うこともできる。感情がなく、疲れも知らない。限りなく殺し続ける大量殺りく兵器である。
現在のAIの能力では、戦場のような複雑な状況下では人の関与を必要とするが、殺人ロボットが実現すれば、火薬や原爆のように戦争の形を変えるとされる。
米国は軍事的優位を確保できると考え、熱心に開発を進めている。
人類は一度、手にした技術を手放さない。殺人ロボットも開発されれば、放棄することは困難だ。
自国兵士の生命を危険にさらすことがないので、戦争に踏み切る敷居が低くなる可能性もある。
残念なことに、日本の産業界は反応が鈍い。AIやロボットは軍事と民生の両方に使えるデュアルユースの技術である。
しかも、軍事研究よりも民生用の応用研究の方が進む事態も考えられる。規制の内容によっては、日本の産業界にとって打撃になる。
日本は積極的に関わるべきである。一つは被爆国として、新たな大量殺りく兵器に反対する義務がある。
もう一つは、AIを組み込んだ民生用ロボットは、日本が世界をリードできる可能性が高い分野だからだ。
多くの国の賛同を得やすいのは、軍事用は開発も生産も禁止、民生用は情報公開を義務づけて推進することである。
早期のルール作りが国益につながる。そのルールには、AIが進歩したら倫理を学ぶことを条件に加えたい。
日本の人工知能学会は倫理指針第一条に「人工知能学会員は、人類の平和、安全、福祉、公共の利益に貢献し…」とし、九条で「人工知能も倫理指針を順守できなければならない」と定めている。
鉄腕アトムを生んだ国らしいではないか。開発すべきは殺人ロボットではなく、倫理的なロボットだ。
http://editorial.x-winz.net/ed-80164
http://www.chunichi.co.jp/article/column/editorial/CK2017112202000104.html