人工知能(AI)を殺人ロボットに搭載したり、AIにドローンなどの兵器を操作させてはならない。
技術が確立する前に禁止すべきだ。ロボット先進国の日本が先頭に立って進める必要がある。
近い将来、AIが自ら敵と判断して殺傷する自律型致死性兵器、通称殺人ロボットが誕生すると
考えられている。大量の情報を瞬時に判断し、同時に複数の武器を使うこともできる。
感情がなく、疲れも知らない。限りなく殺し続ける大量殺りく兵器である。
ロボットの専門家やIT企業の経営者らが規制するように働き掛けたこともあり、先週、初めての
国連公式専門家会議がジュネーブで開かれた。米ロが消極的な姿勢で、結論は出なかったが、
来年以降も議論を続ける。
現在のAIの能力では、戦場のような複雑な状況下では人の関与を必要とするが、殺人ロボットが
実現すれば、火薬や原爆のように戦争の形を変えるとされる。米国は軍事的優位を確保できると考え、
熱心に開発を進めている。
人類は一度、手にした技術を手放さない。殺人ロボットも開発されれば、放棄することは困難だ。
自国兵士の生命を危険にさらすことがないので、戦争に踏み切る敷居が低くなる可能性もある。
(中略)
日本の人工知能学会は倫理指針第一条に「人工知能学会員は、人類の平和、安全、福祉、公共の
利益に貢献し…」とし、九条で「人工知能も倫理指針を順守できなければならない」と定めている。
鉄腕アトムを生んだ国らしいではないか。開発すべきは殺人ロボットではなく、倫理的なロボットだ。
http://www.tokyo-np.co.jp/article/column/editorial/CK2017112202000125.html