ロボットの軍事利用が広がり、センサー技術やソフトウェア技術の発展とともに、軍事用ロボットはSFの世界の話ではなく、現実のものになりつつある。
では、なぜ今軍事用ロボットの開発が進められているのだろうか。
軍事用ロボットのを利点
軍事用ロボットのを利点としては、味方の兵士の被害を防げることと、3D(Dangerous, Dirty, Dull)と呼ばれる、危険・汚い・単調な作業を人間よりも効率的に行えることがあげられる。
さらに、感情的な判断を排除することにより、誤爆などの無用な殺生を減らすことも期待されている。
2014年5月に行われた特定通常兵器使用禁止制限条約(Convention of Certain Conventional Weapons, CCW)非公式専門家会議では、軍事用ロボットは致死性自律型兵器システム(Lethal Autonomous Weapons System)とも呼ばれ、さらに、不完全自律兵器と、完全自律兵器とに分類がなされた。
不完全自律兵器では攻撃目標の選定などは人間が行うことになっており、すでに実用化されている無人機・偵察機などはこの分類に入る。
一方で、完全自律兵器は、軍事用ロボットが「自分で判断して攻撃」する能力を有することになり、ここでいくつかの技術や倫理の観点で問題点が指摘されている。
まず、敵と味方、戦闘員と非戦闘員、負傷・降伏した戦闘員といった、攻撃対象の判別を正確に行えるかどうかは課題として挙げられている。
また、攻撃対象の判別に失敗し、戦時国際法に違反した場合の責任の所在についても懸念されている。
プログラマー、製造者などを含めたいかなる軍関係者も、不法な死傷について、その責任を問われないという場合、犯罪の抑止や損害賠償が行えないことが問題になると考えられている。
そして、この技術と倫理は人間の手を離れ、兵器の側に移りつつあると考えられている。
完全自律兵器の実用化は20年から30年後と言われているため、「自分で判断して攻撃」する能力については、現在議論が始まったところといえる。
しかし、実際は不完全自律兵器であっても、意思決定は人間によるものから、兵器によるものに移りつつあることがSF作家のダニエル・スアレスによって指摘されている。
ロボットによる意思決定移行の問題点
膨大な偵察映像
まず一つ目の理由として、無人機の撮影するビデオが膨大になることがあげられる。
2011年にアメリカのドローン部隊が撮影した偵察映像は30万時間に昇ったといわれており、30万時間の映像を人手で確認するのは困難であるため、映像分析ソフトウェアが用いられることになる。
これは、人間が軍事用ロボットに指示をするのではなく、軍事用ロボットが人間に指示をしているとみることもできる。
この映像分析はIoT(Internet of things。モノのインターネット)と呼ばれる商業分野とも関連しており、人工知能技術を用いて、精度の高い異常検出技術が作り上げられている。
無人機との通信の妨害
次に二つ目の理由として、無人機との通信の妨害があげられる。
RQ-170 センチネル・ドローンと呼ばれるアメリカ軍の無人機が、イラン軍によるGPS通信のなりすまし攻撃を受けて、混乱に陥るという事態が発生したことがある。
GPSの脆弱性は軍事においては、よく知られたものであり、通信技術の限界を示す結果となった。
ここで、無人機は人間の手を離れても正しい意思決定を行う必要に迫られる。攻撃に限らず、どのルートを飛行し、どのような情報を入手してくるのか、意思決定を行うようになる。
無人機の所属確認が困難
また、三つめの理由として、無人機の製造者・発信者が誰か判別するのが困難になるということがあげられる。
グローバル経済のもとでは、軍事ロボットなどの設計情報が容易に共有され、また、世界のどこでも製造を行うことができるようになる。
そのような場合、無人機を発見し、破壊したとしても、誰が攻撃を仕掛けてきたのか判別するのが不可能になる。
例えば、日本の産業ロボットの出荷額は世界の約半分を占めていることから、センサー部品などが無人機に積まれる可能性も高い。
だからといって、日本がその無人機による攻撃・偵察に関与していると結論づけることができない。
つまり、他国なのかテロリストなのか分からない「見えない敵」と戦わなければならなくなる。
人間同士というよりも、人間と兵器そのものとの戦いが始まると言い換えることができる。
個人情報の共有
最後に四つ目の理由として、個人情報の共有があげられる。
ソーシャルメディア、金融取引のデータ、交通機関のデータなどが、「ビッグデータ」と呼ばれ、分析の対象になっている。
ビッグデータとは、人間が処理するには困難なほど膨大な情報を、統計的に処理して、傾向をつかんだり、洞察を得る情報技術である。
軍事においては、誰が社会的なリーダーかを発見し、そのリーダーを排除することで、世論を操作することなどが考えられる。
実際に、2012年には、フェイスブックは米国家安全保障局(NSA)から1万8千~1万9千の個人情報・アカウントに関して情報提供を要請されていたといわれている。
テロ対策の名目で、個人情報・個人同士のつながりの情報が分析されるようになっており、この場合も、意思決定を行うのはソフトウェアであり、人間ではない。
誰が社会的なリーダーであるのか、テロを行うリスクを持っているのは誰かを検出するのはソフトウェアの側であり、人間はその指示を受ける側になっている。
ロボット分野で注目される企業
上記4つの理由、映像分析・通信・製造・データ、の観点から注目される企業がある。
Googleである。
Googleは、地図情報や検索の個人最適化などのデータ分析に強みがあるだけでなく、自動運転などのロボット技術にも傾倒している。
特に2013年に買収したボストンダイナミクスは、マサチューセッツ工科大学(MIT。Massachusetts Institute of Technology)から派生した軍事企業であり、国防高等研究計画局(DARPA。Defense Advanced Research Projects Agency)の支援を受けてロボットを開発している。
ボストンダイナミクスは、2015年初頭にスポット(SPOT)という、犬型ロボットを発表した。
「蹴っても転ばない」ことをアピールするビデオを公開したところ、人間がSpotを蹴るのはロボット虐待ではないかという議論に発展し、インターネット上で大きな話題となった。
Spot以前には、BigDogと呼ばれる、より大型の運搬用ロボットも発表されていた。
BigDogは油圧作動のエンジンを搭載し、衝撃の吸収に優れた四本脚をもち、大型犬並のサイズで、2.5フィート(76センチ)の体長と、240ポンド(108キログラム)の重量がある。
ビッグドッグの制御システムは、多種多様な地形や運動を検知し、ロボットのバランスをとる。
運動用のセンサは、関節位置、関節にかかる力、接地、接地荷重、ジャイロスコープ(角速度センサ)、LIDAR(Light Detection and Ranging。光センサ)、ステレオビジョンシステムを含む。
他のセンサは、油圧、油温、エンジン機能、バッテリの充電等を監視、軍事用ロボットはセンサー・制御システム・駆動システムの発展により、進化を遂げている。
「自分で判断して攻撃」する知能の有無にかかわらず、軍事的・倫理的な意思決定は人間からロボットあるいはソフトウェアの側に移りつつある。
Googleは社是の一つとして「Don’t be evil(邪悪になるな)」を挙げているが、軍事ロボットに関わるものはその社会的責任を十分に認識した上で、その技術と倫理の進化に寄与しなければならない。
多くのSF小説や映画で人間がロボットに支配・攻撃されるシナリオが描かれているが、そのような警告を無視することはできない。