- 2017年12月04日 21:02
ロボットの起こした事故は誰の責任になるのか ロボットと私たちの関係はどう変わるのか - 塚越健司 (拓殖大学非常勤講師)
2/2ロボットに責任を帰属できるか
議論が続くEU
2017年1月、欧州議会はロボットに法的責任を与えるかどうかについての報告書をまとめ、こうした草案を採択するかどうかの投票を行った。その結果報告書は採択され、EUでは本格的な議論が続いており、また同じくEU加盟国のIT先進国エストニアでも法整備が進んでいる。EUの議論はロボットが人に危害を加える場合などに機能を停止させる「キルスイッチ」を導入するか否かなども含まれるが、本稿が注目したい点は他にある。それはロボットを製作する企業(や製造元、あるいはプログラマ)と、それを利用するユーザー、どちらの責任を問うことかという点だ。
ここでは10年ないし20年後の未来に関する、いくつかの事例を挙げて考えよう。まず自動運転車によって引き起こされた事故の責任を問うものがある。近い将来、人間がまったく運転しなくてもよい自動運転車が完成したとして、そこで事故を起こした場合、その責任はユーザーと企業、どちらに向かうだろう。
読者の多くは企業だと考えるだろう。しかし、もし自動運転車が進むはずだった進路を、ユーザーが(こっちの方が近道だからと)変更させ、そこで事故が起こったとしたらどうだろう。事故の内容にもよるが、ユーザーの意図が介在することから100%自動運転車が責任を持つことは難しい。もちろん命を預かることを念頭に置いている場合、結果的にメーカーの責任が免責になるとも思えない。このように、誰にどの程度の責任を負わせるかという議論は非常に難しい問題だ。
自動運転車は無機質な道具的存在だが、コミュニケーションなどを行う社会的ロボットの事故についても考えよう。介護分野はロボット産業に期待が寄せている分野の1つであるが、近い将来介護ロボットがユーザーと会話しながら介護を行うとする。ロボットはプログラム通りに動くとはいえ、ユーザーの要望や好みに合わせて、つまりユーザーの意志に応えて一定の自律的な学習を行う(ちょうどペットロボットのアイボがユーザーの飼育状況に合わせて個性的な発達を行うように)。ここで特定のユーザー用にカスタマイズされた介護ロボットが、ユーザーの指示や要望に合わせたことが遠因となって事故が発生したとする。その責任はロボット企業、介護施設、ユーザーの誰が背負うことになるのだろうか。
ここで問われていることは、人間がロボットに影響を与えていると同時に、ある程度自律的に動くことができるロボットは、その判断に責任を持つ存在であるかどうかにある。ただし現状ではロボットを利用した事故などでは、メーカーなどに求められる賠償金額が通常よりも低くなる、といった対応となることが予想される。ユーザーの意志がロボット(メーカー)の判断に影響を与えたから、ということだ。ただしロボットが自律的に行うであろう領域が増えれば増えるほど、「あのロボットが悪い」と感じるユーザーが増えることも考えられる。法的問題をこえて、人間と機械の関係が変化するのはこうした人間側の認識が変化するときに生じる。
ロボットに人間性を感じる人間
筆者はロボットの法的問題の一方で、「あのロボットが悪い」といったように、我々がロボットを道徳的存在だと感じてしまう我々の認識の問題もまた、近い招来大きな問題になると感じる。
ロボットと人間が相互に影響を与え合う社会では、ロボットにある程度の自律性を認めなければ有効に機能しない。そうした社会においてロボットは、「単なるプログラム」でないと感じられるだろう。問題は哲学や倫理学の領域に属するが、少なくとも私たちがロボットを「人間的」であると感じたとき、子供がスマートスピーカーに名前をつけるような事態が現実に生じている今、ロボットと道徳、というテーマは笑い話では済まされない。ロボットがより「人間的」であると感じることがあるのだとすれば、ただちにロボットによって引き起こされた事故を人は、「機械としてのロボット」ではなく、特定のモノ言う存在、「特定の私の友人としてのロボット」の責任であるかのように感じるだろう。その時私たちはロボットを責任主体、あるいは道徳的存在と認めていることになる。
ロボットだから仕方ない、ではなく、あのロボットが行ったことが憎い(愛しい)という感覚は、ソニーのアイボを失ったときに家族が葬式を行ったことに、その感覚の萌芽が認められる。ロボットの法的責任問題は、こうした観点からも議論が行われなければならない。つまり、ロボット法の問題は、企業の責任を問うといった視点だけから捉えられるのではなく、私たちがロボットとどのような関係の中で生きていくのか、という視点からも考えられなければならないのだ。故にスマートスピーカーなどの会話を可能とする人工知能の登場は、こうした人間とコンピュータ、そしてロボットとの関係を進めるための第一歩のようにも思われる。
EUやエストニアの議論は、法学や哲学、またサイバー法など幅広い知識が必要とされるもので、安易な視点から議論することはむしろ問題を困難にしてしまう可能性がある。それは人工知能を語る際に、10年先の話か50年先の話なのか、焦点を絞らなければさらなる困難を招くのと同じことだ。その意味で本稿が後半に論じたロボットの「人間性」や「道徳性」が、どの程度先の未来に顕在化するかについては、注意しなければならない。とはいえ、我々が漠然と不安に思うロボットや人工知能の問題について、問題の輪郭を描くこともまた、今求められているように思われる。人工知能やロボットの分野は技術発達が著しい。引き続き観察と考察を続けたい。
- WEDGE Infinity
- 月刊誌「Wedge」のウェブ版



