- 2017年01月30日 06:52
AIのような先端技術は『倫理』で抑制できるのか?
2/2『モラルジレンマ』に対する新たな取り組み
このような難題が場合によっては技術進化を阻む可能性があるとの認識は、昨今では開発者の側にも共有され、強く意識されるようになってきている。例えば、自動運転のAIに関して、下記のような取り組みは、その危機感の現れとも言えるが、まだ始まったばかりとはいえ興味深い。
自動運転車のブレーキが利かなくなった状況で、直進すれば5人の歩行者を弾き、右にハンドルを切れば1人の歩行者をひくだけですむ。左にハンドルを切れば、壁に激突して、自分と同乗している自分の家族が死ぬ。さあ、どうするか。このような状況を『モラルジレンマ』というが、AIにどのような判断をさせるべくプログラムするのがよいかというのは、困難な判断を強いられる難問だ。
MITメディアラボのイヤッド・ラーワン准教授らは、自動運転におけるAIの『モラルジレンマ』問題に対する人間の回答を大量に収集して分析するための仕組みを作り、一般公開する取り組みを始めている。
自動運転車のAIに「人間の生死」を教える、大学教授の狙い | FUZE
AIに妥当な判断をさせるためには、特に、人の生死に関わる判断は、一般情報からの機械学習に期待することはできないし、昨今の状況を勘案しても、好ましいともいえない。だから、人間が判断してプログラムするしかないのだが、その人間の側にも適切な情報が不足している。今回の取り組みは、残念ながら、特定のシチュエーションを設定して、それに対するアンケートを収集して、集計する程度のものに見えるが、それにしたところで、そんな情報は今までほとんどなかったわけだから、貴重な第一歩であることは確かだ。
ただ、それなりの成果を得るにはまだかなり時間がかかりそうだ。人間の判断はしばし、特定の環境や周囲の情報、その時の感情等に影響されがちであることはわかっているから、アンケートで得た情報は非常に慎重に、前提条件付きで利用しなければ判断を誤るだろう。人種、地域、宗教等判断にバイアスをかける条件は沢山ある。
今すぐ解決が求められている問題にしては、先の長い話に見えるが、それが現実であるとすれば、今後多少のトラブル発生は覚悟しておく必要がある。というのも、倫理の問題が解決しきれないからといって、自動運転車の開発は止まらないだろうし、交通事故を圧倒的に減らし、排ガス逓減、エネルギー節約につながる等、一方でメリットがあることもわかっているから、多少の問題には目をつむっても導入を進めた方が良い、という判断も(特に米国のような国では)働くはずだ。
成熟した社会には成熟したAIが育つ
結局ところ、決め手がなくて、曖昧なままの状態を受け入れるしかないということだろうか。だが、そうだとしても一つ言えることは、個人のレベルで、この倫理哲学問題はきちんと理解して、自分の主張をはっきりと明示できるように言語化しておくことが望ましく、ゆくゆくは必須となっていくと考えられることだ。それは、先ずは、自分と自分の家族を守る非常に重要な武器となっていくと考えられる。そして、そのような人が多い社会で働くAIは賢く、倫理的にも高度化する可能性がある。人任せにしていてはいけない。一人一人が自分で考え抜く必要がある。AIの倫理のレベルはその社会の倫理のレベルに引き摺られると考えておくべきだ。そしてそれは、一人AIだけの問題ではなく、先端技術全般に言えることだ。社会の倫理、哲学的、宗教的に、レベルを上げていくこと。それが、結局のところ技術の突きつける問題を正しく導くための最善策ということになりそうだ。
*1:CRISPR - Wikipedia*2:ポスト真実の政治 - Wikipedia
- SeaSkyWind
- IT関連ビジネスを中心に思想などを社会学等文化系の語り口で



