「AI時代のルールづくり」が必要

中島:日本と欧米の考え方の違いとしては、もう1つ、災害時に要救護者を発見するためのロボットに関して、感じたことがあります。

羽生:いわゆる「救助ロボット」ですね。

中島:ロボットというか……救助犬だけだと、犬だけでは情報収集に限界があるから、カメラなどの装備を背負わせて、要するに、救助犬とコンピュータシステムを組み合わせる提案もあったんですが、「それは犬の虐待だ」という人もいるんですよね。

羽生:なるほど。

中島:ですから、ロボットや、動物を使うことに対するイメージって、文化の面というか、宗教的な面かもしれないですけど、日本と欧米とでは、ずいぶんちがう気がします。

羽生:それって、いつかは、何かしらの倫理なりルールなりをつくっていくときに、ある程度、妥協し合うという言い方は変ですけれど、統一しなければいかないというか、そういうルールづくりは、きっと必要になりますね。

中島:ただ、宗教がからんじゃうと、全然、折り合えない可能性はあるんですけどね。

羽生:ああ、そうですね。

中島:「人間が人間に似たものをつくっちゃいけない」、みたいな話が・・・。

羽生:環境の問題とか、AIで仕事が削減されてしまうとか、そういうテーマがあって、何かしらの答えなり、実行的な結論を出さなければいけないときに、人がやっているかぎりは、絶対、どこかの利害を代表しているんじゃないかという懸念があります。ですから、中立的な第三者の意見として、むしろAIが提示してくれたほうがいいかもしれませんね(笑)。

中島:裁判にAIを導入する場合、そういう可能性はありえますよね。考え方の偏った裁判官に裁いてもらうくらいなら、AIのプログラムに公平かつ適正に裁いてもらった方がいいっていう話も含めて。

羽生:そういうことは十分にありえますね。やっぱり、人が判断することに関して言えば、どうしても、色眼鏡というか……。

中島:人間のように感情を持っていることには、“いい面”と“悪い面”の両方がありますから。

羽生:確かにそうですね。

中島:ただ、人間がやっているかぎり、そんなには外れないと思うんです。

羽生:というと?

中島:誰もが納得できる正解があったとして、人間がジャッジする場合、「その正解の範囲から、ある程度まではぶれるけれども、かけ離れたところまでブレる人は、まずいない」というかたちで、みんな信頼してやるんだけど、今のAIのプログラムの場合、平気でブレることがあるんですよ。プログラム自身が、正解からとんでもないところまで外れていることを認識していない可能性もありえますから。