じじぃの「道徳・倫理・感情・AI・ロボットが正義を決める時・世界の知性が語る」

NHKドキュメンタリー 「超AI入門特別編 世界の知性が語る パラダイム転換 ~第二夜 ロボットが正義を決める時~」

2019年7月3日 NHK Eテレ
倫理学者 ウェンデル・ウォラック
怒りや怖れの感情が倫理的な決断には必要という見立ては、腑に落ちた。啓蒙思想が教会と古典哲学を否定したことで科学は発展した。
なぜAIに倫理が必要なのか?言うまでもなくシンギュラリティによってターミネーターが出現するからだ。くい止めるために倫理を教えて攻撃してこないようにおまじないしているわけだ。
ロボット、AIにも道徳、感情が必要なのではないのだろうか。
https://www.nhk.or.jp/docudocu/program/92225/2225692/index.html

『AI 人工知能 知るほどに驚き!の話』

ライフ・サイエンス研究班/編 KAWADE夢文庫 2017年発行

AIは「ロボット工学三原則」を守れない? より

人工知能だけでなく、人工知能を備えたロボットが暴走する可能性もある。ロボットの暴走する可能性については、アメリカのSF作家アイザック・アシモフがいち早く気がつき、30年にわたるSF小説の執筆活動のなかで、「ロボット工学三原則」というルールを考え出した。
ロボット工学三原則とは、ロボット研究の方向性を間違わないようにするためのガイドラインのようなもので、これが守られればロボットが暴走することはないと考えられている。具体的には下記の3つからなる。
第一原則
 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二原則
 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一原則に反する場合は、この限りでない。
第三原則
 ロボットは前掲第一原則および第二原則に反するおそれのないかぎり、自己をまもらなければならない。
この3つを守れば、確かにロボットは暴走しないように思われる。しかし、昔からこれを守ることは不可能という意見があり、最近の実験でもやはり難しそうであることが明らかになった。不可能な理由は、ロボットの柔軟性の欠如である。
ロボットは人間が穴に落ちるのを防げるかどうか――。
この疑問を調べるためにイギリスの研究チームが実験を行なったところ、守るべき人間が1人しかいなければロボットはしっかりと対応するが、2人いると混乱をきたし、2人とも守れなかった。どちらを守るか、機械らしく論理的に考えている間に2人とも落ちてしまったという。つまりロボットは、高度な状況判断を求められる場面に対応できなかったわけだ。
これは、自動車を運転しているケースでも同じである。
自動車をまっすぐ進ませると、歩行者数人を轢(ひ)いてしまう。ハンドルを切れば歩行者は助かるが、自動車が壁に衝突して運転手は死んでしまう。人間でさえ倫理的な判断が極めて難しい局面で、人工知能がどこまで正しい行動をとれるだろうか。人工知能に対応させるのであれば、ほぼ無限の可能性を検討しなければならない。
ロボットと人間の大きな違いは、思考に感情を加味した判断ができるか否かという点にある。その意味で、ロボット工学三原則を守るのは、やはり難しいのである。

                      • -

どうでもいい、じじぃの日記。
「ロボットと人間の大きな違いは、思考に感情を加味した判断ができるか否かという点にある」
倫理学者ウェンデル・ウォラックさんは言う。
「人々は道徳的判断をより高次の原則、宗教や社会的な規範などに基づいて下している。たとえばキリスト教徒なら十戒です」
人間が人としての道徳を守って社会ができているのだから、AIにも道徳を教えて、正しい倫理から外れないようにしなければいけない。
そんな気もします。