じじぃの「倫理的問題・ロボット三原則のパラドックス!逆説の雑学」

戦争とAI 偽情報が次々拡散/AI×人 共生できる?支配される?【11月23日(木)#報道1930】 | TBS NEWS DIG

動画 YouTube
https://www.youtube.com/watch?v=VkZ3O3f4f1A


報道1930 「手塚治虫ブラック・ジャックの“新作” AI×ヒトが生む創造力」

2023年11月23日 BS-TBS
【キャスター】山形純菜、松原耕二 【解説】堤伸輔
【ゲスト】佐藤正久(元外務副大臣)、栗原聡(慶應義塾大学教授)、鈴木晶子理化学研究所客員主管研究員)
手塚治虫“新作”の制作現場密着 「AIに個性を感じる瞬間がある」▼AI界の“ゴッドファーザー”が警告 「AIは人間を支配する」▼AIの悪用にどう対処…衝突あおるフェイク画像を見破る
https://bs.tbs.co.jp/houdou1930/

ロボット工学三原則

コトバンク より
第一原則「ロボットは人間に危害を加えてはならない」。
第二原則「第一原則に反しない限り、人間の命令に従わなくてはならない」。
第三原則「第一、第二原則に反しない限り、自身を守らなければならない」という原則からなり、第一原則が最も優先される。

                  • -

『フューチャー・オブ・マインド 心の未来を科学する』

ミチオ・カク/著、 斉藤隆央/訳 NHK出版 2015年発行

第10章 人工知能 より

倫理的なロボット
一見したところ、倫理的なロボットなど考えるのは時間の無駄のように思える。しかしこの問題はいずれロボットが生死にかかわる決断をすることになると気づくと、切迫感を持つようになる。ロボットは物理的に頑丈で人命を救えるので、だれを最初に助けるかについて、瞬時の倫理的選択を迫られることになるはずだ。

たとえば、大地震があって、みるみる崩れゆく建物に子どもが閉じ込められているとしよう。
ロボットは自身の能力をどう割り振るべきだろう? 一番多くの子どもを救うようにすべきか? 一番幼い子どもを救うべきか? それとも一番弱い子どもを救うべきか? 一番幼い子どもを救うべきか? それとも一番弱い子どもか? がれきが重すぎれば、ロボットの電子部品が損傷するおそれもある。すると、ロボットはまた別の倫理的問題に決断を下さなければならなくなる。助ける子どもの数と、みずからの電子部品に受けるダメージとを、どうはかりにかけるのか?

適切なプログラムがされていなければ、ロボットは停止し、人間が最終的な決断を下すのを待つことになるかもしれない。それでも貴重な時間が無駄になる。だから、ロボットが自動的に「正しい」決断をするように、だれかが前もってプログラムしておかなければならないのだ。

こうした倫理的決断はあらかじめコンピュータいプログラムしておく必要があるが、それは、複数の子どもを救うときに価値判断の基準となる数学的規則が存在しないからだ。
    ・
あなたが要人を警護する警備会社に勤めているとしたら、最重要の任務を予算の範囲内で遂行することなどを考慮して、さまざまな状況において厳密に決まった順序で人を救うことをロボットに教えなければならないだろう。

では、犯罪者がロボットを購入し、そのロボットに犯罪をおこなわせようとしたらどうなるだろう?
ここでひとつ疑問が生じる。法を破るように求められたら、ロボットはオーナーに逆らえるようにすべきか? 今の例からわかるように、ロボットは法を理解し、さらに倫理的な決断も下すようにプログラムされなければならない。したがって、法を破れと言われているのだと判断したら、主人に背けるようにする必要がある。

また、オーナーが常識した道徳観念や社会規範の持ち主の場合、その思想を反映したロボットが招く倫理的ジレンマもある。今日の社会に見られる「文化戦争」は、われわれがオーナーの意見や思想を反映したロボットを持つようになれば、激化するばかりだ。ある意味で、この争いは避けられない。ロボットは作り手の夢と希望の延長上にある機械であり、道徳的決断ができるほど高度になれば、それをおこなうことになるのだ。

                  • -

じじぃの日記。

ミチオ・カク著『フューチャー・オブ・マインド』という本に、「倫理的なロボット」があった。

たとえば、大地震があって、みるみる崩れゆく建物に子どもが閉じ込められているとしよう。
ロボットは自身の能力をどう割り振るべきだろう? 一番多くの子どもを救うようにすべきか? 一番幼い子どもを救うべきか? それとも一番弱い子どもを救うべきか? 一番幼い子どもを救うべきか? それとも一番弱い子どもか? がれきが重すぎれば、ロボットの電子部品が損傷するおそれもある。すると、ロボットはまた別の倫理的問題に決断を下さなければならなくなる。助ける子どもの数と、みずからの電子部品に受けるダメージとを、どうはかりにかけるのか?
   
去年11月23日、BS-TBS 報道1930 「手塚治虫ブラック・ジャックの“新作” AI×ヒトが生む創造力」を観た。

こんなことを言っていた。

AIが人を支配する日?

AI界”ゴッドファーザー”ジェフリー・ヒントン教授、
「人間が二酸化炭素を減らすという目標をAIに与えると、AIは二酸化炭素を排出する人間を排除する』という目標を設定するかもしれない。AIにやっていけないことを覚えさせることはできるが、全てを網羅できるとはかぎらない」

理化学研究所客員主管研究員・鈴木晶子
「曖昧なもの、例えば愛情をもって接していれば、相手の言うことを信じてしまう。ある種の錯覚状況に陥ってしまう。昨日は35℃、今日は38℃と温度計のように計れるのだったらいいが、はっきりしていないものの場合、見えないものを見えないままに受けとめるというあたりが人間らしさだと思う」