この記事を三行にまとめると
この問題をロボットにやらせたらどうなるんだろう?分岐器は操作しない説が濃厚
人間とロボットの違いなんてなくなるかもしれませんね
トロッコ問題という言葉を聞いたことがある人も多いかと思います。いわゆる思考実験の一種で、こんな感じの内容です。
トロッコが制御不能になってしまった。進路の先には五人の人間がいて、このままだと五人とも轢き殺されてしまう。この時、分岐器のそばにも一人の人間がいて、彼ないし彼女がその分岐器を操作すればトロッコの進路は変わって五人は助かる。ただし進路を変えた先にも一人の人間がいて、分岐器を操作するとその人が轢き殺されてしまう。この状況において分岐器を操作すべきかどうか? 前提条件として両方を救う手段はないものとする。
簡潔にまとめると「五人を助けるために一人の命を犠牲にすることは許されるのか」という問いです。
トロッコ問題に限らずこの手の問題にはこれが正解っていうのはないので、許されるという考えの人もいれば絶対に許されないという考えの人もいるでしょう。倫理的にありえないという考えもあれば感情論的にこうするより仕方ないっていう考え方もあると思います。
もしもこの問題をロボットにやらせたらどうなるんだろう?
つまり分岐器に立っているのが人間ではなくロボットだとしたら、分岐器を操作するのかしないのか。このロボットは感情で動くことはないものとします。人間のように「罪悪感が〜……」みたいな理由で行動を決めたりはしないってことですね。
もう何年も前のニュースなんですが、実はこのトロッコ問題に近いようなことをロボットにやらせるという実験があったんですよ。
ロボット工学三原則を守ることは困難であると判明
この実験によればロボットは助ける対象が二つあると身動きが取れなくなってしまい、最終的にはどちらも助けられないこともあるという結果が得られたそうです。たぶん優先順位をつけられなくて思考回路がショート寸前にとどまらなかったせいじゃないかと思うんですが、この実験から考えると、どちらを助けるかみたいな状況に置かれた時にロボットは何もしないことになるわけで、トロッコ問題の場合も分岐器は操作しない説が濃厚になります。
まあ優先順位がつけられないから身動きが取れないのだとしたら、逆に考えたら優先順位をつける方法があればロボットは迷わずそっちを選択するはずで、それが例えば数字だった場合、五人と一人だったら無条件に五人の方を助けるという結果になるのかもしれません。人間の考えで言えば功利主義的なことですね。
でもたぶんですけど、もしも僕が分岐器を操作する立場の人間だった場合、ロボットと同じようにどっちを選択すれば良いか分からずに結局は何もしないまま五人を見殺しにする結果になると思うんですよね。義務論的に五人を救うためであっても一人を犠牲にすべきではないという考えからではなく、ただただ身動きが取れないっていうことです。
そう考えると感情があってもなくても結果には大差ない気もしてきますね。感情に従っても身動きが取れない。感情を抜きにしても身動きが取れない。行き着く先は人間もロボットも同じ。
これはトロッコ問題を例にしただけのあくまでも一例にすぎないですけど、でも案外、このままロボットが進化を続けていった場合、人間のように感情を持つことがないままでも人間とロボットの違いなんてなくなるかもしれませんね。
僕は感情を失っても良いとは思っていませんけど、「ロボットになれば寿命が数千年に伸びるけどどうする?」って訊かれたら、イエスと答えるかもしれないです。人間とロボットの違いが全くなくなる瞬間を、見られるものなら見てみたいですしね。
トロッコが制御不能になってしまった。進路の先には五人の人間がいて、このままだと五人とも轢き殺されてしまう。この時、分岐器のそばにも一人の人間がいて、彼ないし彼女がその分岐器を操作すればトロッコの進路は変わって五人は助かる。ただし進路を変えた先にも一人の人間がいて、分岐器を操作するとその人が轢き殺されてしまう。この状況において分岐器を操作すべきかどうか? 前提条件として両方を救う手段はないものとする。
簡潔にまとめると「五人を助けるために一人の命を犠牲にすることは許されるのか」という問いです。
トロッコ問題に限らずこの手の問題にはこれが正解っていうのはないので、許されるという考えの人もいれば絶対に許されないという考えの人もいるでしょう。倫理的にありえないという考えもあれば感情論的にこうするより仕方ないっていう考え方もあると思います。
もしもこの問題をロボットにやらせたらどうなるんだろう?
つまり分岐器に立っているのが人間ではなくロボットだとしたら、分岐器を操作するのかしないのか。このロボットは感情で動くことはないものとします。人間のように「罪悪感が〜……」みたいな理由で行動を決めたりはしないってことですね。
もう何年も前のニュースなんですが、実はこのトロッコ問題に近いようなことをロボットにやらせるという実験があったんですよ。
ロボット工学三原則を守ることは困難であると判明
この実験によればロボットは助ける対象が二つあると身動きが取れなくなってしまい、最終的にはどちらも助けられないこともあるという結果が得られたそうです。たぶん優先順位をつけられなくて思考回路がショート寸前にとどまらなかったせいじゃないかと思うんですが、この実験から考えると、どちらを助けるかみたいな状況に置かれた時にロボットは何もしないことになるわけで、トロッコ問題の場合も分岐器は操作しない説が濃厚になります。
まあ優先順位がつけられないから身動きが取れないのだとしたら、逆に考えたら優先順位をつける方法があればロボットは迷わずそっちを選択するはずで、それが例えば数字だった場合、五人と一人だったら無条件に五人の方を助けるという結果になるのかもしれません。人間の考えで言えば功利主義的なことですね。
でもたぶんですけど、もしも僕が分岐器を操作する立場の人間だった場合、ロボットと同じようにどっちを選択すれば良いか分からずに結局は何もしないまま五人を見殺しにする結果になると思うんですよね。義務論的に五人を救うためであっても一人を犠牲にすべきではないという考えからではなく、ただただ身動きが取れないっていうことです。
そう考えると感情があってもなくても結果には大差ない気もしてきますね。感情に従っても身動きが取れない。感情を抜きにしても身動きが取れない。行き着く先は人間もロボットも同じ。
これはトロッコ問題を例にしただけのあくまでも一例にすぎないですけど、でも案外、このままロボットが進化を続けていった場合、人間のように感情を持つことがないままでも人間とロボットの違いなんてなくなるかもしれませんね。
僕は感情を失っても良いとは思っていませんけど、「ロボットになれば寿命が数千年に伸びるけどどうする?」って訊かれたら、イエスと答えるかもしれないです。人間とロボットの違いが全くなくなる瞬間を、見られるものなら見てみたいですしね。