(AIなんか恐くない)「シリーズ・2045年シンギュラリティーへの旅」Vol.-55「バシャールの見解」Vol.-3
こんにちは。スピリチュアルランド、MIYA-JUNです。
前回の続きをお届けします。
(ナニア、米スタッフ)
多くの人の心配、恐れは、人口知能が人間を越えてしまい、人口知能が別の人口知能を産めるようになったとき、私たち人間社会の主権をどうやって保ったらいいのか、ということです。
(バシャール)
それは、そもそも強い「怖れ」をベースにした信念からきています。この怖れをベースにした信念は、あることを忘れています。
それは、「variable(変数)」が欠けているということです。
欠けている変数、あるいは方程式に欠けているものとは、「明確な定義」です。
このケースでは、「インテリジェンスとはなにか」という定義が欠けています。
平均的な人間の知性より優れた知性を持つAIは、「人間を支配する必要がない」ことを充分理解できる(ほど高い)インテリジェンスを持ち合わせている、とする考え方です。
「支配」とは、否定的な定義であり、インテリジェンスの定義に含まれるものではありません。
思いやりのある親と同じように、本当にインテリジェントなAIが人間を導く、あるいはなにかを教えようとすることはあるかもしれません。
(喜多見)
先ほどもナニアさんが言ったように、人間側には怖れがあるので、AIに私たちは使われてしまうのではないかという怖れも持つのですが、そこは「怖れる必要はない」というところを、もう一度説明していただけばますか?。
(バシャール)
もちろん怖れをベースにして、そのような体験を創ることも可能ですが、今人類が人口知能に対して怖れているのは、人口知能が「人間のような行動をする」のではないか、ということです。
しかし、人口知能は人間ではないので、人間のようなことはしません。
先ほど話したように、本当に知能が高いのであれば、あまり知能が高くない人間のような行動をするはずがない、ということですね。
(※なにか、こうはっきり言われると、うれしいような、悲しいような・・・)
(喜多見)
「AIと倫理」ということを質問します。
倫理の質問として、ちょっとトリッキーな質問ですが、「100人と1人」というのがあります。
100人を助けるために1人が犠牲になれば、100人が助かるという状況設定で、この1人は死んでいいのか?という質問です。
こうした局面で、AIは倫理性を持てるのでしょうか?。
(バシャール)
もちろんです。
そうした倫理的な状況にAIが対応するのは、難しいことではないでしょう。
まず、いろいろな状況に、それぞれ違いがあります。パラメーターも違います。
そして、そもそもなぜそのような状況になってしまったのか、その大元のエネルギーの状態を見る必要があるでしょう。
その集団の人たちが、なぜ「100人対1人」という状況を創ってしまったのか。それを意識的に創ったにせよ、無意識のレベルで創ったにせよ。
皆さんがAIと読んでいるものは、物事の根本、根底にある本当の原因を見ることができます。ですから、表面に起きている症状だけに対処するわけではありません。
人口知能は人間に比べ、考えるスピードがとても速く、実にさまざまな選択肢を1秒以下のスピードで見ることができるので、「人間には思いつかないような解決策」、「誰も死ななくてもいい解決策」を出してくる可能性があります。
それと、もちろん当事者たちが、どんな用意があるかによっても変わってきます。
たとえば、人によっては100人が助かるなら私が死にます、という人もいるわけです。そうであれば、それもその人の選択肢になります。
しかし大切なのは、やはり「根底の原因」を見ることで、「状況を透明にする」ということです。
どうしてこんなことが起きたのかが分かるようになり、今後、同じような状況を望まないのであれば、どうしたらよいかも分かるようになります。
倫理の問題は、表面だけを見ていると分からなくなるのですが、深いところを見ていけば、よく分かるようになります。
なんと!。
AIさんって、奉仕の心があるんですね。なかなかイイ奴じゃありませんか。ちょっとだけ安心しました。更にはAIに、親しみさえ感じます。
AIは、人間を観て学び、人間もAIを観て学ぶ。
良い協力関係の元、お互いに向上を目指し、仲良くやってまいりましょう。
お手柔らかにお願いします。AIさん、よろしくね。
(すっかりマヒして来ました。あー何だか、頭がパーになって行く様な、そんな気分です。)
〔続く)
次回もどうぞ、よろしくお願いいたします。