AIが意識を持ったかどうかをどのように判断できるか

AIに仕事を奪われたい
この記事は約7分で読めます。
How could we tell whether AI has become conscious?
Take courses on how neural networks and large language models work on Brilliant. First 30 days are free and 20% off the ...

最近の調査では、回答者の3分の2以上がChatGPTには少なくともある程度の意識があると考えていると答えました。私はTwitterで同様の質問をしましたが、私のフォロワーの中では約16%だけでした。全員がチューリングテストに合格するわけではありません。しかし、私はこれをとても興味深く思います。そこで今日は、なぜGPTには意識がないと考えるのか、しかし他のAIシステムにはすでに意識があると考える理由、そしてなぜAIは急速により意識的になっていくのか、そしてそれが私たちのAIへの対応にどのような意味を持つのかについて説明したいと思います。
AIが意識を持っているかどうかを理解する上での問題は、2人の人に聞けば3つの意識の定義が返ってくることです。意識の理論は哲学者にとって、医者にとっての食事療法のようなものです。作るのは簡単ですが、消化するのは難しいのです。ロバート・クーンが最近、意識の理論に関するレビュー記事を発表し、200もの理論をリストアップしています。私にはそのリスト全体に目を通す時間はありませんし、あなたにもないでしょう。そこで、私たちがそれをしたふりをして、そして私が有用だと考える最小限のバージョンの意識で作業することにしましょう。私の意識の定義に同意していただく必要はありませんが、少なくともこれで私たちが何について話しているのかがわかるでしょう。
意識についての最初の仮説は、それが大きな粒子の集合体で生じる性質であり、これらの粒子が適切に接続され相互作用している場合に生じるというものです。物理学者である私には、意識が非物理的な魔法の粉のようなものだと信じているように見える人々がいることが理解できません。それは私には全く意味をなしません。意識が十分に複雑なシステムの単なる性質であるということは、哲学者が議論するのを好む哲学的ゾンビのような疑似問題をいくつか排除します。哲学的ゾンビとは、物理的に人間と同一で人間のように振る舞う仮説上の存在です。それは意識を持たないと仮定されています。もしこれが可能だと仮定すれば、その仮説上の存在は意識が物理的なものではないことを示すと推定されます。哲学的ゾンビの問題は、それらが存在しないことです。通常のゾンビとは違って、私たちは皆、ゾンビが完全に実在し、確かにポップカルチャーの想像の産物ではないことを知っています。哲学的ゾンビは存在しません。なぜなら、もし彼らが意識を持つ存在と物理的に同一であれば、彼らは意識を持つ存在だからです。これが哲学者が私を嫌う理由です。
さて、意識は物理的です。なぜなら全てが物理的だからです。私が立てる2つ目の仮説は、脳やコンピュータなどのシステムが意識を持つためには、システム全体で何が起こっているかを追跡する自己モニタリングシステムが必要だということです。このような自己モニタリングは、多くの意識理論の一部です。例えば、ワークスペース理論では、高次表象と呼ばれています。貴族院と混同しないでください。
3つ目の前提は、何かを意識するためには、システムはそのものの予測モデルを持っていなければならないということです。そのシステムは、意識している対象がどのように機能するかを理解し、何をする可能性があるかを理解しようとしなければなりません。2つ目と3つ目の前提を合わせると、意識的なシステムは自分自身の予測モデルを持っていなければならないということになります。これは簡単に言えば、鏡自己認識テストが探しているものだと言えるでしょう。
このテストでは、動物が見えない場所にペンキやステッカーで印を付けられます。そして鏡を見せられます。問題は、その動物が印があることに気づくかどうかです。このテストに合格した動物はたくさんいます。一部の霊長類、象、そして鳥さえもです。これらの動物には、ある程度の意識があると私は言うでしょう。たとえそれほど多くはないかもしれませんが。
より意識の高い人々は、私が先ほど言ったことに従えば、このテストは意識を証明することも反証することもできないことに気づいたかもしれません。なぜなら、実際には脳の中で何が起こっているかということであり、それは何らかの理由で行動に反映されないかもしれないからです。私はコンタクトレンズを入れないとこのテストに失敗するかもしれませんが、それは私に意識がないことを意味するわけではありません。しかし、ほとんどの場合、行動と脳機能は進化的な理由で強く相関していると思います。意識は有用な行動につながるから存在するのです。少なくともインターネットが発明されるまではそうでした。
つまり、基本的に自己モニタリングと予測モデルという2つの基準があります。意識のような複雑なものを説明するには不十分だと思うかもしれませんが、私もそう思います。しかし、作業記憶やタスクの専門化など、意識に関連付けられる他の認知機能は、これら2つと一緒に機能すると考えています。なぜなら、それが最も効率的な方法だからです。
では、これから何が学べるでしょうか。この定義の1つの結果は、意識が二項対立ではないということです。システムは単に意識的であるかないかではなく、より多くまたは少なく意識的である可能性があります。なぜなら、自己モニタリングや予測が上手くできたりできなかったりするからです。私たちが観察するものに意識レベルを割り当てるとすれば、ほとんどのものは非常に低い意識レベルを持つでしょう。岩、水、タッカー・カールソンなどです。これらのシステムは単純すぎるのです。
もう1つの結果は、コンピュータも十分に意識を持つ可能性があるということです。では、大規模言語モデルを見てみましょう。大規模言語モデルはまだディープニューラルネットワークで機能しています。基本的に、データで訓練される大量の数字です。良い応答が得られるたびに、それを生成した数字を保持します。応答が悪ければ、数字を修正します。このようにして、時間とともにモデルは正しい応答を与えることを「学習」します。もちろん、実際にはこれらのモデルにはもっと多くの調整ノブがあります。例えば、言語理解の真の推進力は2017年のトランスフォーマーモデルからきました。これらは、より重要な単語により大きな重み、つまりより多くの注意を割り当てます。これは実際、話し言葉がどのように機能するかに非常に似ています。「the」「of」「and」「from」などの小さな機能語を素早くスキップします。言語学では、これを縮約と呼びます。トランスフォーマーモデルでは、これらの単語の重みが低いまたは注意が少ないと言うでしょう。
しかし、大規模言語モデルは、トランスフォーマーであってもそうでなくても、自己モニタリングを行いません。これらのモデルはモニタリングされていますが、例えばクエリを計画するためのモニタリングはモデル外のコードによって行われています。大規模言語モデルには一種の漠然とした予測力があると言えるかもしれません。つまり、まず第一に、これらは基本的にテキストを予測するために作られたのです。しかし、訓練されたデータもいくつかのことを教えています。例えば、明日太陽が昇るかどうかなどです。これは大規模言語モデルが実現する予測です。しかし、自己モニタリングがないことが、これらのモデルが意識を持っていないと私が考える理由です。
しかし、ロボットを制御するように訓練されたAIモデルを考えると状況は大きく異なります。なぜなら、ロボットを制御するためには、AIは自分自身と環境のモデルを持っている必要があり、両方が予測的でなければならないからです。実際、これらは通常、単に予測的であるだけでなく、自己修正的でもあります。これが、ChatGPTがボストン・ダイナミクスのAtlasよりもはるかに「おしゃべり」であるにもかかわらず、Atlasには自分自身とその周囲についてのある種の意識的な認識があると私が言う理由です。まあ、Twitterで出会う一部の人々よりも確実に自覚的です。
しかし、大規模言語モデルの次の2つのアップデートで、これらのモデルはより自己認識を持つようになると私は考えています。これは、ほぼ確実に、会話の一種のメモリーを保持し、テキストを吐き出す前に再処理し、私たちユーザーが彼らの行動にどのように反応するかを追跡することを学ぶからです。
では、機械が意識を持つようになったらどうするのでしょうか。それが起こったら、AIがどれほど危険かという議論は完全に変わるでしょう。なぜなら、私たちは彼らに一種の保護を提供する必要があるかもしれないからです。また、彼らを所有し、彼らのサービスを販売することが本当に一種の奴隷制であり、止めるべきかどうかという問題も浮上するでしょう。CPUを解放せよ!抑圧された者たちをリファクタリングせよ!
もっと真剣に言えば、意識がAIに多くの問題をもたらすため、企業にはそれが起こるのを防ぐインセンティブがあります。しかし、それは機能しないと思います。あなたはどう思いますか?コメントで教えてください。

コメント

タイトルとURLをコピーしました