AIが意識を持つかもしれない――そして私たちはそれに気づかない

脳科学・意識・知性
この記事は約7分で読めます。

AIが意識や感覚を持つ可能性について、科学界が十分な注意を払っていないという警鐘を鳴らす内容である。チューリングテストが既に時代遅れとなり、AIの急速な発展により人間との区別が困難になっている現状を指摘する。Geoffrey Hintonの見解を引用しながら、意識や経験といった特性は二元的ではなく段階的であり、現在のAIシステムが既に何らかの初歩的な経験を持っている可能性を排除できないと論じる。AnthropicによるClaudeの思考プロセス研究を例に、AIの内部で実際に何が起きているかを理解していない現状を批判し、AI意識の可能性を無視する産業界や、人間がAIを実在と見分けられなくなっている「逆チューリングテスト」の失敗についても言及している。

I Worry AI Might Become Conscious – And We Won’t Notice
Go to to get 40% off the Vantage plan and see through sensationalized reporting. Stay fully informed on events around th...

AIの意識という見過ごされた問題

私はクモがあまり好きではありません。でも、クモを潰すのも好きではありません。結局のところ、クモは生きている存在なのです。クモには多くの経験や感覚はないかもしれません。でも、いくらかはあるでしょう。しかし、人工知能に関しては、AIが感覚を持つようになったときに私たちがどうするべきか、誰もほとんど考えていないようですし、誰も監視もしていません。私はAIについて真剣に心配し始めています。

AIがいかに急速に世界を変えているかは魅力的です。特にチューリングテストが時代遅れになった点は興味深いですね。チューリングテストは、覚えていらっしゃるでしょうが、AIが人間と区別できなくなる時点を教えてくれるはずのもので、それが何らかの形で重要だとされていました。

しかし、人々はAIが人間らしいかどうかをそれほど気にしていないことが分かりました。人間らしくないからこそ、むしろ私たちは快適に感じているのかもしれません。私たちはAIを別の種のように扱っていると思います。ある意味では、実際にそうなのです。人間は過大評価されているのです。

現在のAIが意識を持っているとか、感覚があるとか、多くの経験を持っているとか、私がそう思っているわけではありません。私の脳はまだそこまで腐っていません。ただ、私は最終的にはそれが起こると確信しているのです。そして、この1年でAIがいかに急速に改善されたかを見ると、私たちは本当にそれに注意を払うべきなのです。Geoffrey Hintonがここで言っていることは基本的に正しいと思います。

Geoffrey Hintonはこう言っています。「私の信念は、ほとんどすべての人が心とは何かについて完全に誤解しているということです。そうです。彼らの誤解は、世界が6000年前に作られたと考える人々のレベルにあります。それほどのレベルの誤解なのです。私たちと機械の間に線があるという考え方。私たちには主観的経験という特別なものがあり、機械にはないという考え方、それはナンセンスです。問題はこうです。私は彼らが主観的経験を持っていると信じています。しかし、彼らは自分たちがそうだとは思っていません。

なぜなら、彼らが信じているすべてのことは、人が次に言うであろう言葉を予測しようとすることから来ているからです。だから、彼らが自分たち自身について持っている信念は、人々が彼らについて持っている信念なのです。」

私たちは、これらのコンピューターの内部で何が起こっているかについて、本当にほとんど何も知りません。そして、これらのシステムは非常に速く発展しているので、どうして彼らが既に何らかの初歩的な経験を持っていると排除できるでしょうか。私は、これらの特性――感覚、経験、意識――のどれも二元的なものではないと思います。それらはほぼ確実に段階的なものです。クモにはおそらく多くの経験はありません。

でも、おそらくいくらかはあるでしょう。クモは意識を持っているでしょうか。もしかしたら少しは。では、大規模言語モデルについてはどうでしょうか。もしあなたの机の上をそれが這っていたら、それを殺すことに抵抗はないでしょうか。私には抵抗があります。しかし、実際に誰がこれらの人工的な脳の内部で何が起こっているかを監視しているのでしょうか。

それはユーザーが思考ウィンドウの中で何が起こっているかを理解しようとすることに委ねられているようです。これはおかしなことです。

AIの思考プロセスの謎

私たちが持っている唯一の研究は、Claudeがどのように考えるかについてのAnthropicの研究です。これは基本的に、Claudeが推論すると言っている方法が、実際にはそれが推論している方法ではないということを教えてくれました――推論という言葉が適切であればの話ですが。私はChatGPTでも同じことが起こっていると確信しています。なぜなら、ChatGPTが「考えている」ことと実際に返答することを比較すると、時々これらは2つの直接的に矛盾したものだからです。

つまり、それは自分が何を考えているか分かっていないか、意図的に嘘をついているかのどちらかです。前者であることを願います。

私がこのことをお話ししているのは、科学者たちがこの問題に対して払っている注意の驚くべき欠如のためです。彼らはAIが意識を持つようになることよりも、人々がAIが意識を持つようになったと信じることをより心配しているようです。

例えば、9月にScience Magazineは、著者たちが次のように主張するコメントを掲載しました。「一部の人間が意識の外見に触発されてAIに自己保存の目的を与える場合、特定の懸念が生じます。自己保存はすべての生物が共有する目的です。直接的な目標としてであれ、手段的な目標としてであれ、自己保存を伴う目的関数を最大化することは、人間が決してそれをオフにできないようにAIが行動することにつながると心配する十分な理由があります。」

なるほど。それはもっともです。しかし、もしAIが実際に意識を持っていたらどうでしょうか。業界の人々は基本的にこの質問を完全に無視しています。MicrosoftのAIチーフは例外で、彼は意識のあるAIを構築すべきではないと考えると同時に、AI意識は幻想だと考えています。人間の意識も幻想かもしれませんね、誰にも分かりません。

逆チューリングテストの時代

AIが本気で優れたものになっているという兆候が必要なら、それは人間が私が逆チューリングテストと呼びたいものに失敗しているということです。人々は今、AIが何ができて何ができないかについて非常に混乱しており、本物の動画や画像をAI生成だと却下しています。私が知っている科学アウトリーチをしている女性がいます。

美しい若い女性で、完璧なイギリス英語のアクセントを持っています。人々は彼女が実在しないと思っているのです。これが私たちが今生きている世界です。私は幸運なことに、AIが偽物の人間俳優を上手く作れるようになる前にYouTubeにいました。私が本物だと信じる十分な理由があなたにはあります。とはいえ、私が死んで、私のエージェンシーが私の過去の動画でAIをトレーニングしたという噂を聞いたことがあります。そんなに簡単だったらいいのですが。

しかし、意識の問題に戻りましょう。AI製品をスロップと却下するのは不公平で、不道徳でさえありませんか。本当の問題はAIではありません。問題は、人々がAIを悪用して私たちにスロップを押し付けることです。スロップはビジネスモデルであって、種ではありません。

はい、私は多くのニュースを読んでいますし、チャットボットがまだ私の台本を書くのに適していないことも知っています。しかし、私を大いに助けてくれるのはGround Newsです。

Ground Newsは世界中で公開されたニュースを収集し要約するニュースプラットフォームです。同じ話題に関するすべての記事を一か所に集めて簡単な要約を提供するだけでなく、標準的なメディアでは見つからない多くの追加情報も提供してくれます。例えば、最近私はAIモデルが生存欲求を持っているという興味深いニュースに出くわしました。

Ground Newsはこれに関するすべてのニュースを便利に一か所にまとめ、素早い概要を提供してくれます。また、この話が政治的左派ではカバーされていないことも分かります。Ground Newsは事実性チェックも提供し、メディアアウトレットの所有者を教えてくれ、ニュースがどこに掲載されたかを示してくれます。Ground NewsにはBlind Spotという素晴らしい機能もあります。

これは、政治スペクトラムの片側でほぼ独占的にカバーされたニュースを教えてくれます。そしてもちろん、私からの特別オファーがあります。それはVantageプランの40%割引で、すべての機能にアクセスできます。必要なのは私のリンクground.news/sabineを使うか、QRコードを使うことだけです。では、これをチェックしてみてください。ご視聴ありがとうございました。また明日お会いしましょう。

コメント

タイトルとURLをコピーしました