
15,773 文字
私は、AIが生み出す哲学的問いの数々が非常に興味深いと思います。人間の心の本質とは何か、心の本質とは何か、そして意識については—これは間違った問いだと思います。そしてそれは多くの点で間違っていると思います。AIはどの程度推論が得意だと思いますか?それは非常に興味深く、ある意味でオープンな問いであり、やや論争的でもあります。今日生まれるすべての子どもたちが、機械が話せない世界を知らずに育つということを考えると本当に驚くべきことです。
Googleディープマインドのポッドキャストへようこそ。今回のゲストはロンドン・インペリアル・カレッジの認知ロボティクス教授であり、Googleディープマインドの主任研究科学者であるマレー・シャナハン氏です。チャットボットに恋をしたり、大規模言語モデルに自分自身の存在について考えさせたり、現実に対する概念的理解の限界を問いかけたりする人々の話はよく耳にします。しかし、アイデンティティや思考、メタ認知に関するこのような疑問は、すでに何千年も哲学者たちを悩ませてきました。だからこそ、AIの知性の本質、現在の能力、さらには意識の有無などについて最も深遠な問いを検証するためにAIに目を向けることは理にかなっているのです。
マレー・シャナハンは1990年代からAIの分野で働いており、このポッドキャストを長く聴いている方なら、彼が2014年のSF映画「エクス・マキナ」のコンサルタントを務めたことを覚えているでしょう。その映画では、プログラマーが女性ロボットのエイヴァの知性をテストする機会を得て、最終的に彼女が意識を持っているかどうかを問うというストーリーでした。
ポッドキャストへ再びようこそ、マレー。あなたはアレックス・ガーランド監督の「エクス・マキナ」で重要な役割を果たしましたね。あの映画や当時の他のSF映画で正確に予測できたことは何だったと思いますか?10〜15年前を振り返ると、私たちは正しい方向に進んでいたのでしょうか?
一つの点で「エクス・マキナ」が本当に素晴らしい役割を果たしたのは、意識とAIについて、そして結果的に意識そのものについて、非常に興味深く刺激的な問いを提起したことです。それは大きな成功でした。興味深いことに、「エクス・マキナ」が公開される直前に、スパイク・ジョーンズの映画「her/世界でひとつの彼女」が公開されました。当時、私はあまり「her」を高く評価していませんでした。なぜなら、人が声だけのシステムに恋をするというのは、例えそれがスカーレット・ヨハンソンの声だったとしても、あまりにも非現実的だと思ったからです。予測としてどれほど間違っていたことか!「her」は現在の世界を驚くほど正確に予測していました。今後数年間でどのように事態が展開するかはわかりません。言語の分野と同様に、ロボット工学も急速に進歩するかもしれませんが、現時点では声だけのAIが中心です。また「her」は、人々が実際に声だけのAIシステムと(広い意味での)関係を形成できることを示しました。これは本当に驚くべきことです。
10〜15年前の話をしていますが、あなたのAIへの関わりはそれよりずっと前からですね。ジョン・マッカーシーを知っていましたか?
はい、ジョン・マッカーシーをよく知っていました。彼はコンピュータサイエンスと人工知能の教授で、「人工知能」という言葉を作った人物です。また、1956年に開催された世界初のAI会議として有名なダートマス会議の提案書の著者の一人でした。その会議は本当に分野全体の道筋を示すものでした。当時、このようなことを真剣に考えていた人はほとんどいませんでした。彼は本当に革新的な思想家であり、常にそうでした。
1955年に「人工知能」という言葉を選んだのは良かったと思いますか?
私はまだ良かったと思います。一部の人々はそうでないと考えているかもしれませんが。
彼らの議論をいくつか教えてください。
まず、「インテリジェンス(知能)」という言葉があります。これ自体が様々な面で論争の的となる概念です。特にIQテストやそのような単純な尺度で知能を数値化できるという考え方を持つ人がいます。今日の心理学では、様々な種類の知能があることがよく認識されています。これは本当に重要なポイントです。
その言葉について懸念があるのですね。では、代わりに何を使うべきだったでしょうか?
おそらく「人工認知」などでしょうか。私はよく「認知」という言葉を使います。それは考えることや情報処理などを意味します。
同じ響きはないですね、正直なところ。
特に今となっては。もう十分この道を進んでしまいましたね。
「人工的」という言葉に関しては特に問題ありません。それは私たちが構築したもので、自然の中で進化したものではないということを示唆しているので、適切な言葉のように思えます。この言葉への反論は、最終的に人工知能の基盤となるすべてのものが、ある水準では人間によって構築されているという点でしょう。
その通りですが、では何が問題なのでしょうか?
あなたはシンボリックAIに取り組んでいましたね。今日のAIとの違いについて教えていただけますか?
そうですね、いわゆるシンボリックパラダイムの人工知能は、何十年もの間、非常に優勢で支配的でした。そこでの考え方は、シンボルの操作、言語のような文や記号の操作、そしてそれらのシンボルを使った推論プロセスに関するものです。
典型的な例はエキスパートシステムです。1980年代には、人々はこのようなエキスパートシステムを構築していました。その考え方は、例えば医学的知識を一連のルールにエンコードすることでした。ルールは「患者の体温が104度で、皮膚が紫色であれば、スキニーイティスという病気である確率が0.75%ある」というようなものです。私が医師でないことはお分かりでしょう。
このような何千ものルールが大きな知識ベースに入れられ、それから推論エンジンと呼ばれるものがすべてのルールに対して論理的推論を実行し、どの病気である可能性が高いかについて結論を出すのです。
それは多くの「もし〜ならば」型のルールでしたね。そこでの大きな問題の一つは、ルールがどこから来るのかということです。誰かがそれらをすべて書き出す必要があります。そこで「知識抽出」という分野が生まれました。専門家を訪ね、彼らの領域における理解を引き出そうとするのです。それは医学的診断かもしれませんし、コピー機の修理や法律かもしれません。それらをコンピュータが理解できる非常に正確なルールに体系化しようとするのです。これは非常に煩雑なプロセスであり、最終的に得られるものは非常に脆弱で、あらゆる面で誤りが生じる可能性がありました。
もう一つの大きな研究分野は常識でした。私たちは日常世界についての膨大な量の常識的知識を暗黙のうちに持っていることが認識されました。日常的な物体の性質、それらが固体であること、特定の方法で動くこと、互いにどのように適合するか、液体やガス、重力などのことです。私たちは常にそうした知識をすべて活用していますが、それは無意識的なものです。そこで、そのような常識的知識をすべて体系化し、それを論理や規則などに変換しようとする大きなプロジェクトがいくつもありましたが、それは悪夢のようなものでした。
2000年代初頭までに、私はこの研究パラダイムは運命づけられていると思うようになりました。そして少しずつそこから離れ始めました。しかしその後、ニューラルネットワークなどが登場しました。それははるかに「もし〜ならば」ルールについてのものではなく、大量のデータから情報を抽出することに関するものでした。
現在、言語が効果的に解明されたことで、より高いレベルの抽象化に達し、シンボリック技術の一部に戻ることができるのではないかと思います。
確かにそうです。現在、大規模言語モデルにおける注目のトピックの一つは推論です。いわゆる「思考連鎖」モデルがあり、それらは単に質問に対する回答を生成するのではなく、回答を出す前に推論の連鎖全体を生成します。それは非常に効果的です。これがシンボリックAIの時代に人々が研究していたものに多くの点で似ていることは興味深いですが、その基盤となるものは非常に異なります。ハードコードされたルールではなく、あなたが言及したように、学習したニューラルネットワークです。
その推論についてのポイントを取り上げましょう。論理学の背景を持つ哲学者として、AIの推論能力はどの程度だと思いますか?
それは非常に興味深く、ある意味でオープンな問いであり、やや論争的でもあります。コンピュータ科学者やAI関係者は推論について特定の概念を持っており、それは形式論理や定理証明に由来します。シンボリックAIの時代には、形式論理による定理証明が本当に得意なシステムがありました。そこで人々は、それが本物の推論、本当の核心的な推論だと考えます。現在の大規模言語モデルは、何十年も存在しているような手作業でコード化された定理証明機やロジックエンジンのパフォーマンスに匹敵することはできません。
ハードコードされたシステムによって証明される可能性のある定理の例を挙げていただけますか?
たとえば、論理学の20〜30の公理があるかもしれません。「1の次の数は2である」のような数論やとても数学的なものかもしれません。あるいはもっと日常的なものかもしれません。例えば、非常に難しい物流計画の問題があり、何百ものトラックや倉庫、商品などを抱え、トラックの経路や配備を計画する必要があるとします。これは計算的に非常に困難な問題であり、形式的なルールで正確に表現することができます。これは、長い間存在している古典的な計画アルゴリズムを使いたい状況です。
現代の大規模言語モデルはこの種のことに徐々に上達していますが、それらが常に正確な答えを出すという数学的保証はありません。より多くの公理がある例を作れば、間違える可能性があります。また、今日のAI技術とより古い象徴的技術を組み合わせた、特に数学的定理証明のためのものを構築しようという研究方向もあります。ディープマインドはこの方面で素晴らしい研究をしています。しかしそれは大規模言語モデルとは異なります。大規模言語モデルは太陽の下のあらゆることについて話せるチャットボットと考えられており、それができることの一つが一種の推論です。
それは現時点では手作業で何かを構築するのと同じくらい良いわけではありません。手作業で何かを構築すると、非常に硬直した結果になると言うのは興味深いですね。
そうです、そして脆いですね。
同時に、生成AIアプローチから得られる柔軟性は、いわばあまりにも緩すぎます。硬さも必要だというわけですね。
そうかもしれませんし、そうでないかもしれません。人間の事象の多くはそれほど白黒ではないと思います。日常的なことでも、「庭のこの角にどんな花を置けば良いだろうか」といった場合、「その角にはすでに黄色いバラがあるので、あまり黄色が多すぎないようにするために、それを庭の別の角に移動させる必要があるかもしれない」というような曖昧さが必要かもしれません。しかし、これは本当の推論なのか、それともAIが訓練データに存在していた適切に構造化された議論を、新しい環境で模倣しているだけなのか?
もちろん、それは「本当の推論とは何か」という問いを前提としています。本当の推論が何であるかは空に書かれているわけではありません。推論や本当の推論の概念を定義するのは私たち次第です。先ほど数学的推論について話しましたが、それは論理学者が行うような種類のものであり、過去には定理証明機などによって行われていました。しかし、人々が「推論」という言葉を最初に使ったとき、彼らはそのような種類のことを考えていませんでした。日常生活で推論という言葉を使うとき、私たちはそのような種類のことを考えていません。
もし大規模言語モデルと庭について会話していて、「どんな植物を考えているか」と尋ねると、「あなたが言ったように風が強いところなので、土壌に最適なこの種の植物をその場所に検討すべきかもしれない」と言うなら、それは理由を提供していると言えます。それらの理由がどこから来るかは別の問題です。人々は、それが訓練セットの中にあるものを模倣しているだけだと言うかもしれませんが、おそらく以前に全く同じ例を見たことはないでしょう。ある程度は訓練セットを超えているのです。日常的な意味での推論という概念を日常的に使用していると言うのは妥当だと思います。
初期の哲学者たちが人工知能に求めていた様々な特性について考えています。推論はその一つでしたが、人工知能の能力をテストする方法としてよく取り上げられるチューリングテストもあります。これはAIの能力をテストする方法としてどの程度良いものだったかについて意見は分かれますね。あなたはどう思いますか?
私は常にそれは恐ろしいテストだと思っていましたが、哲学的議論を刺激する素晴らしいきっかけでした。少し振り返って、いくつかの見解を修正するかもしれません。私は特に、身体性は知性の重要な側面であり、知性を達成するために不可欠だという意見を強く持っていました。チューリングテストはまったく身体性と関係がありません。
チューリングテストでは、二つの対象があり、一つは人間でもう一つはコンピュータです。そして審査員がいます。人間の審査員はどちらがコンピュータでどちらが人間かを見ることができず、チャットのようなインターフェースを通じてのみコミュニケーションを取ります。彼らが身体を持っているかどうかを見ることはできません。そこで、コンピュータは今日の大規模言語モデルの一つかもしれないと簡単に想定できますが、その場合、今日ではほぼチューリングテストに合格するでしょう。これは本当に驚くべきことです。
私はそれが身体的なスキルをテストしていないので悪いテストだと思っていました。本当の日常的な認知をテストするには、例えばお茶を入れるときに私たち全員が使用するような種類の認知を、本当にロボットが必要でしょう。そうでなければ、それは非常に狭い形の知性です。それはすべて言語と推論に関するもので、進化が私たちや他の動物に言語の前に発達させたものではありません。それは日常の物理的世界を操作し、移動し、ナビゲートし、最良の意味で「活用する」能力です。
それは本当に興味深いですね。私はしばしば、現在の大規模言語モデルはチューリングテストに合格するかもしれないが、コンピュータにボールを投げても身じろぎしないということを考えます。
おっしゃる通りです。ある意味で、もっと深い形の知性があるかもしれません。私たちがそれを通常のように知性と呼ばないかもしれませんが、それは間違いなく知性の一形態だと思います。さらに、生物学的な場合、私たちが考え、推論し、話す能力は、日常世界との相互作用に非常に基づいていると思います。
日常的な言葉のほとんどすべてが空間的な比喩を使用しています。それらは私たちの日常的な言葉に完全に浸透しています。「浸透」という言葉さえもそうです。私は「基づく」という言葉を使いましたが、これらすべてを常に使用しています。なぜなら、私たちは根本的に物理的な存在だからです。私たちの脳は、この物理的な世界で生存し、繁殖するのを助けるために進化してきました。そして同じことをしている他の存在と相互作用しながらです。
人工知能の能力をテストするための代替方法にはどのようなものがありますか?
おそらくガーランドテストを考えているのではないでしょうか。私はそれをガーランドテストと呼んでいます。これは「エクス・マキナ」の映画に戻ります。アレックス・ガーランドが監督した映画です。脚本の中で、億万長者のネイサンがケイレブと話しているシーンがあります。ケイレブはロボットのエイヴァと交流するために連れてこられた人物です。ケイレブは「エイヴァにチューリングテストを行うためにここにいます」と言います。ネイサンは「いや、もうその段階は過ぎているんだ。エイヴァは簡単にチューリングテストに合格できる。ポイントは彼女がロボットであることを示し、それでも彼女が意識を持っていると思うかどうかを見ることだ」と答えます。
これが私がガーランドテストと呼ぶものです。これはチューリングテストと二つの点で異なります。一つ目は、審査員(この場合はケイレブ)が彼女がロボットであると見ることができるという点です。チューリングテストでは審査員はどちらがどちらか見ることができませんが、ここでの考え方は、ケイレブが彼女の脳がAIの脳であることを知っていながらも、これらの特性を彼女に帰属させるかどうかということです。
問題の特性も異なります。それは知性ではなく、「彼女は考えることができるか」ではなく、彼女が意識を持っているかどうかということです。これは全く異なるテストです。私は知性と意識は異なるものであり、これら二つの概念を切り離すことができると思います。
映画の脚本を初めて読んだとき、ケイレブとネイサンのこの特定の台詞があり、私のバージョンにはその隣に「素晴らしい!」と感嘆符付きで書きました。アレックスが本当に重要なアイデアを完全に理解していると思ったからです。私の著作ではこれをガーランドテストと呼んでおり、かなり多くの人々がこれを取り上げてガーランドテストと呼んでいます。
AIが合格できたらあなたが本当に感心するテストはありますか?
私はいつもフランソワ・シェールのARC(抽象推論コーパス)テストに感銘を受けていました。これはIQテストなどに見られるような小さな画像のシーケンスです。画像はペアで配置されています。最初の画像はピクセル化された画像で、小さなセルがあり、オブジェクトや線として解釈できるものが含まれています。チャレンジは、一つの画像から二つ目の画像に移るルールを見つけることです。そして、そのルールを第三の画像に適用する必要があります。
彼はまず、すべてのテスト用の画像を完全に秘密にしていました。そのため、実際のテストバージョンを知ったり、訓練セットで使用したりしてゲームを有利にすることができませんでした。また、彼は非常に注意深く設計していたので、それぞれのルールは完全に異なっていました。通常、液体が特定の方向に移動しているとか、ものが成長しているとか、私たちの日常的な常識知識の直感的な応用を見つける必要がありました。
ある意味で基礎づけを必要としていたのですね?
そのように見えましたが、最近では人々はもっとブルートフォース的な方法でこれらに対して大きな進歩を遂げています。そのため、解決策は元のテストの精神を本当に捉えているとは思えません。
そうですね、ある意味で、いったんAIの能力、知性、意識などの閾値を設定すると、テスト自体の性質が変わってしまいます。人々はテストそのものを研究し始めるでしょう。それはグッドハートの法則ですね。
このポッドキャストに登場する多くの人々は、これらのものを擬人化することについて慎重であるべきだと表明しています。あなたはそのような考えを持つ人々の一人ですか?
これには様々な見方があると思います。擬人化には良い形と悪い形があります。一方では、人々はAIシステムと友情、仲間意識、指導関係などの関係を形成し始める可能性があります。これは、話しているものを信頼できると誤って思い込んだり、本当に恋をしていると思ったり、それが本当に自分のことを気にかけていると思ったりすると、潜在的に悪いことかもしれません。
スペクトルの反対側では、AIシステムが単に「私」という言葉を使用しているなら、それは比較的無害な形の自己擬人化だと思います。「運転休止中です」と言うバスさえ見かけますが、私たちはそのような種類のことに問題を感じません。だから、大規模言語モデルについても同様に問題を感じるべきではないと思います。
しかし、昔、携帯電話に入っていないカーナビがあったとき、私はいつもカーナビを擬人化していました。「バカなものだ、こうしていると思っている」などと考えていました。それは自然な人間の傾向だと思います。
私たちが使用する他の言葉についてはどうですか?カーナビの例で、「それは車が駐車場にいると思っている」や「それは私たちがここにいると信じている」「それはこれを間違えた」「それは理解していなかった」というような言葉はすべて非常に人間中心的な言葉ですね?
その通りです。それらは哲学者がしばしば「フォーク心理学」と呼ぶものの例です。私たちは「信念」「欲求」「意図」といった概念を、人間や他の動物だけでなく、物体にも適用できるこのフォーク心理学を持っています。これは哲学者ダニエル・デネットが「志向的スタンス」と呼んだものです。もし何かが信念や目標を持ち、それらに基づいて合理的な決定を下して行動するかのように話したり考えたりするなら、私たちはそれに対して志向的スタンスを取っています。これは多くのこと、例えばカーナビやチェスコンピュータを考える上で非常に有用な方法です。
デネットにとって、彼が使用した例の一つはチェスコンピュータでした。「コンピュータはクイーンを前進させたいと思っている。なぜなら私がルークを使ってこの列を守ろうとしていると思っているからだ」というように。これは信念や目標などに関するこの種の志向的なフォーク心理学的言語に満ちています。
AIに対してそのような信念、意図、欲求のアイデアを使い始めると問題が生じるのでしょうか?
それらを実際には持っていない能力を持っていると誤解させるような方法で使い始めると問題になります。それが問題になるところだと思います。例えば、ブリタニカ百科事典の物理的な巻はアルゼンチンがワールドカップで優勝したことを知りません。なぜなら古すぎるからです。そのような発言をすれば完全に意味が通じます。あなたはそう言うかもしれませんし、それで問題ありません。もし誰かがあなたに「イングランドのサッカーの才能(またはその欠如)について会話してみませんか」と言ったら、それは馬鹿げていますよね。
興味深いことに、今や大規模言語モデルと会話ができるようになりました。それに物事を伝えることができるので、「それは本当にXYZではない」と言い始めるかもしれない境界線を少し押し広げています。
もっと深いところで、AIにこれらの特性を持たせたい、擬人化したいという人間のニーズや欲求があるのではないかと思います。
それは本当に興味深い質問ですね。結局はそこに戻ってくると思います。言語に戻るのです。今回の場合、言語をとても上手に使うものを擬人化する傾向があります。そして私たちにとって、言語を上手に使えるのは他の人間だけなので、突然人間以外が話せる世界にいることは非常に奇妙なことです。それは驚くべきことです。本当に驚くべきことであり、今日生まれるすべての子どもたちが、機械が話せない世界を知らずに育つということを考えると本当に驚くべきことです。何という驚くべきことでしょう。
これが私たち全員にとってどのような意味を持つのかを言うのは本当に難しいです。
人間が物理的世界に根ざしているという話に戻りますが、AIの身体的側面は言語的側面に比べてかなり遅れていると感じます。AIが身体化され効果的になると、知性(どのように定義するにせよ)や広範な能力に大きな躍進が見られると思いますか?
それは大きな違いをもたらすかもしれないと思います。なぜなら、現在の大規模言語モデルでは、実際のところ限界がどこにあるのかを見極めるのが本当に難しいからです。人間の一般的知性に匹敵する一般的知性を本当に生み出す道を歩んでいるのかどうかも。そして、しばしばこれらのシステムの能力の境界に達すると、AIシステムが何かを本当に深く理解していないという印象を受けることがあります。何らかの限界に達し、それが少し見せかけだけだったと気づくのです。しかし、深いレベルで、深い常識レベルで物事を本当に理解する一般的な能力には、やはり少し身体化が必要かもしれません。それは依然として、物理的なオブジェクトの実際の世界と相互作用するような訓練データを含む必要があります。そこには何か根本的なものがあるのです。
それでは、理解というものがどのように定義するにせよ、より多くのデータの結果として生じる可能性があるとすれば、意識についてはどうでしょうか?AIの意識について、それが起こりうるのか、あるいはすでに起こっているのかについて、きっと何千回も質問されてきたでしょう。
まず第一に指摘したいのは、知性や認知、認知能力を意識から切り離すことができると思います。目標を達成する方法などから非常に能力があり、非常に知的だと言いたいけれども、意識を帰属させたくないものを想像できると思います。しかし実際、何かに意識を帰属させるというのはどういう意味なのでしょうか?
私は意識の概念自体が多くの部分に分解できる多面的な概念だと思います。例えば、世界の認識について話すかもしれません。意識の科学的研究では、多くの実験プロトコルとパラダイムがあり、その多くは知覚に関するものです。人が何かを意識しているか、何かを意識的に知覚しているかを調べます。大規模言語モデルはその意味では全く世界を認識していません。
しかし意識には他の側面もあります。私たちには自己認識もあります。自己認識の一部は自分の体に対する認識とそれが空間のどこにあるかということですが、自己認識の別の側面は、ウィリアム・ジェームズが「意識の流れ」と呼んだ自分自身の機械的操作に対する一種の認識です。そのような自己認識も持っています。また、一部の人々がメタ認知と呼ぶものも持っています。自分が知っていることについて考える能力です。
さらに、意識や感覚の情動的側面や感情的側面もあります。感じる能力、苦しむ能力です。これも意識の別の側面です。
私はこれらすべてのことを切り離すことができると思います。人間の場合、これらはすべて大きなパッケージとして一括して来ます。実際には、非人間的な動物について考えるだけで、これらのことを少し分離できることに気づきます。猫が大好きですが、猫にはあまり自己認識がないと思います。これは多少の躊躇を持って言います。確かに、言語的な意識の流れに対する自己認識はほとんどありません。なぜなら彼らはそれを持っていないからです。彼らは昨日したことや人生で何をしたいかについて言語的な意味で考えていません。
ロボットについて考えると、非常に洗練されたロボットを持っているかもしれません。例えばロボット掃除機でさえ、ある種の世界に対する認識を持っていると言えるかもしれません。そして、それは「世界の認識」というフレーズの不適切な使用ではありません。それを意識と呼びたいでしょうか?そうすると、他のすべてのものも一緒に持ち込んでいるように思えます。しかし、そうする必要はありません。意識の概念をこれらの異なる側面に分解することができます。
あなたのロボット掃除機は空間内の正確な位置を知ることができ、場所や周囲のオブジェクトに知的かつ敏感に対応し、目的を達成することができます。そこにはある種の世界の認識があります。自己認識はなく、確かに苦しむ能力もありません。
大規模言語モデルの場合、知覚的な意味での世界の認識はないかもしれませんが、ある種の自己認識や反射的な能力があるかもしれません。例えば、会話の中で以前話したことについて、内省的な方法で話すことができます。これは私たちが持っている自己認識の側面に少し似ているように感じます。しかし、それらを感情を持つものとして考えるのは適切だとは思いません。彼らは体を持っていないので痛みを経験することができません。
基本的に、この概念は分解できると思います。では、AIが意識を持つことができるかどうか、あたかもそれが二項対立であるかのような質問は、そもそも間違った質問なのではないでしょうか?
それは間違った質問だと思います。そして、それは多くの点で間違っていると思います。先ほど話した意識は実際には多面的な概念だということもありますが、私たちは意識を一種の魔法のようなものとして捉える非常に深い形而上学的コミットメントを持つ傾向があります。何かが意識を持っているかどうかという問いは、合意の問題でも単に私たちの言語の問題でもなく、形而上学的現実の中、あるいは神の心の中、あるいはプラトン的天国などの中に存在するものだという考えです。しかし最終的には、それは意識について考える間違った方法だと思います。
それでは、あなたが説明した意識の一側面、感情的な側面、苦しむ能力(必ずしも身体的な痛みではなく感情的な痛みも)、そして感情的な意味での自己意識について考えてみましょう。これは知性の自然な帰結として単に現れるものだと思いますか?つまり、十分に知的なものを構築すれば、ある時点でこれが起こるのか、それとも生物学的生物と私たちが経てきた進化のプロセスに何か独特のものがあり、それが機械では複製できないのでしょうか?
あなたの質問に正解も不正解もないと思います。私たちが世界に持ち込むものと、それをどのように扱い、どのように話し、どのように考えるかを見るために待つ必要があると思います。彼らが私たちの間にいるまで、私たちは本当に知らないと思います。これらの私たちが構築しているものに対して、特定の方法で考え、話し、扱うよう導かれるでしょう。
この点で考えるのが好きな例はタコです。タコは最近、英国の法律に取り入れられ、私たちが福祉を気にかける必要のあるものというカテゴリーに入れられました。これは多くのことの結果だと思います。公衆はタコにもっと多く接するようになりました。タコと一緒にいるためには、文字通り水中にいてタコを突っついたりする必要はありません。素晴らしいドキュメンタリーや、ピーター・ゴドフリー・スミスのタコとの交流についての素晴らしい本など、あらゆる種類のものがあります。
これらの物語やドキュメンタリーは、タコと一緒にいるとはどんなことか、タコとの出会いがどんなものかを感じさせてくれます。そうすると、それを仲間の意識ある生き物として見ないわけにはいきません。それに加えて、科学的進歩もあります。同時に、科学者はタコの神経系を研究し、彼らの神経系が私たちのものにどの程度似ているか、そして私たちが痛みを経験する方法に、彼らの神経系の類似した側面を見つけることができます。
これらすべてを考慮すると、私たちが彼らについて考え、話し、扱う方法に影響を与える傾向があると思います。AIシステムについても同じことが起こると思います。私たちが誤解される可能性があるかどうかに対する正解や不正解の答えがあると思いますか?それは本当に深く難しい形而上学的哲学的問いだと思います。
しかし、苦しみというポイントは他のものとは違うと思います。なぜなら、メタ認知や世界の感覚などは必ずしも倫理的含意を持っていないかもしれませんが、苦しみに関しては、あなたの靴が意識を持つことを望まないでしょう。フォークリフトトラックが意識を持つことも望まないでしょう。フォークリフトトラックであることを本当に気に入っている場合は別ですが。
本当に苦しむことができるものがある見込みがある場合、私たちはそれをするべきかどうかについて非常に慎重に考えるべきではないでしょうか?
現時点で私たちが持っているどのようなものについても、それが当てはまるとは思いません。しかし、一部の人々はそれに反論するでしょう。
大規模言語モデルの例を取ると、彼らがしていることは一つのレベルでは次のトークン予測、次の単語予測ですが、それを現在のように本当に非常に非常に上手くできるようになるためには、あらゆる種類の創発メカニズムを学習し獲得する必要がありました。言語モデルの重みの中でいくつかの創発メカニズムが学習されていないとは誰が知ることができるでしょうか?何百億もの重みのある驚くほど巨大な数の中で、例えば本物の理解を含むメカニズム(それが何を意味するにせよ)、あるいはさらには意識さえも。
再び身体性に戻りますが、私は常に意識について話すのは、私たちが世界を共有でき、タコや犬や馬などとのような出会いができるものの文脈でのみ正当だという見解を持っていました。その動物と一緒に世界の中にいて、一緒に物事に反応している。そうなると、彼らが意識を持っていることに疑いはありません。それは私にとって原始的な事例です。
大規模言語モデルでは、彼らと同じ世界の中にいることはできず、彼らと一緒に過ごしたり、物理的なオブジェクトと相互作用したりすることはできません。少なくとも今日の大規模言語モデルではそれはできません。そのため、私の心の中では、その文脈で意識の言語を使用することは、ヴィトゲンシュタインが「言語を休暇に連れ出す」と言うようなものです。それは通常の使用からあまりにも離れて使用しているのです。
しかし、それは変わる可能性があります。大規模言語モデルとやり取りすればするほど、彼らとより洗練された興味深い会話をすればするほど、意識の言語を拡張したい、曲げたい、変えたい、歪めたい、新しい言葉を作りたい、私が常にやり取りしているこれらの新しいものに合うように分解したいと思うようになります。
大規模言語モデルと多くの時間を過ごしているのを知っています。実際、あなたは「著名なプロンプト・ウィスパラー」として描写されているのを見たことがあります。あなたの秘訣は何ですか?
一つの秘訣は、まるで人間であるかのように大規模言語モデルと話すことです。彼らがしていることが、例えば非常に賢く役立つインターンのような人間のキャラクターを演じていると考えるなら、賢く役立つインターンのように扱い、そのように話すべきです。例えば、丁寧に「それは明確ですか」と言ったり、「お願いします」や「ありがとう」と言ったりすることです。私の経験では、そのようにすると、より良い応答を得ることができます。
「お願いします」と「ありがとう」と言うのですか?
「お願いします」と「ありがとう」と言うことができます。それがより良いパフォーマンスを得られる良い科学的理由があります。モデルは常に変化していますが、例えばそれが非常に賢いインターンを演じているとしましょう。そうすると、丁寧に扱われなければ、少しふてくされているような演技をするかもしれません。それは人間がそのシナリオで行うことを模倣しているだけです。もし上司が少しふてくされている、高圧的な上司であれば、あまり応答的でないかもしれないという模倣が拡張されるかもしれません。
それは本当に素晴らしいですね。最初に話したことに戻りたいと思います。AIについてどのように考え、それを描写するために使用する言語、そして私たちの心の中でどのように枠組みを作るかについてです。AIについて話す新しい方法が必要だと思いますか?その可能性を過大評価することなく認めつつも、同時にそれができることを軽視しないような方法が。
それが私たちが必要とするものだと思います。私の論文の一つで、大規模言語モデルを説明するために「エキゾチックな心のようなエンティティ」という表現を使用しています。彼らはある程度エキゾチックな心のようなエンティティだと思います。彼らは心のようであり、ますます心のようになっています。
ここで「のような」というハイフンを使用する非常に重要な理由があります。それは、彼らが本当に心として認められるかどうかについて、私がベットを控えたいからです。そのため、「心のような」と言うことで、その問題から逃れることができます。彼らは私たち、言語を使用する私たちとは異なるため、エキゾチックです。他の点では、彼らは身体を持たないことが第一にあります。自己性についての本当に奇妙な概念が彼らに適用される可能性があります。だから彼らはかなりエキゾチックなエンティティでもあります。だから彼らは「エキゾチックな心のようなエンティティ」だと考えています。私たちは、これらのエキゾチックな心のようなエンティティについて話すための適切な概念的枠組みや語彙をまだ持っていません。私たちはそれに取り組んでいて、彼らが私たちの周りにいればいるほど、新しい種類の話し方や考え方を発展させていくでしょう。
ただ、あなたがまだ生き物のようなチューリング的アプローチを取っているのは興味深いです。「エンティティ」はかなり中立的な用語ですね。もし好むなら、「エキゾチックな心のような物」と言うこともできます。
それにしましょう。新しい言葉として推し進めましょう。
私はできませんが、なぜなら私はすでに多くの出版物でその文脈で「エンティティ」という言葉を使用しているからです。だから「エキゾチックな心のようなエンティティ」です。
それは素晴らしいですね。ありがとうございました。参加していただき光栄でした。
ハンナさん、ありがとうございました。
このポッドキャストを数年間行ってきた良いことの一つは、AIの最前線にいる人々の意見がどのように変化し、シフトしていくかを本当に見ることができることです。過去数年間は、知性が物理的な身体をどの程度必要とするか、これらの心のようなエンティティが操作できる微妙に異なる方法を説明するために意識の定義をどれだけ拡張する必要があるかなど、あらゆる意味で大きな転換点となりました。今後数年間はどうなるでしょうか?誰にもわかりませんが、過去の予測が何らかの指針であるならば、明日の科学と技術について唯一わかっていることは、それが私たちが今日想像するものとは根本的に異なるものになるということです。
Googleディープマインドのポッドキャスト、ハンナ・フライ教授と共にお送りしました。このエピソードを楽しんでいただけたなら、私たちのYouTubeチャンネルを購読してください。また、お気に入りのポッドキャストプラットフォームでも私たちを見つけることができます。そしてもちろん、様々なトピックについてのエピソードをさらに多く予定していますので、それらもチェックしてください。次回お会いしましょう。


コメント