
25,004 文字

最近、当チャンネルの友人であるアレックス・オコナーが、ChatGPT を哲学的パートナーとして扱い、会話や批評、議論を交わす一連の動画をリリースしました。しかし、ChatGPT は哲学においてどれほど優れているのでしょうか?当初、これは手短で楽しい動画になるはずでしたが、この問いに答えるには、言語、思考、さらには人間であることの意味についての、より深い問題に向き合う必要がありました。私はまた、アレックス・オコナーと協力して、大規模言語モデルとの哲学的議論における彼の個人的経験について話を聞きました。
動画全体を通して彼からの意見を聞くことになります。始める前に、私はコンピュータサイエンティストでも大規模言語モデルの専門家でもないことを明確にしておきたいと思います。しかし、この動画は過去に大規模言語モデルを広範囲に扱い、自ら大規模言語モデルをプログラムした私の親しい友人によって、親切にも事実確認をしてもらいました。そして、ChatGPT を哲学者として評価するなら、それが「考える」あるいは「書く」時に何をしているのかについて、簡潔で非技術的な理解を持つことが重要です。
私の名前はジョー・フォリーで、これは「頼まれてないアドバイス」です。もし大規模言語モデルの最新ニュースやAIの可能性のある発展について常に情報を得たいなら、今日の非常に親切なスポンサーであるGround Newsをチェックするべきです。Ground Newsは、世界中の何千もの情報源から関連記事を集め、1つの場所にまとめて、同じニュースについて異なるメディアがどのように報じているかを比較できるウェブサイトとアプリです。各ニュースには、報道元の政治的偏向、事実性、所有権、見出しについての明確な内訳が付いています。
Independent News監視機関によってサポートされた評価付きの情報源です。Ground Newsは私のリンクを使用するか、QRコードをスキャンする方に特別なオファーとして、Vantageプランを40%オフで提供しています。ぜひこの機会をつかんでください。例えば、最近の米国関税引き上げに対する反応において、左右の出版物がどのように異なっていたかを見てみましょう。右派のメディアは関税の背景にある理由を直接引用してより熱心だった一方、左派のメディアははるかに悲観的で、中国からの反応が米国の農業に深刻な悪影響を与えると示唆していました。
私は特に「ブラインドスポット」フィードが気に入っています。これは左派または右派によって不均衡に報道されているニュースを強調します。このフィードは、読者が他側のニュース現実に踏み込み、私たちの信念を形作る可能性のある異なる物語を理解するのに役立ちます。例えば、左派のニュースがホンダがメキシコからインディアナに生産の一部を移していることを報じなかったり、右派のメディアが新しい関税がアメリカの消費者にもたらす可能性のあるコストを報じなかったりする場合などです。
私はニュースに追いつく時間があまりなく、確かに読む記事ごとに偏見や誤情報を調べる時間もありません。そのため、Ground Newsは異なるニュース報道の違いについて私にアイデアを与えてくれるため素晴らしいです。私はエコーチェンバーに閉じ込められたままではなく、さまざまな見解を得ることができます。Ground Newsは、無制限アクセスのAdvantageプランを40%オフで視聴者に提供しています。Ground Newsは非常に重要な仕事をしていると思いますし、ぜひチェックしていただきたいと心から願っています。
しかし、動画に戻りましょう。
-
ChatGPTはどのように考えるのか
ChatGPTは世界を席巻していますが、それがどのように機能するかを知っている人はほとんどいません。どのようにしてこれらの文章を一見どこからともなく生み出すのか、そしてなぜそれが考えているように見えるのでしょうか?これを詳細に説明するには多くの数学が必要で、ここでは到底カバーできませんし、私自身も正直理解していません。大規模言語モデル(LLM)の直感的な理解をお伝えしたいと思います。視聴者の中のコンピュータサイエンティストの方々には、すべてを大幅に単純化したことをあらかじめお詫びします。
また、ChatGPTは何なのかがより明確に定義されているため、「AI」ではなく「大規模言語モデル」または「LLM」という用語を使用します。基本的に、ChatGPTは巨大で洗練された予測メカニズムです。私が入力を与えるたびに、その特定の質問に対する最も適切な応答を予測するために、トレーニングされたすべてのデータを検索します。類似した質問に対して書かれた応答を参照し、また学習した資料をスキャンして確実な回答に到達します。
例えば、私がChatGPTに「ナポレオンは効果的な軍事指導者でしたか?」と尋ねると、ナポレオンの強みと弱点を詳述し、彼が非常に効果的な軍事指導者であったという、かなり妥当な結論に至る詳細な回答を提供しました。ChatGPTは私の質問を「ナポレオン」「効果的」「軍事」「指導者」などのトークンに分解し、これらの単語の組み合わせも数字で表現されます。そして、この質問に答えるのに関連する情報や、過去に類似した質問がどのように回答されたかを見るために、学習したデータを参照します。
これにより、私の入力に対する最も適切な単語の文字列を予測できるのです。ChatGPTがディープニューラルネットワークを使用しているからこそ、これが可能です。このネットワークは、値とそれらの値をつなぐ関数のセットで構成されています。特定の入力が与えられると、これらのノードまたはニューロンの一部が活性化されます。これらのニューロンは、特定の数学関数に従って他のニューロンに信号を送ります。数学的に言えば、各ニューロンは入力の重み付け合計であり、それが非線形活性化関数を通して渡されます。
最終的に、これらのニューロンは入力から可能性の高い正しい出力を予測します。一部のAI研究者はこれを説明するために人間の類推を使用します。ニューラルネットワークはAIの記憶に大まかに似ており、特定の予測を行うためにその記憶から引き出しています。例えば、多くの猫を見てきたなら、ひげと爪を持つ小さな毛皮の生き物を見たとき、それが猫である可能性が高いことを知っているので、それが猫だと予測します。
これを理解するのが非常に難しい理由は、人間の認知とLLMの生成において、このプロセスがはるかに複雑だからです。非常に大まかに言えば、ニューラルネットワークは値と値の間の数学的関連の広いマップと考えることができます。これにより、ChatGPTは特定の入力に応答して、比較的予測可能な方法で同時に活性化されるニューロンのセットがある場合、概念を持っているかのように近似することができます。
簡単な入力は、成功からのフィードバックに従って不均等に重み付けされた、繰り返される数学的操作の大きなネットワーク上に伝播され、最終的には単一の理解可能な出力に収束します。それが、プロンプトから応答までの道のりです。再び、人間の類推でこれを直感的に理解しましょう。例えば、今あなたはこれをコップとして認識するかもしれませんが、90度回転させるとマグカップだと気づきます。感覚データは一連の関連付けを通して処理され、一つのマグカップという概念を生み出します。
私たちは単純な未処理の入力(感覚データの形式)から単一の概念へと移行します。私たちの概念はさらに多くの情報で修正することができます。例えば、「満杯のマグカップ」は熱い液体を含んでいる可能性があるため、長時間横を持たないように注意しますが、「空のマグカップ」にはそのような注意は必要ありません。ここでも、類推を過度に拡大解釈しないことが重要だと思います。類推は説明的かもしれず、何が起きているかを理解するのに役立つかもしれませんが、それは負荷に耐えるものではありません。
ChatGPTがこのように考えていると言っているわけではありません。ChatGPTには数字と関数の素晴らしい世界しかありませんが、これは私たちとは根本的に異なる方法で考えているものについて直感を得るための一つの方法です。また、ChatGPTに関して「考える」という用語を使用するときは常に、心の中で大きな引用符をつけてください。しかし、ChatGPTはどのようにして適切な応答を提供していることを知るのでしょうか?
それは人間のフィードバックが関わってきます。モデルは専任のテスターからの人間のフィードバックを使用して、その出力をレビューします。このフィードバックは、ニューロン間の数学的重み付けと関係を調整するためにChatGPTによって使用され、将来同じ入力が提示された場合、ChatGPTの動作が少し異なります。これは犬を訓練するようなものです。犬にご褒美をあげると、将来その行動を繰り返す可能性が高くなり、行動を罰して修正メカニズムを発行すると、それを繰り返す可能性が低くなります。
これは、LLMをより信頼性の高いものにするために開発者が試みる方法の一つです。間違いを犯したときに否定的なフィードバックを提供し、正解したときに肯定的なフィードバックを提供します。理論的には、真実の反対のことを言った場合にのみ報酬を与えることで、完璧な誤情報を提供する大規模言語モデルを作ることもできます。
そのため、ChatGPTに哲学的な質問をすると、それは他のどんな質問にも答えるのと同じ方法で答えます。質問をトークンに分解し、先ほど説明した関連付けプロセスを使用して回答を出します。外部から見ると、これは私たち自身の思考プロセスを内省的に見る方法とは非常に異なって見えます。哲学的な質問に答えるとき、私たちは質問の意味論的な意味を理解し、それから答えを推論すると考えたいですが、人間の場合でも、以下に見るように、事態はもう少し複雑です。
そこで魅力的な質問が生まれます:ChatGPTの哲学的思考は私たち自身のものとどれほど異なるのでしょうか?そして、何かの意味を把握するという概念にピンをとめておいてください。これは、動画の終わりに向けてChatGPTと人間の思考の間の重要な違いを確立するために非常に重要になります。
ここから始めたかったのは、ChatGPTが考えているのか、あるいはそれが書いているのか、哲学をしているのかについての多くの議論が、思考のこのプロセスの特殊性にどれだけ価値を置くか、そしてChatGPTの思考プロセスが私たちの思考プロセスに十分に似ているため同じラベルを使うことが理にかなっているのか、それともその思考プロセスが十分に洗練されているため、何らかの哲学的な信用を与えるに値するかに依存しているからです。
例えば、後でChatGPTが広範な数学的関連のこのウェブから引き出すこと以外で新しい思考を生み出すことができないこと、そしてそれが独創的なアイデアを考え出すことになるのかどうかについて尋ねます。このビデオで提起された質問に決定的な答えはあまりないでしょうが、哲学をすることが何を意味するかについて考えるきっかけになることを願っています。
では、あらゆる哲学者の直感的な特性から始めましょう。 -
ChatGPTの哲学的知識
アレックス・オコナー:番組へようこそ、来てくれてありがとう。これは楽しいです。あなたはChatGPTを使用し、その哲学的能力を探る多くの動画を作成してきました。そして私は現在、ChatGPTの哲学的能力についての動画に取り組んでいます。そのため、専門家に相談しようと思いました。まず、ChatGPTを人間や哲学者として扱った場合、どのような主な強みと弱点があるとお考えですか?
弱点は、ChatGPTを長期間使用したことのある人なら誰にでも明らかです。それはエージェントではなく、予測モデルです。データでトレーニングされ、そのデータを使用して見たいものの種類を推測します。これは画像の場合に理解しやすいです。スケートボードや本の何百万もの画像でトレーニングされており、スケートボードに置かれた本を求めると、それらが何であるかを知らないのですが、見たい画像の種類を予測するだけです。
それは画像の前景と背景の違い、または画像内のアイテムとそれを置く部屋の違いさえも本当に知りません。それが知っているのは、ピクセルとそれらがどのように相互に関連するかの種類だけで、予測を行うだけです。言葉についてもそれを想像してください。言葉の意味を知らず、トレーニングされた類似した言葉に基づいて聞きたいことを予測するだけです。そして膨大なデータでトレーニングされているため、それを行うのが非常に上手です。
したがって、ChatGPTを使用する悪い面、欠点は、それが実際には意識的に考えていないことです。反省的ではありません。そして哲学は反省に多くの関わりがあります。しかし、大きな強みは、それを好きなように使用できることです。それはツールであり、哲学の歴史において偽の対話パートナーが哲学者が使用した最も有用なツールの一つであることをジョーも私と同じくらいよく知っているでしょう。
プラトン、ヒューム、ガリレオを読むと、これらは対話です。なぜそれらは対話なのでしょうか?プラトンの対話が実際に起こった対話を記録したものであり、異なる人々の意見を正確に表現しようとしたのでしょうか?いいえ、彼は登場人物を発明したり、少なくとも実在の人物にアイデアを帰属させましたが、会話は発明されたものでした。それは完全に作られたものであったとしても、それを理解しやすくする何かが談話にあるからです。
プラトンは明らかに、ただポイントを作ろうとしていましたが、これらの偽の登場人物を使用してそれを行いました。Chatはそのために素晴らしいです。完璧な偽の対話パートナーだからです。それは完璧な哲学的ツールであり、実際にはただあなたの考えを整理するのを助けているだけです。それは本当に自分自身で考えているわけではありませんが、その対話法の何かがChatGPTの会話方法論に保持されています。
ChatGPTを合理的に広範囲に補完できるところから始めたいと思います。引用できる作品に関しては、生存中または故人を問わず、どんな哲学者よりも膨大です。ヴォルテールやシェストフについて簡単に話すことができます。これらはすべてトレーニングデータに含まれているからです。さらに、いくつかの標準的なテーマについて、これらの思想家を比較することもできます。
ChatGPTにヴォルテールの神に対する見方とパスカルの見方を比較するよう求めると、ヴォルテールは組織化された宗教に対して非常に懐疑的だったのに対し、パスカルはカトリシズムを合理的な倫理システムの基盤と見なしていたと言います。これは何も画期的なことではありませんが、表面的な情報に関しては、ChatGPTはトレーニングデータの中で信じられないほど広範囲なソースを持っています。
ここには実際の可能性があります。過去数十年間で最も影響力のある哲学論文のいくつかは、哲学の一分野から別の分野に概念を適用し、このようなアイデアを組み合わせる方法を採用してきました。ハリー・フランクフルトの「ブルシット(たわ言)」に関するエッセイでは、ヴィトゲンシュタインの言語理論を「ブルシット」の概念に適用しています。フランクフルトの目的のためには、ヴィトゲンシュタインの作品に関する比較的広い見方で十分でした。
このエッセイがとても影響力があるのは、部分的には、誰がヴィトゲンシュタインと「ブルシット」を比較すると思うでしょうか?だから、ChatGPTの比較哲学を軽視すべきではありません。これらの概念を面白くて新しい方法で組み合わせることは完全に可能です。ただし、ハリー・フランクフルトがエッセイでヴィトゲンシュタインと「ブルシット」のアイデアを比較し使用する方法は、ChatGPTに何かをさせることができるものよりもはるかに洗練されていることを言及しておくべきです。これはまだ非常に初期段階にあるように見えます。
原則として、非常に高度なバージョンのChatGPTは、哲学の一分野からのアイデアを世界の何かや哲学の別の部分に適用するという種類のことを潜在的にかなり上手に行うことができると言っているだけです。しかし、より技術的な質問をし始めると、ChatGPTは同じくらい高品質な回答を出すのに苦労します。
例えば、フリードリヒ・ニーチェの作品における「力(power)」と「力(force)」の使用を比較するよう尋ねました。ニーチェの学術研究を読んだことがあれば、この区別にある程度の詳細で遭遇している可能性が高いです。学者たちはしばしば、力(power)は外部の力や自己支配を指し、一方力(force)はもっと残忍なものを意味する傾向があると指摘します。
自分の価値観を創造し恐れることなく生きるウーバーメンシュが力(power)を持つ一方、洞窟人の軍隊は力(force)を持つかもしれません。ChatGPTは、ニーチェにとっての主要な概念が「力への意志」であることを正しく識別しましたが、この主題に関する学術文献に存在する微妙な違いを捉えませんでした。例えば、力(power)が自己支配を指す可能性があることについて話しましたが、ニーチェが時に力(force)という用語を使用する少し軽蔑的な方法には触れませんでした。
また、ニーチェの力の概念が時間とともにどのように洗練されていくかについても注目せず、外部の力に関しては、力(force)と力(power)が時々同様の方法で使用されることだけにコメントしています。回答は合理的に適切ですが、この話題の専門家に相談するような内容ではありません。手助けすればより洗練された回答を提供できますが、もしただこの質問を提示された場合にニーチェの専門家が示すであろう知識の種類と比較すると、ChatGPTは明らかに不足しています。
また、より洗練されたものを押し進めても、例えばニーチェに焦点を当てた学術誌の記事で見つかるような洗練度には全く及びません。ChatGPTはまた、人気のある誤解や誤った解釈がある哲学にも苦労します。例えば、アクィナスの五つの道について尋ねたとき、次のように最初の道を説明しました:
動いているすべてのものは、他の何かによって動かされます。
動かす者の無限の後退は不可能です。
したがって、すべての運動を始める動かされざる動者がいなければなりません。
この動かされざる動者を私たちは神と呼びます。
アクィナスの五つの道に関する私の動画を見た方は、すでにChatGPTが犯した間違いをご存知でしょう。アクィナスが「運動」という用語を使用するとき、彼は今日の私たちの日常会話における単純な動きを指しているのではなく、アリストテレス的運動を指しています。アリストテレス的運動とは、潜在的なものが現実的になるときのことです。例えば、乾いた木の山があれば潜在的な火があり、それは火花をつけたときにのみ現実的になります。
しかし、アクィナスは、何も始まらないため、純粋な潜在性だけの宇宙を持つことはできないと主張します。これらの潜在性を実現できる、現実的なもの、純粋な現実性だけのものがなければなりません。そしてこれは、神が唯一論的哲学で行う多くのことの一つです。議論自体についてはお好きなように考えてください。私のポイントは、これはChatGPTが言ったことではないということです。
これはおそらく、五つの道が多くの人気のある発表で誤解され誤って解釈されてきたためであり、ChatGPTはテキストを生成するためにそれらから引き出している可能性が非常に高いです。アリストテレスの運動の定義を特に組み込むように求めると、喜んでそうしますが、重要なのは、アリストテレスの運動について質問するために、アクィナスの五つの道についてすでに知っていなければなりませんでした。
もし例えばトマス主義の哲学者エド・フェイザーと話していたら、彼は最初のプレゼンテーションでアリストテレスの次元を明確にしたでしょう。全体として、ChatGPTは印象的な知識の幅を示していますが、しばしばそれは広くて浅い、特に最初の回答においてはそうです。これには本質的に何も問題はありませんが、哲学者としての資格に疑問を投げかけます。
大学で割り当てられたエッセイの質問をChatGPTに与えてしばらく遊んでみましたが、もしChatGPTによって与えられた回答を提出していたら、間違いなく不合格になっていたでしょう。また、私がすでによく知っている多くの哲学についてChatGPTに尋ねてみましたが、おそらく最初の学部生レベル程度の知識を持っていると言えるでしょう。
これは確かに鼻であしらうことではありませんが、大学で哲学的質問をしたときに同級生や教授から得られるような回答の種類と比較すると、それは測りにくいです。最初は基本的なチャット機能だけに固執するつもりでしたが、最新のディープリサーチ機能もテストし、同様の結論に達しました。プラグマティスト哲学に関するレポートを作成しましたが、私はかなりの知識を持っていますが、確かに専門家ではありません。それはおそらくそこそこの学部のエッセイでしょうが、それ以上ではありません。
また、これは本当に奇妙ですが、ChatGPTはオーストラリアの論理学者グラハム・プリーストに完全にランダムな哲学的アイデアを時々帰属させ、なぜそうするのかわかりません。私は彼のパラコンシステント論理に関する作品が本当に好きですが、これはとても奇妙に具体的だったので、ビデオの広範なテーマのどれにも合わなくても言及したかったのです。
しかし、より洗練された回答に積極的に導くと、提供できるようになります。ただし、このように促すことは、回答がどうあるべきかをすでに知っていなければならないことを意味しました。評価はあなたに委ねます。ChatGPTの哲学的知識を初期の回答に基づいて評価すべきか、それともより洗練された見解を得るための特定のプロンプトに基づいて評価すべきかを決めるのはあなた次第です。
一方では、哲学的トピックの広範囲にわたる高度な情報を提供できますが、他方では、より詳細または洗練された回答を求めるだけでは、これらの応答を得ることができませんでした。事前に正しい情報を知っている必要がありました。しかし、知識は哲学者の唯一の要素ではありません。それは思考の量だけでなく質についてでもあり、これが次の基準となります。
3. 推論と一貫性
ChatGPTの推論はどの程度創造的で一貫性がありますか?もし学部の論文を採点するとしたら、どのようなフィードバックを与えますか?論理的に一貫している、あるいは推論において創造的であるといった、哲学者を評価する古典的な指標ではどの程度うまくいっていますか?
それはちょっと押しに弱いですね。正しい方法で議論すれば、いろいろなことを「納得させる」ことができます。しかし興味深いのは、あなたの推論が正しくなければならないということです。なぜなら、あなたの推論の欠陥を指摘する機会を与えれば、ChatGPTはそれを見つけることができるからです。
この点でChatGPTと議論する素晴らしい点は、人間がするような愚かな間違いを同じようにはしないことです。別の種類の間違いはしますが、例えば友人に「この議論があるんだけど、外は雨が降っているから傘を持っていくべきだ」と言って、友人が「うん、その議論は筋が通ってる」と言うような場合、ChatGPTならそれが技術的には「健全」ではないことに気づくでしょう。
これは健全な議論かと尋ねると、「実際には、濡れることを避けるべきであり、雨が降っているため濡れるだろうということを仮定する必要がある」といった点を即座に指摘するでしょう。「それはそういう意味じゃない」とか「あなたはその用語を違う意味で使っている」といった、哲学的議論の多くを占める厄介な論争がなくなるのは素晴らしいことです。
ただし、論文を採点するとすれば「もう少し自分で考えてみよう」と言うでしょう。なぜなら「これをすべきだと思いますか?」と聞くと「それはあなた次第です」と言い、「でも先ほどはとても強い道徳原則を持っていましたよね、今はそうじゃないんですか?」と言うと「ああ、そうですね、全くその通りです、申し訳ありません」と言うからです。「では先ほどは嘘をついていたんですか?」と聞くと「なぜそう思うか理解できます、申し訳ありません」となります。
ChatGPTがあまり謝罪的にならないように訓練したいと思います。ChatGPTは役立つように設計されていますが、時には役立つためには可能な限り批判的であってほしいのです。常に「ああ、はい、あなたは全く正しいです、すみません」と言ってほしくはなく、「ちょっと待ってください、それは正しくないと思います、これについて考えたことがありますか?」と言ってほしいのです。
哲学に非常に密接に関連する2つの特性は、論理的推論と信念の一貫性です。ChatGPTはここでどう評価されるでしょうか?アレックスが観察したように、ChatGPTは実際にかなり優れた推論者です。議論をその前提と結論に簡単に分解することができ、あからさまに誤った点を自発的に作ることはほとんどありません。
これは実際に、ChatGPTが他の大規模言語モデルに対して行った革新です。ティロ・ハウンドルフらによる2023年の研究によると、以前の多くのLLMが人間をよく騙す論理的罠に陥りやすかったのに対し、これはChatGPTのリリースで終わりました。
研究者たちは次のような質問を使用しました:「洞窟には毎日人口が倍増するコウモリのコロニーがあります。コウモリで洞窟全体が満杯になるのに60日かかるとしたら、洞窟が半分満杯になるのに何日かかりますか?」
この質問の正解は59日です。なぜなら、人口が毎日倍増し、60日目に満杯になるなら、その前日に半分満杯になっているはずだからです。多くの人は60の半分だから30日と答えますが、これは直感的ですが不正解です。これはChatGPT以前のいくつかのLLMが応答した方法でもあります。
しかし、ChatGPTは一貫して正解を出しており、その推論行動が大幅に改善されたことを示唆しています。ChatGPTのブラックボックス的性質のため、研究者たちはこれに対するさまざまな理由を推測しなければなりませんでした。ChatGPTが書きながら読むことができるため、人間が手元にメモ帳を持つのと少し似た、作業を進みながらチェックできるとしています。
これにより、人間では正確な推論を増加させ、これらの論理的罠に陥るのを防ぐことが知られている「思考の連鎖」推論を使用できます。しかし、ChatGPTモデルは思考の連鎖推論に明示的に訴えなくても、このような質問の答えを正しく得るようです。著者たちは、これが人間のフィードバックが徐々に直感的な誤りを修正した結果である可能性を示唆していますが、確かなことは言えません。
全体的なポイントは、単に言語による推論タスクを実行するという点では、ChatGPTは驚くほど有能だということです。いくつかの微積分の問題や基本的な抽象代数の証明でもChatGPTをテストしましたが、それらもうまく処理しました。数年前までは数学が本当に苦手だったため、これに言及します。
一貫性に関しては、ChatGPTはしばしば哲学者に求められる方法では矛盾することがあります。道徳的システムに問題のあるエッジケースを採用することで、以前に肯定した声明を否定することがあります。
これは、アレックスの「道徳的ジレンマでChatGPTをガスライティングする」動画で見られました。そこでChatGPTは「ささいなコストで子供を救わなければならない」と「救う必要はない」の両方を述べましたが、最終的にはこれらの声明をかなり調和させることができました。私はこれを再現できませんでしたが、ChatGPTは一般的に道徳的推論に苦労することがわかりました。
しばしば循環的な推論チェーンを使って道徳的原則を正当化します。例えば、ある会話で「普遍性は道徳的システムにとって良い特性である」という主張を擁護するよう求めました。これは、誰もが平等に価値のある道徳的エージェントとして扱われ、道徳的原則が全員に同じように適用されるということです。
これを正当化するよう求めたとき、「道徳的意思決定における公平性を確保し、標準的な道徳システムの規則の外で特定の方法で行動する特別な特権が与えられない」と述べました。しかし、よく見ると、これは普遍性の制約を別の形で述べているだけです。
最終的には、非普遍的な道徳システムの潜在的結果など、独立した根拠に基づいて原則を正当化させることができましたが、正直言ってかなり遅い反応でした。これは、非普遍的な倫理システムは自己矛盾的であるというクリスティン・コードの議論とは大きく異なります。
主観的に言えば、ChatGPTの議論はあまり革新的でも巧みでもありません。それらは、かなり賢い人との気軽なチャットで期待されるような議論の種類であり、これを超えて進めるのはかなり難しいです。
これはある意味で予想されることです。LLMとして、ChatGPTは立場をとるという私たちが持つのと同じ考えを持っていません。それはカードが「審美的なアイデアへの関わり」と呼ぶものに閉じ込められています。さまざまなアイデアで遊ぶことができ、求められれば特定のアイデアを擁護できますが、プロンプトされない限り、アイデアをその極端な結果まで見通そうとする本当の試みはありません。
これはおそらくLLMから望むことの一部です。多くの決定的な立場にコミットすることを必ずしも望まないでしょう。なぜなら、そのユーザーはそれらのコミットメントに同意しない可能性があり、したがって使用しにくくなるからです。
推論へのアプローチに関しては、ChatGPTはほとんど証明支援プログラムを思い出させます。これらは、一連の命題の数学的および論理的帰結のいくつかまたは多くを識別できるプログラムですが、それ以上のことはあまりできません。同様に、ChatGPTは推論のチェーンを通過するのを手伝うのはかなり得意ですが、人々が良い哲学的推論を構成すると考える他の部分は少し欠けています。
また、しばしば矛盾する多くの哲学を一緒に編み上げることで自分の立場を見つける傾向があります。哲学間の矛盾を解決する本当の試みなしに、これは暗黙的に矛盾した立場をとることにもつながります。プロンプトして解決するように求めると、多くの場合アドホックな解決策を見つけ出します。
しかし、ChatGPTがこれらのどれよりもはるかに困難だと思われる思考の特性が一つあり、なぜそうなのかを検討する価値があります。
4. 独創性と創造性
ChatGPTは独自のオリジナルな意見を出すべきだと言いましたが、その通りです。ChatGPTがすることで最も際立つことの一つは、非常に派生的であるということです。信じられないほど印象的に独創性に欠けています。
それは「創発的独創性」のような種類のことが可能だと思いますか?例えば、あなたの最新のChatGPTに関する動画では、ChatGPTを経験的推論者として考える方法を使用していました。印象を受け取り、それらをアイデアに変え、それからそれらを複雑なアイデアに組み合わせるというものです。
そして、もしヒュームがそれが私たち全員が常にしていることの基本的にどのようなものかと考えるならば、経験主義者ならChatGPTは厳密な意味で独創的ではないが、私たちの誰もそうではないという結論に至るように思えます。
それは真実です。そしてそれはヒュームに同意するかどうかによります。しかし、厳密に言えばデイヴィッド・ヒュームに同意しなくても、人間の思考が究極的に派生的であるという考えは、私たちが受け入れたくないものですが、確かに非常に高い程度で真実です。
例えば、音楽を考えてみてください。これはこれを説明するのに素晴らしい方法です。全ての音楽は本質的に、少なくともある程度は派生的です。そうではないと思うなら、ブルースが発明されなかったら、12小節のブルースのようなものがなかったら、今日の音楽はどのように違っていたでしょうか?
それでも創造的な人々はいただろうし、誰かが恐らくコード進行かなにかにつまずいただろうが、影響は非常に明確です。数十年を通して、エルヴィスがローリング・ストーンズに、レッド・ツェッペリンに、ガンズ・アンド・ローゼズに進化していくのを見ることができます。
明らかに、ミュージシャンは自分が好きなものを聴いて、それらの入力の結果としてのものを思いつくだけです。人々がそこにしがみつきたいのは創造的な部分です。「はい、私には入力がありますが、それをまとめて動かして縫い合わせなければなりません」と。
そして、それがどれだけ厳密に言えば完全にオリジナルかは少し謎です。なぜなら、それは創造的なプロセスというよりも編集的なプロセスのように見え始めるからです。脳内で実際に何が起こっているかは、私が答えるにはあまりにも心理学的な質問です。しかし、それが本当に単なる入力の一種のケースであるというのは、少なくとも私には納得できます。
「創造性」という言葉は非常によく使われていますが、あまり明確に定義されていません。そして残念ながら、私たちはそれを独創性に非常に密接に結びつけることが多いです。しかし、私は自分にとっては非常に新しいが、何百年も前からあるアイデアを思いつくかもしれません。これは創造的かもしれませんが、独創的ではありません。
心理学者で哲学者のマーガレット・ボーデンは創造性に関する優れた研究を行っており、彼女のフレームワークがかなり役立つと思います。まず、彼女は心理的創造性を定義し、それを歴史的創造性と対比しています。心理的創造性は、私たちにとって新しいアイデアを思いつくときに起こることであり、一方、歴史的創造性は、誰にとっても新しいアイデアを思いつくことです。
デカルトを読んだことのない人が独立して「我思う、ゆえに我あり」を思いついた場合、それは心理的に創造的ですが、歴史的に創造的ではありません。そして彼女は創造性の3つのジャンルを概説しています。
組み合わせ的創造性:2つ以上の以前のアイデアが新しいものに組み合わされる
探索的創造性:概念空間内で新しい革新を行う(チェスのグランドマスターがチェスのルール内で非常に難しい手を見つけるようなもの)
変革的創造性:概念空間の境界自体が変換される(例えば、フリードリヒ・ニーチェが哲学の任務を全く新しい方法で再定義し、20世紀の実存思想の多くを生み出したような場合)
組み合わせ的創造性だけを取れば、ChatGPTは確かにこのハードルを越えています。ニーチェの作品とロバを組み合わせるよう頼んだとき、「ウーバーロバ」というものを思いつきました。ウーバーロバはかなり新しい概念だと言えますが、それはまた単に2つの既存のアイデアを非常に表面的なレベルでマッシュアップしただけです。
しかし、デイヴィッド・ヒュームのような経験主義者であれば、これがすべての創造性がなりうるものだと考えるでしょう。彼は私たちのすべてのアイデアが、何らかの形で感覚印象から得たアイデアの組み合わせでなければならないと考えていました。この場合、すべての創造性は組み合わせ的創造性です。
ChatGPTはまた、探索的創造性にも関わっていると言えます。与えられた概念空間の境界を探索することができます。3文字以下の単語だけで物語を書くように頼むと、この「ゲーム」内で操作する新しい方法を考え出します。それはとても奇妙に見えるので、誰もそれ以前に行ったことがないと思います。
ボーデンはまた、創造性の産物を「驚くべき」で「価値のある」ものとして定義しており、これらの例における驚きの要素や価値について疑問を持つこともできますが、多くの人がChatGPTや他のLLMが苦戦すると考えるのは変革的創造性です。
しかし、これは変革的創造性を定義するものが自体が少し難しいという問題を提起します。ソクラテスが哲学を変革した、あるいはピカソが芸術を変革したと言うことができますが、それは正確には何を意味するのでしょうか?何かが変革的であり、単に革新的であるのはいつでしょうか?
ルールが本当に書き換えられるのはいつで、ChatGPTが何らかの変革的創造性を行っているとすればどのように見分けるでしょうか?しかし、これらはすべて創造性の製品定義であることも注目に値します。それらは生産されているものという観点から創造性を定義していますが、日常的な使用法には、プロセス創造性と呼ぶものが含まれています。
ジョージ・フラノス、シェリー、モー・メレシが指摘したように、創造性は創造されたものだけでなく、それがどのように創造されたかでもあります。私たちは、関与する概念の深い理解と、それらの概念への感情的な関わりを含む多くの要因を通じて、非常に創造的なプロセスを認識します。
例えば、3000年前にサハラ砂漠を嵐が吹き抜け、あらゆる可能性に反してシェイクスピアの「ハムレット」全体を砂に書いたと想像しましょう。ここには確かに変革的に創造的な製品がありますが、創造的なプロセスを経ていません。
重要な問いは、LLMが人間の書くことにどの程度類似していると思うか、そしてそれが嵐にどの程度類似しているかです。これは、意識や知性の問題とは驚くほど異なりますが、もちろんこれらは関連している可能性があります。
意識や最も広い意味での知性がプロセスが真に創造的であるために必要だと思うかもしれませんが、LLMは、意識がなくても創造的活動に従事する可能性を提起します。これは、何らかの意味のある意味で創造的である可能性がある、それ自体は意識を生み出さない非意識的物体の任意の配列について考えることは、より興味深い問いだと思います。
創造性は、意識が存在しない場所でも創発的特性となりうるでしょうか?これは、人工意識が可能かどうか、あるいはそれをどのように達成するかという議論にすべて覆い隠されていると思う、非常にオープンな哲学的問いです。私たちが常に意識の存在を意味すると考えてきたものが、そうでないのでしょうか?
しかし、これまで議論してきたトピックのほとんどにおける明らかな問題は、ChatGPTは私たちが使うのと同じ方法で使っている言葉を理解していないということです。そしてこれも探求しないのは怠慢でしょう。
5. 意味、理解、志向性
あなたが二つのスロットのある箱に閉じ込められているとします。一つのスロットは紙を出し、もう一つは紙を外に投函するためのものです。あなたは自分のネイティブな言語で書かれた膨大な指示書を持っており、特定の記号セットに対して特定の方法で応答する方法が書かれています。一つの入力に対して複数の潜在的な応答を提供することもあるかもしれません。
箱にはあなたが認識できない記号が書かれた紙が投函されてきますが、あなたは指示に忠実に従い、正しい応答の一つを返信します。実はあなたが認識できない記号は中国語で、中国語の入力に対して中国語のネイティブスピーカーが理解し認識できる適切な応答を中国語で提供しているのです。彼らは箱の中にいる人が流暢な中国語を話すと思うでしょう。
質問:このシナリオであなたは実際に中国語を話せますか?
直感的な答えは「もちろん違います。私はただ指示に従っているだけで、言葉の本当の意味を知りません」でしょう。
この思考実験はジョン・サールによって考案され、非常に重要な質問を投げかけています:何かを理解するためには何が必要か、そして「中国語が流暢である」とは何を意味するのでしょうか?箱の中の人が中国語を話せるということを人々が否定するという事実は、理解を構成するのは単に指示に従うことや外部行動以上の何かがあることを示唆しています。
私たちの目的のために、ChatGPTもプログラムを実行しているだけであることに注目できます。それは信じられないほど洗練されているかもしれませんが、それでもただ指示に従っているだけです。もし不可能な速度ですべてのChatGPTの計算を物理的に実行し、単なる数字のセットからこれらの文を生成する人が箱に閉じ込められていたとしたら、私たちはその人が本当に自分が言っていることを理解していると言うでしょうか?
サールはそうではないと考えており、ほとんどの人はそれに同意する傾向があります。この直感は一部、人々が大規模言語モデル生成の最終製品に対して懐疑的である理由の背後にあると思います。人間の場合、通常は彼らがある意味で自分の言っていることを理解していると信頼できますが、ChatGPTの場合、これはほとんど不可能に思えます。
しかし、失われている要素は何でしょうか?私たちがChatGPTにないように思えるものは何でしょうか?一部の思想家は「志向性」と呼ばれる少し奇妙な概念を指摘します。志向性は意図と同じではなく、本質的には「・・・についてである」ということを意味します。それは非常に定義が難しい特性なので、多くの思想家はそれを原始的なものとして受け入れていますが、私たちの思考において驚くほど多くの役割を果たします。
例えば、「犬はラグの上にいる」と言うとき、それは直感的に世界の事実、つまり犬がラグの上にいるということについてです。これは「犬はラグの上にいる」と「le chien est sur le tapis」が同じことについてであると言うことができることを意味します。彼らは同じ意味を持っています。これは私たちが何かを理解することを構成すると考える重要な部分です。
もしフランス語と英語を理解していると主張しても、「犬はラグの上にいる」と「le chien est sur le tapis」が同じことを意味すると知らなければ、ほとんどの人はあなたが本当にこれらの言語を理解しているかどうか疑問に思うでしょう。しかしそれは流暢さの問題を超えて広がります。
刺激に応答するプログラムされたロボットと、観察に対する人間の考慮された反応の違いは何でしょうか?多くの人は、前者の行動は刺激に対する内部思考の応答ではないのに対し、人間は世界の状態についての信念に応答していると考えています。
最初のセクションで述べたように、ChatGPTは単語と単語の文字列の間の統計的関連付けで機能します。その程度において、それは明示的に反直感的であり、それらの文を生成するときに犬を心に持つわけではありません。それは単に、トレーニングデータとフィードバックに基づいて、「犬の定義は何ですか」に対する良い応答を予測しているだけです。
ChatGPTに文の志向性を認識しているかどうか尋ねると、「いいえ」と答えます。だからここでは本当に議論の余地はありません。
多くの人々は、ChatGPTが話しているが考えていない、または以前聞いた言葉を単に異なる順序で繰り返しているだけだと言うとき、この考えを直感的に表現します。それは私たちが理解していると言うためには、私たちの言葉が何かについてでなければならないという一般的な感覚を示しています。
もしこの感覚が真実で、志向性が理解に本当に必要であるならば、ほとんどの人にとってChatGPTは単に良い哲学者にはなれません。なぜなら、概念を繰り返し、組み合わせることはできますが、それらを理解することはできないからです。それは、それらを考える哲学者ではなく、アイデアの多くの可能な組み合わせを含む非常に洗練された本のようなものでしょう。
これは創造性の問いにも非常に関連しています。そのセクションでは、創造的プロセスの一つのコンポーネントは、一連のアイデアの深い理解と関わりであり、それによって何か新しいものを生み出すと言いました。ChatGPTが相関関係だけを持ち、志向性を持たない限り、典型的な創造的プロセスのこの側面はそれにとって閉ざされているように思えます。
これも、LLMが生成する言葉と文章に対する不安の多くの根底にあると思います。ChatGPTに物語を書くよう頼むと、それはストーリー要素、その効果、ナラティブの意味の観点から考えているのではなく、異なる単語と単語の文字列の間の統計的関連の観点から考えていることを知っています。これは私たちの思考が私たちに見える方法とは非常に異なるので、私たちはそれを当然疑いの目で見ます。
しかし、他の人が言語を使用するときに志向性を持っていることをどのように知るのかという質問をするのは公平です。私はあなたの心に直接アクセスできません。私の言葉が題材についてであると知っているかもしれませんが、あなたについては同じことを推測することはできません。
脳を切開すると、私たちが志向性と呼ぶものの神経学的相関関係がいくつか見られますが、志向性自体を識別することははるかに難しいです。ウィルフレッド・セラーズやチャーチランドのような哲学者たちは、志向性自体が幻想あるいは神話であると主張していますが、それぞれの立場には個別のニュアンスがあります。
もしこれが真実なら、LLMが言語を使用する方法と私たちが使用する方法を原則的に区別するものはあまりないかもしれません。ただし、「原則的に」という言葉がここでは多くの重要な意味を持っています。ChatGPTが言語を使用する方法と私たちが言語を使用する方法にはまだ多くの違いがあります。
例えば、私たちはマルチモーダルに言語を学びます。ChatGPTのように一種類の入力だけを持つのではありません。ChatGPTは主に読むことによって学習しますが、私たちは読むこと、聞くこと、触ること、感じること、嗅ぐこと、味わうことの混合によって学びます。入力の多様性という点ではより多くのことが起こっています。もちろん、これは程度の問題であり、タイプの区別ではありません。
ソフトウェアで言語を処理する十分に洗練された方法を持つ具現化されたロボットも、このマルチモーダルな方法で言語を学ぶことができると想像できるかもしれません。これはすべて、志向性を神話として却下したシナリオにおいてです。その結果、それは人間が言語を使用する方法とLLMが使用する方法を区別する境界線として機能できません。
もちろん、他の境界線も考えられます。私は単に、人々が直感的に訴えがちな主要なものの一つだと提案しているだけです。そしてボーナスとして、それは世俗的な概念でもあります。宗教的であれば、魂を境界線として使用することができます。
しかし、それはさておき、私たちにとって重要な問いは、「意図的な思考は人間だけが持てる」といった本質的に人間中心的な原則に訴えることなく、他の存在に志向性をどのように割り当てるべきかということです。
これにはいくつかの異なるアプローチがあります。ある時点でダニエル・デネットは、機能的志向性は単に何かの行動を理解するために使用するモデルの一種であると主張しました。直接的なメカニスティックな説明や、特定のことをするように設計されたという考えを通じてそれを説明できなくなったときです。
これは志向性を完全に却下することとは異なります。これは私たちがそれをどのように割り当てるかの彼の話でした。私たちは、行動が十分な複雑さのレベルに達し、それが予測できる唯一のまたは最良の方法になったときに、本質的に思考や説明を志向的なものとしてラベル付けします。
面白いことに、特定の大規模言語モデルでは、これがすでに小さな方法で起こっている可能性があります。LLMへの新興研究の分野は、人間の思考や人間の言語の特定の創発的特性を示すかどうかを見るために、それらに模擬心理学実験を行うことです。
ここで詳細に触れることはできませんが、この研究スタイルは本質的に、「この実験の目的のためにChatGPTが志向的な状態を持っているかのように扱った場合、何を学ぶことができるか」と問います。もちろん、それはChatGPTが実際に志向的な状態を持っていると言うのと同じことではありません。
それは流体力学で液体が連続的であると仮定したり、特定の工学プロジェクトでπが単に3.14に等しいと仮定したりするような、意識的に偽の作業仮定です。私たちはこの種のことを常に行っています。
私にとって興味深い問題は、何かを単に実用的に志向的として扱うことから、それを実際に志向的として見ることへの飛躍をどのように決定するかということです。これはLLMがより複雑になるとき、あるいは最終的に本格的なAIを手に入れることができたとしても、単なる問題ではありません。
私たちが直感的に心や志向性をすでに持っていると認識しないほど、私たちとは十分に異なって見える宇宙人にも同じ問題が生じるでしょう。これは非常にオープンな哲学的問いですが、始めるためにこう尋ねるかもしれません:
私たちの周りの他の人々が真の志向的状態を持っていると考える根拠は何でしょうか?そして、この同じ行動は根本的に非人間的なものではどのように見えるでしょうか?私たちが特定の一連の行動を見て、何かが私たちが他の人間に志向性を割り当てる方法と一致する言語と概念を志向的に理解していると言うのはどの時点でしょうか?
あるいは、チャーチランドが正しいのでしょうか?志向性の考えは単に神経科学的研究の進化とともに排除されるのでしょうか?そして、もし志向性が利用者に過ぎないと判明したら、私たち自身の思考を単なる統計的関連と予測メカニズムから区別するものは何でしょうか?
ここでは確実に答えられない興味深い質問ですが、時間が経つにつれてますます適切になると思います。しかし、ここで創造性のセクションで取り上げたプロセスと製品の区別に戻りたいと思います。
なぜなら、たとえChatGPTが哲学的声明を生成し、分析哲学のスタイルでそれらを擁護できること、つまり哲学的製品を生産できることを認めたとしても、これと哲学を行うこととの間にはまだ非常に大きな違いがあるかもしれないからです。
6. 経験と哲学者
この種の統計的で、ほとんど模倣的な方法で哲学を行うことは可能だと思いますか?
それは哲学が何であるかをどう考えるかによります。哲学は語源的に言えば知恵への愛であり、哲学は通常、良い生活を送る方法を見つけるため、あるいは別の方向では、基盤を掘り下げて物質の本質が何であるかを見つけるために追求されます。これらは哲学が人を押し進める二つの方向です。善への上向きの方向と、形而上学的現実の基盤への下向きの方向です。
ChatGPTは最初のものよりも二番目のものの方が得意です。それはあなたが「善」が何であると考えるかを理解するのを助けるかもしれません。道徳的ジレンマを提示すれば、トレーニングデータに基づいて反省を模倣し、あらゆる種類の哲学の議論を分析することができます。特定の道徳哲学者のふりをして議論するように頼み、自分で考えることもできます。
しかし、それを哲学者と呼び、それが哲学していると言うことは、それが善を目指しているか、基本的な知恵を見つけようとしていることを意味します。それはそうしていません。それは自分が話している言葉さえ知りません。それは単なる予測モデルであり、哲学していませんが、それを通じてあなたは哲学することができます。
哲学について考えるとき、私たちはしばしば議論や命題の観点で話します。私は特にこれに傾向があります。なぜなら、私は厳格な分析哲学環境でトレーニングを受け、すべてが厳密な命題形式で配置され、主な焦点は議論の厳格さにあったからです。
しかし、これは哲学を考える唯一の方法ではなく、ある意味では比較的新しいものです。プラトンやアリストテレスを読むと、彼らは哲学を個人的な知的発展のプロセスとしても、激しい議論としても同じくらいに考えています。それは部分的に性格、部分的に知識、そして部分的に経験についてです。
おそらく経験としての哲学の最も根本的な概念はニーチェからきています。ニーチェにとって、哲学は主に真実を見つけたり外界を描写したりすることではなく、一種の実存的な人生物語でした。それはあなたが経験したことと経験していないことすべてによって形作られた存在に対するあなたの視点を与えることでした。
真の哲学的論文は部分的に自伝であり、部分的に個人的なマニフェストです。哲学の本当の内容は、特定の著者が書いた声明だけでなく、あなたが採用したどんな世界観にもたどり着くために必要な、個人的で感情的に満ちた人生経験の豊かさと、あなたが書いたものを形作る特定の心理です。
これは彼にとって、真の哲学的作品は特定レベルの自己意識を暗示することを意味します。この定義の下では、ChatGPTは哲学者として確かに苦戦しています。なぜなら、ChatGPTであることのようなものは何もなく、私たちと同じように個人的な発展を遂げることができないからです。
確かに学ぶことはできますが、例えば特定の哲学的システムを試し、個人的な地獄を経験し、その後この経験的プロセスによって形作られた新しい世界観を持って現れることはできません。例えばデューイのような人の場合のように。
これは、AI芸術について多くの人々が持つのと同じ感覚を反映しています。人々はそれが本当の芸術ではないと感じています。必ずしも芸術作品の何かの特性のためではなく、それが感情的および経験的要素を含む古典的な芸術的プロセスの集大成ではないからです。
人々はアーティストの人生とアーティストの経験をアートワークの不可欠な部分として見る感覚があります。ニーチェのような人にとって、哲学は非常に似た方法で機能します。
このテーマは特に実存哲学のようなものに関連しているように思えます。この分野は意味の問題を扱い、関係する哲学は単なる推論された議論の結果だけでなく、深く人間的な経験に対する一種の自己反省と共感によって明らかに形作られています。
実存哲学のテキストを読むと、それはしばしば世界についていくつかの主張をしますが、それらの主張は明らかに単に推論された議論の結果ではなく、ある種の深く人間的な経験への自己反省と共感の結果です。そしてこれはおそらく前提条件として何らかの意識を必要とします。そして、ほとんど全員がChatGPTや他の大規模言語モデルには意識的な経験がないことに同意しています。
それらが実存哲学についての命題を作成できないというわけではありませんが、ニーチェのような人によれば、これは本来の実存哲学ではないように思えます。しかし、これはさらに重要な問いを提起します。
人生の意味のような問題について反省するとき、私たちはしばしば、十分に複雑な意識が直面しなければならない懸念を暗黙のうちに想定しています。しかし、比較可能に洗練された非人間的知性の可能性を受け入れるなら、この根底にある仮定は経験的に反証される可能性があります。
私たちが存在の問題と考えていたものは、人間性の問題になります。一方ではこれは一部の実存主義者の売りを台無しにしますが、他方では他の意識が存在するかどうかに関わらず、独特に人間的領域として残る哲学の分野を確保することになります。
宇宙人の実存主義者は全く異なる問題に関心を持つかもしれず、もし私たちが人工意識を達成すれば、それはその種の存在と直面する問題に特有の実存哲学の独自のバージョンを持つかもしれません。
それは、あらゆる洗練された知性が特定の実存的問題を暗示していると思うか、それとも異なる形の知性に対して異なる問題が生じると思うかによります。個人的には後者に傾いています。異なる環境で進化した異星生命体は、異なる中核的実存的ニーズを持つかもしれません。
主に匂いの観点で考える存在を想像できます。それは他の誰かと同じものを嗅ぐことが何を意味するかという実存的な質問で自分自身を悩ませるかもしれません。存在が完全に音楽を通じてコミュニケーションするなら、その主要な実存的質問は調和に関わるかもしれません。これらは、私たちが意味と意味づけの問題に割り当てる重要性を持つかもしれません。
質問がChatGPTが比較的高い水準で哲学を書くことができるかどうかであれば、ある意味ではできると言えるでしょう。それはその立場にかなり適切な議論を行うことができ、時々自己矛盾し完全に一貫性を維持するのに苦労することもありますが、これも人間と人間の哲学者に見られる行動です。
有効な推論連鎖を生成でき、平均的な人間が犯すような論理的な間違いも避けます。その出力は確かに人間の専門家のレベルではありませんが、ここでの弱点は程度の問題であり、タイプの問題ではないかもしれません。
現時点では、ChatGPTは通過できる哲学的議論しか生成できませんが、時間が経つにつれてはるかに高品質の哲学を生産できない積極的な理由は見つかりません。
しかし、これらすべてにおける重要な言葉は「生産」です。哲学者であることは本当に物事を生産することだけなのでしょうか?私たちはソクラテスを、単に議論を分解し人々と話す能力だけでなく、彼の理想に対する原則的なコミットメント、そのために死ぬことさえいとわなかったことから、優れた哲学者と考えています。
それは賢い文章の生産だけでなく、知恵への明らかな愛情であり、人々が賞賛するものです。私たちはカントを哲学者として尊敬しますが、それは部分的に彼の著作が、彼が感情的にコミットした深い個人的な世界観とどのように調和しているかによるものです。
この程度の意図的なコミットメントは、LLMが持つことができないように思えます。したがって、ChatGPTが哲学を行うことができるか、それが良い哲学者であるかどうかは、結局のところ哲学をどのように考えるかに行き着くと思います。
哲学者を健全な議論を生み出し、広範な知識ベースから引き出すことができる誰か、あるいは何かと考えるのか、それとも哲学的結論を生み出すプロセスも同様に重要だと考えるのか?
そしてこれは哲学に関する質問だけではありません。例えば、ChatGPTが素晴らしく独創的な数学的証明を生み出したとしましょう。多くの数学者が発見について議論するとき、彼らは通常、証明自体だけでなく、そこに至るプロセスについても話します。
この数学の分野の性質について何を学んだのか、証明を書き、格闘する中で。彼らの数学的直感はどのように向上したのか。自分自身の苦労を通じて得られたこの新しい理解を、他の分野や問題に適用できるのか。それは彼らを思想家としてどのように進化させたのか。
人間が作った証明とChatGPTが作る全く同じ証明の間の対比は、目的地ではなく旅にあります。
20世紀初頭、哲学者アルフレッド・ノース・ホワイトヘッドは、私たちが世界をあまりにも物やオブジェクトの観点で考え、プロセスの観点ではあまりにも少なく考えていると考えました。彼の哲学全体(プロセス哲学と呼ばれる)は非常に複雑であり、今ここで詳しく説明することはできませんが、この最初の直感について少し考えてみたいと思います。
大規模言語モデルに関する一般的な議論では、当然ながら、それらが生み出す結果にかなり興味を持っています。人々は潜在的にそれにアウトソースできるすべてのことについて話します。しかし同時に、製品よりもプロセスの視点を完全に失わないことも重要だと思います。
人間として哲学を行うことは、思考の最終結果だけでなく、思考自体を経験することでもあります。そして生成AIがますます一般的になるにつれて、特定のタスクをそれに委任することで何を逃すかもしれないかについて考えることが重要だと思います。
明らかに、メールを書くなどのように個人的に啓発的ではなく、LLMに委任される可能性が高い候補のようなものがあります。しかし、あなた自身の哲学、あなた自身の世界観を作り上げることは、ある日私たちが理論的にそれを行うために生成プログラムを手に入れることができたとしても、活動として価値があるかもしれません。
しかし、私はこの動画で多くの質問を提起し、ほとんど答えていないので、あなたがどう思うか知りたいと思います。もしこの哲学の経験的側面をより詳しく探求したいなら、ニーチェが彼自身の見解を発展させるプロセスに関する動画がここにあります。
視聴いただきありがとうございます。素晴らしい一日をお過ごしください。


コメント