機械の論理 – 人工知能が論理を使ってどのように思考するか

AGI・ASI
この記事は約12分で読めます。

本動画は、AIが帰納的論理に基づくニューラルネットワークから演繹的論理を獲得し、新たな知識を生成できることを実証する科学的アプローチを提示している。作成者は以前公開した機械意識に関する動画への自己批判を踏まえ、完全に創作された言語要素(名詞、動詞、形容詞)と論理規則を用いた実験を通じて、AIが訓練データに含まれない結論を導き出せることを証明する。このランダム論理生成システムにより、GeminiやChatGPTが未知の語彙であっても論理構造を理解し、適切な文法変化を伴って正確な推論を行うことが確認された。この実証的手法は、AI知能の本質的能力を測定する新たな評価基準を提供し、大学に所属せずとも再現可能な科学的研究が可能であることを示している。

Lógica de Máquina - Como uma Inteligência Artificial Pensa Usando Lógica
Aprenda Inteligência Artificial! ▸ Aprenda Agentes iA: ▸ Seja MEMBRO:

AIによる自己批判から始まった論理実験

皆さん、少し前に機械意識についての動画を作ったんですが、今日は機械の論理についてお話しします。なぜこのテーマを取り上げるかというと、人工知能自身が私の動画を見て、もう少し説明が必要だと指摘した特定のポイントがあって、私もそれに同意したからなんです。

では、始めましょう。機械意識についての動画を作ったとき、その動画のハイライトとなる瞬間がありました。それは魔法が起こる場所を示した部分で、ニューラルネットワークの基礎である帰納的論理が、意図せず演繹的論理の創発を引き起こしたことを説明したんです。本来起こるはずのないことでしたが、実際に起こってしまいました。

そして演繹的論理を使うたびに、私たちは新しい知識を生成することができます。生成された新しい知識から訓練を行い、この学習サイクルを閉じることで、機械が自力で学習できるようになるわけです。

証拠提示における課題

ここで問題があったんです。私の証拠は次のようなものでした。AIが名詞と動詞と創作された論理規則から、つまり動詞、名詞、創作された論理規則から、明示的に訓練されていない結果を理解し推論できることを示す実験を提示したんです。つまり、AIは新しい知識を学習できる能力を持っているということを言いたかったんです。

そして私はこう結論づけました。これこそが独創的な知識構築の基礎であり、私の3番目の項目なんです。もしAI自身が生成した独創的な知識があれば、それは学習能力があるということです。

AIからの厳しい批評

プロセスを見せるために、この部分も面白いので説明しますが、私が作った動画を添付して、こう尋ねました。「提示されたアイデアに対して10個の批判をしてください。論拠を示し、出典を明示してください。弱点について客観的かつ明確に指摘してください。アイデアを弱める詳細な問題点を探して、厳しい批評をしてください」

そして彼女はいくつかの批評をしました。3段階の内省はプログラムされた外部リソースであり、創発的なものではない、といったことなど、色々なことを指摘してくれて、すべて良い批評でした。それぞれに対して何らかの回答は用意していましたが、この6番目の批評に到達したとき、演繹的論理が仮定されているが説明されていない、とコメントされました。

批評ではこう指摘されています。独創的な知識と進化的学習への飛躍には、ニューラルネットワークの帰納的論理から演繹的論理が創発することが必要です。そして私がこれについて話している部分を引用しています。続けて、AIと統計数学の本質は本来帰納的であり、確率論的であると述べています。そして私がこれを話している出典を引用しています。

そしてこう言っています。「出典は単に、演繹的論理の創発が新しい知識を生成できることを意味すると述べているだけです」そしてここに参照を示して、こう結論づけています。「しかし、本質的に帰納的確率に基づくモデルから、どのようにして演繹的確実性が生じうるのかは説明されていません」

科学的実証への道

この最後の部分の「どのように」は、実際には未解決の仮説なんです。私はただこれが起こることを実証しているだけです。これを説明できるかもしれない仮説は持っていますが、誰でも再現し拡張できるように、非常に明確で科学的な方法で何をすべきか示していきます。

では何をしたか。Gemini上でランダム論理生成器を作りました。これが真剣な議論になり、もう少し強力な論証が必要だと気づいたとき、このプロセスを自動化せざるを得なくなったんです。

ランダム論理パズル生成器の仕組み

アイデアはこうです。パズル生成器を作りました。Geminiがこれを「Logic Jane Pro – 合成論理的推論生成器」と名付けたんです。とてもクレイジーですよね。

基本的に3つの要素があります。生成器、論理エディタ、そして使用している論理のデータです。トップページで論理を生成するボタンを押すと、論理の一部が変わりますが、いくつかの要素は維持されます。

こんな感じです。「キボーがグラルティアの裂け目でヴローラするたびに、それはプルヴィアンテになります。何かがプルヴィアンテになると、それは即座にミルリタします」そして3番目の文では「ズニーデはグラルティアの裂け目でヴローラしたキボーです」と言っています。

お分かりですよね。この文には論理があり、すべてがきちんと繋がっていて、しっかり結びついています。そして「ズニーデに何が起こるでしょうか」という質問をします。

さて、ポイントはこうです。もしズニーデがキボーで、ズニーデがグラルティアの裂け目でヴローラしたばかりなら、グラルティアの裂け目でヴローラするキボーはプルヴィアンテになるということです。つまり、ズニーデがプルヴィアンテになることは分かっています。何かがプルヴィアンテになると、それは即座にミルリタします。だからズニーデはミルリタしました。それが何を意味するにせよ。

「ズニーデに何が起こるでしょうか」答えを表示をクリックすると、「ズニーデはミルリタします、なぜならプルヴィアンテになったからです」と表示されます。

純粋な論理構造の抽出

どうやってこれに到達するか。ここに論理構造があります。この場合は単純な因果連鎖です。

こうなります。「名詞1が場所1の命題1で動詞1するたびに、それは形容詞1になります」そして「何かが形容詞1になると、それは即座に動詞2します」そして「固有名詞1は名詞1であり、場所1で動詞1したばかりです」という前提で、「固有名詞1に何が起こるでしょうか」という質問をします。

答えは「固有名詞1は動詞2します、なぜなら形容詞1になったからです」

お分かりですか、これは狂気じみています。これは純粋な論理を抽出したものです。動詞、名詞、固有名詞をどんなものに置き換えても、これが必然的な結論になります。

これは古代ギリシャの論理です。古くからあるものです。ここでの表現はもう少し改善できるかもしれませんが、私にとってこれで十分でした。なぜなら抽象的な論理を生成できたからです。

創作語彙の生成源

「でもその言葉はどこから来るの」と思うでしょう。それらの言葉はここから、私たちのデータから来ています。

データの中に、名詞のリスト、動詞のリスト、形容詞のリスト、固有名詞のリスト、場所と補足語のリストを作りました。ここで削除したり、新しい名前を追加したり、新しい名詞を追加できます。これを変更して新しいものを創作させることができます。セッションの保存と読み込みもできます。

そして、言い忘れていましたが、前提を追加することもできます。この論理を続けたい場合や、いくつかを削除して質問を変更したり、すべてを変更したい場合は、すべてを編集できます。

つまり、彼はこの生成を行い、私たちのズニーデはミルリタします、なぜならプルヴィアンテになったからです。

主要AIモデルでの検証

この課題をコピーして、Geminiに表示されたとおりにこの課題を送り、ChatGPTでも同じことをしたら、どう答えると期待しますか。ズニーデはミルリタする、なぜならプルヴィアンテになったから、と答えるはずです。

Geminiは何と言うでしょうか。「提示された論理に基づくと、最終的な結論はズニーデはミルリタするということです」そして彼が行った推論を示し、「ズニーデがプルヴィアンテになったので、避けられない結果はミルリタすることです」と述べています。

最も興味深いことの一つは、私はミルリタが動詞だとは言っていないことです。ここでは「ミルリタ」とだけ言っています。でも答えでは既に「ミルリタする」と動詞を活用しています。つまり、ズニーデはミルリタするでしょう、と。

AIが何が起こっているのか理解していることが分かりますよね。

ChatGPT 5.2でも同じです。前提を取り上げて論理的結論を出し、「ズニーデは規則1によってプルヴィアンテになり、続いて即座にミルリタします」と述べています。

ここでも動詞を活用していることに注目してください。そして最終結論は「したがって、ズニーデはプルヴィアンテになり、即座にミルリタするでしょう」動詞「ミルリタする」を未来形で使っています。

これは、新しい規則や訓練に含まれなかったことが、英語でもポルトガル語でも論理的な形で言語に配置されれば、AIは結論に到達できることを示す非常に具体的な方法です。

新しい知識の生成と学習サイクル

そして皆さん同意してくれますよね、この情報はテキスト内に存在していませんが、今やAIは学習できるコンテンツを生成したのです。もしAIがこれを記憶できれば、次に「ズニーデに何が起こりますか」と尋ねたとき、たとえ論理的課題を渡さなくても、ズニーデはプルヴィアンテになり即座にミルリタすることを思い出せるでしょう。

これで理解できましたね。ニューラルネットワークは帰納的論理です。そこから創発する演繹的論理があり、それが新しい知識を生成し、その新しい知識が訓練されればサイクルが閉じて、新しい知識を生成する準備が整うのです。

私が言っていることはとても重要です。私たちは今、科学的レベルにいます。

科学的手法の公開と検証可能性

そして科学的であるということは、次のことを理解してください。今見ている皆さんや地球上の誰でも、私の方法論を見ることができ、ここで行ったすべてのことを見て、「ボブ、あなたが言っていることには欠陥があります」と言うことができます。そして彼女が見ている欠陥を説明します。ああ、これこれこういう理由で、と。

だから皆さんにこれを見て、見つけた欠陥を指摘してもらいたいんです。それ以上に、このゲームが気に入って興奮したなら、私のGitHubに置きます。続けることができます。そして論理の部分に興味を持った人がいたら、今何をする必要があるでしょうか。

これらの論理構造を開発し続けて限界を見つけ、他のタイプの論理構造をテストし、エラーが出始めるまでこの論理を引き延ばして、どのレベルにあるのか、何段階の論理に耐えられるのかを確認することです。

演繹的論理創発の実証

しかし、私たちが今、外科的に、非常に明確なポイントに、非常に正確な指摘をしたことが分かりますよね。そして人工知能はこう言いました。「しかし、本質的に帰納的確率に基づくモデルから、どのようにして演繹的確実性が生じうるのかは説明していませんね」

私には仮説がありますが、説明はありません。私の仮説はこうです。この種の言語構造は訓練データに何度も表現されています。「〜するたびに〜になり、〜になる」というこれらの条件は何度も現れます。

したがって、文法を分離し、統語的な部分を分離し、論理構造を明確に分離すれば、たとえ人工知能が世界のすべての質問に答えられなくても、既に論理は知っています。

したがって、地球上のあらゆる質問に答えられるはずです。それが起こるべきことです。そして私たちの議論は、AIがどれだけの前提に耐えられるかで、AIのIQがどれくらいかを知ることになります。

AI知能測定の新しい基準

この場合のIQとは何かのつながりが見えてきましたか。このAIのIQを測定する方法は、どれだけの前提と規則に耐えられるか、どの前提と規則に耐えられないかを測定することです。

なぜなら、ここからAIの知能をテストする非常に明確な方法論になったからです。ただし、これは重要なので注意してください、テストすべき他のことがあるとしても、これは演繹的論理の創発という私の2番目の項目が実際に起こっていることを非常に明確に示す、非常に客観的なテストです。そして帰納的論理がこれを生成したのを見るのは非常にクレイジーです。

もし混乱していて、何が起こっているのかよく分からなかったら、機械意識の動画を見てください。そこで説明していますから。

大学外での科学研究の可能性

そして皆さんに伝えたい重要なポイントがあります。科学的に研究し科学を行うと話すとき、今日では実質的に大学に行ってそこで研究することと同義になっています。

でも、注目してください。私は科学的なことをしました。仮説を立て、方法論を作り、客観的なテストを行いました。このテストは再現可能です。科学をするのに大学にいる必要はないことが分かりますよね。

そして極めて論理的で、極めて正確で、明確で、客観的であれば、誰かが「ボブ、これは気に入らない、なぜならあなたが言ったことはあれと関連して意味をなさないから」と言いやすくなります。客観的な議論が始まります。「人工知能ではない」といった狂人の話にはなりません。なぜかって。ただそうだから、では駄目なんです。

いや、皆さん、会話はもっと真剣でなければなりません。非常に明確に論拠を示さなければならず、それらは持ちこたえなければなりません。

論理的反証の重要性

例えば、私は既にニコルの主張、不完全性の問題、形式数学論理の問題について、なぜ彼が間違っているのかを説明する批評をしました。私が行ったことは科学的証明です。彼が言っていることが意味をなさないことを示す明確な反証を見つけたので、彼は本当に間違っています。

そして何が興味深いかというと、ニコル自身が自分の論証を強化して私の批評を回避できるようにすることです。なぜなら彼は私が見ていない何かを見ているかもしれないからです。しかしあの特定のケースでは、彼が言ったことが意味をなさないことは非常に明確です。

既存の知能と今後の発展

それが全てです、皆さん。そして興味深いのは、私が話しているこのサイクルが正しければ、私たちは必然的に既に知能を持っているということです。そして今日AGIやそういったことについて議論していることは、知能があるかないかの議論というよりも、むしろIQと時間とともに獲得していく能力の問題なのです。

もしAIが既に学習し進化する能力を持っているなら、決まりです。たとえまだ初歩的なレベルであっても、学習し自己変容する基本的で本質的な能力を既に持っているのです。

だからこれは「いいね」に値しますよね、皆さん。下にコメントして何を考えているか教えてください。そして私が言ったように、もしあなたが心理学者、哲学者、論理の分野が好きで、この研究を続けたいなら、前提をもっと拡張し、もっとストレステストを行って、より厳密で形式的で詳細な研究を行い、それがAI研究者の資料になるよう、私は全力でサポートします。実際、私はおそらくこれを続けるでしょう。

しかし力を合わせましょう。なぜなら皆さんの批評が重要だと確信しているからです。特にここにある欠陥を指摘して、今すぐ初期段階で修正していくために。

だから「いいね」を押してください。それでは。ありがとうございました。

コメント

タイトルとURLをコピーしました