本動画は、AI業界で最も議論を呼ぶテーマの一つである「大規模言語モデル(LLM)は推論できるのか」という問いに対する批判的考察である。多くの人々がLLMの能力を「単なる確率的オウム」「次のトークン予測器」といった還元主義的表現で否定するが、これらの議論は論理的に欠陥がある。何かが特定の能力を持つかどうかを判断するには、客観的なテストが必要であり、「ただの〇〇である」という記述だけでは何も証明できない。時計が時を刻めるかどうかは、それが歯車でできているか電子回路でできているかではなく、実際に時間を測定できるかで判断される。同様に、LLMが推論できるかどうかは、その内部構造ではなく実際の能力で評価されるべきである。人々がAIの能力に対して非合理的な反応を示す背景には、自分を特別たらしめる能力が機械に侵食されることへの恐怖がある。音楽家はAI音楽に、アーティストはAI芸術に、プログラマーはAIコーディングに強く反発するが、これは論理的判断ではなく感情的防衛反応である。研究によれば、人々はAI生成の詩や音楽を人間作品と区別できず、むしろAI作品を好む傾向さえあるが、それがAI製だと知ると評価を下げる。これは認知バイアスの明確な証拠である。今後数年間、AI能力の急速な進化により多くの人々が混乱するだろうが、最も重要なのは自分自身に嘘をつかないことである。

LLMの推論能力をめぐる不毛な論争
今日は、AI業界で最も私をイライラさせる議論について話したいと思います。それは、LLMは思考できるのか、推論できるのか、理解できるのかという問題です。
ここにジェフリー・レイシュという方がいます。発音はこれで合っていると思いますが、彼はこう言っています。AIは本当には推論していない、物事を本当に理解していない、本当に思考できないと考える人たちに問いたい。それはどういう意味なのか。AIがそれらのことをできるかどうかを、私はどうやってテストすればいいのか、と。
私はそのツイートへの返信を見る前から、イライラさせられることが分かっていました。でも、私はそれをリツイートして、予測を立てることにしました。誰一人として、AIが推論できるかどうかの実際のテスト提案をコメントしないでしょう。ほとんどの人は次のようなバージョンのことを言うはずです。AIは推論できない、なぜならそれは単なる何々だから、と。
これについて、GoogleのQuantum Supremacyプロジェクトで働き、OpenAIでもイリヤと一緒にAI安全性に取り組んだスコット・アーロンソンの見解が大好きです。彼はこれを「ジャスト・ア主義(単なる〇〇主義)」という宗教を実践している人々だと表現しています。AIはXやYやZができない、なぜならそれは単なる確率的オウムだから、単なる次のトークン予測器だから、単なるこれだから、単なるあれだから、と。こういう人たちは決して立ち止まって考えないのです。では私自身は単なる何なのか、と。
私はコメントを見ずにこう書きました。でもちょっとだけお見せしましょう。最初のコメントはこうです。LLMは単なる巨大なパチンコ台で、どのストーリーが出てくるかを選んでいるだけだ、と。つまり、単なるこれだ、というわけです。
ちなみに、「単なる〇〇」と言うには様々な言い方があります。例えば、この人は言っています。AIは基本的に既知の関係性に基づいてトークンを選んでいるだけで、既存のパターンにマッチするものを選んでいる、と。つまり、単なるこの何かだと。もし答えの背後にある「なぜ」を説明できず、「何」だけしか言えないなら、理解を示していることになる、というわけです。これも単に「何」を言うだけで「なぜ」は言わない、という言い方ですね。
ここでは誰かが、単なる機械的処理だと言っています。またここでは誰かが、思考は化学プロセスに結びついている、これは実証可能だ、コンピューターにはこうした化学プロセスがない、と言っています。思考は本当に化学プロセスだけに結びついているのでしょうか。どうやって実証できるのでしょうか。でも要点は、彼らはこうした化学プロセスを持っていない、単にデジタルだとか何とか言っているわけです。これも同じことを言う別の方法です。これらのほとんどは何らかの形の「ジャスト・ア主義」になるでしょう。
推論能力のテスト方法
こう考えてみましょう。もし次のようなものについて、それらは推論できるかと尋ねたら、人間は推論できるか、と人々に聞いたら、ほとんどの人はイエスと答えると思います。つまり一般的に、そのオブジェクトのクラス、種、あるいは何と呼ぶにせよ、一般的にそれは推論する能力を持っているか。はい、持っています、と。
推論できない人の例を見つけることはできます。それでも人間一般が推論できることを否定するものではありません。もし石は推論できるかと尋ねたら、ほとんどの人はノーと答えるでしょう。石は推論できない。推論する能力を持っていない、と。
そしてLLMになると、ここで人々は完全に頭がおかしくなるのです。多くの人がこれについて話すとき、非常に不合理になります。前にも言いましたが、これは恐怖から来ていると私は考えています。私たちがこの話題に近づくと、人々は本当に速く非常に非合理的になります。
ところで、人間が推論できることを、私はあなたにどう証明すればいいのでしょうか。人間が推論している一つ以上の例を見せればいいのです。石が推論できることをどう示すか。石が推論している例を見せればいい。私はそれを見たことがないので、それを否定する例がないため、石は推論できないと仮定しています。
鳥が飛べるかどうかを知りたい場合も同じです。鳥は飛べると私たちは考えています。なぜか。鳥が飛ぶのを見たことがあるからです。だからテストできるわけです、よね。人間は飛べるか。ほとんどの人はノーと答えるでしょう。
繰り返しますが、これは補助なしでの話です。もし空中浮遊できる人、腕を羽ばたかせて飛び去ることができる人を見せてくれたら、考えを変えるかもしれません。そういうことが起きている一つの例があれば、もしかしたら人間は飛べるかもしれない、となるわけです。
さて、これは非常にシンプルで明確です。もう少し難しくしてみましょう。何かが時間を測れるかどうか尋ねてみましょう。何かが私たちにとって有用な方法で時間を追跡できるか。私たちが今何時か分かるようにできるか、と。
さて、これは金属の歯車やコグ、ただの金属部品の写真です。もちろん、時間を測ることなんてできません。単なる歯車とコグの集まりですから、よね。私たちは「ジャスト・ア主義」という宗教で、その時間測定能力を否定しているわけです。それは単なる歯車の集まりだ。だから時間を測れない、と。
これがなぜ本当にひどい考え方なのか、おそらく理解できると思います。単に歯車の集まりだと言うだけでは、必ずしもそれが何かをできないことを意味しません。コグや車輪を見ただけでは、私たちには全く分かりません。
これはどうでしょうか。これは時間を測れるでしょうか。いいえ、単なる泥に刺さった棒ですよね。ただの小さな彫像です。どうやって時間を測れるというのでしょう。ちなみにこれは日時計です。人々はこれを使って長い間、時間を測ってきました。地面から突き出ているとか、板から突き出ているだけと言っても、それが時間を測る能力を否定することにはなりません。
これはどうでしょうか。時間を測れますか。いいえ、単なるプラスチック部品と回路基板の集まりですよね。繰り返しますが、これは意味をなしません。それが何であるかを説明するだけでは、それが何らかの能力を持つという事実を否定することにはなりません。それがその能力を持っているかどうかを理解する唯一の方法は、私たち全員が見て、それがそのテストに合格するか失敗するかを確認できる客観的なテストを作ることです。
例えば時計の場合、おそらくいくつかの要件が必要です。一つは、規則的で測定可能な変化がなければなりません。この機械が動いていると仮定すると、一般的に時間とともにカチカチと音を立てて矢印が動いたりします。これらのいくつかは、どこで機能するのか、規則的で測定可能な変化を持っているでしょうか。もちろんイエスです。これはどうですか。もちろんイエスです。
水晶を使ったデジタル時計は、規則的で測定可能な変化を持っているでしょうか。もちろんイエスです。そしてもちろん、その変化から進行を見たり測定したりできる必要があります。時計でそれができますか。イエス。ここで変化を見て測定できますか。イエス。矢印が変化を示してくれます。ここで変化を測定できますか。イエス。影が私たちに示してくれて、変化を測定できるようにしてくれます。
時間をかけて一定の間隔を保っているでしょうか。時間を2倍にすると、測定される変化も2倍になるでしょうか。デジタル時計の場合、明らかにそうです。歯車時計の場合も明らかにそうです。日時計は少し奇妙です。一日の中では一定の間隔を保ちます。
時間が経つにつれて、季節によって変化するかもしれませんが、それでも一貫しています。季節性、太陽がどこにあるかなどを知ることができれば、調整できます。それでも測定できます。これで一貫した時間を保つことができます。
つまりこれらすべてのものは、時間を保つ能力、時間を測定する能力を持っているので、私たちがそれらを使って時間を追跡できるわけです。どう表現してもいいですが、単なるコグの集まりであろうと、地面から突き出た棒であろうと、プラスチック部品と回路基板と水晶の集まりであろうと、それらはその能力を持っています。
単なるこれだとか単なるあれだと言っても、何の違いもありません。できるか、できないか、どちらかです。
能力をテストする重要性
何かがある能力を持っているかどうかについて話すとき、それが単なる何かだと言うのは意味がありません。正しい考え方は何でしょうか。テストを行うのです。それがその能力を持っているかどうかをテストするのです。
では、何かがある能力を持っているかどうかを知るにはテストが必要だと、私があなたを説得できたことを願います。人間が4分マイルを走れるかどうか知りたいとしましょう。
私たちは「いいえ、できません、なぜなら人間は単なる炭素ベースの生命体だからです」とは言いませんよね。それはばかげています。私たちはテストを実施します。トラックの周りを走らせます。1マイルのトラックだとしましょう。そして時間を測って、4分より速く走れるかどうかを確認します。
そしていくつかのルールを追加します。抜け穴がないようにするわけです。背中にロケットブースターを付けてはいけない。芝生を横切ってはいけない、といった具合です。テストの規範、そのテストがどのように実施されるべきかを確立します。
ちなみに、そのテストのいくつかの部分については意見が分かれるかもしれません。例えば、試みる前にコーヒーを飲んでもいいと私は言うかもしれません。あなたは、いいえ、刺激物は一切禁止だと言うかもしれません。それは全く問題ありません。議論できます。でも要点は、いったんルールができれば、このテストに合格したかどうかについて全員が同意できるということです。
次に、テストを設計して、最初の人がスタートラインに立ちます。私だとしましょう。私がマイルを走って、10分かかったとします。ひどいタイムが何分か分かりませんが、4分マイルには全く及びません。明らかに、テック系YouTuberは走りませんから。
とにかく、私が9分マイルで走ったとしましょう。それは人間が4分マイルを走れないことを意味するのでしょうか。人間ができない一つの例。それは人間が4分マイルを走れないことを証明するのでしょうか。いいえ、何も証明しません。
100万人を走らせて、誰も4分マイルを破れなかったとしましょう。それは人間が4分マイルを走れないことを証明するでしょうか。いいえ、それも証明しません。実際にそういうことが起きました。
ちなみに、歴史を知っていれば、長い間、人々は何らかの生物学的限界があると考えていました。一人がその限界を破るまでは。そしてその後、他の多くの人々がその限界を破り始めました。つまり、人間がそれをできると言うには、4分マイルのテストに合格する一人がいれば十分なのです。彼らにはその能力があるのだ、と。
ちなみに、LLMが推論できるかと尋ねている人への別の答えがこれです。この人は言っています、ファイルを頼んだけれど、指示を2回、3回繰り返さなければならなかった、そしてファイルを提供したと言うけれど、ファイルがない。これはファイルが何であるかの真の理解がないことを意味する、と。
この論法は「私は9分マイルを走った、したがって人間は4分マイルを走れない」と言っているようなものです。この結果がこれが不可能であることを証明する。そのロジックは意味をなしません。反例は仮説を否定しないのです。飛べない不健康な鳥がどこかにいるかもしれませんが、通常その種の鳥は飛べます。その一羽の鳥が鳥は飛べないことを証明するわけではありません。
そして、大規模言語モデルが何かをするのに失敗したり、推論の欠如を示したりする例をコメントする人の例がたくさんあります。人々はこれをするのが大好きです。でも意味がありません。壊れた時計を見せることはできます。それは機能している時計が時間を測れないことを意味しません。人間が愚かなことをしている様子を見せることもできます。私はおそらくほとんどの日、正午前に少なくともいくつかの愚かなことをしているでしょう。
私の愚かさは人間が推論できないことを証明しません。私が9分マイルを走ることは、人間が4分マイルを走れないことを証明しません。
ほとんどの人々、おそらく40%、もしかしたら半分くらいが、LLMは単なるこれだと言うだけで、それが何らかの能力を持っていることを否定できると考える愚かさに陥っています。願わくば私があなたを説得したように、それは完全にナンセンスです。
次に大きなグループは、基本的にLLMが何かをするのに失敗する状況を示します。イチゴの中のRの数を数えられなかった、だから役に立たない。私が頼んだこの特定のタスクをするのに失敗した例がある、だからそれは役に立たない、推論できない、と。これらが論法の1番目と2番目で、私が見る頻度の観点からです。
第三の論理的誤謬
そして3番目の論理的誤謬は、もう少し微妙で、あなたは今この瞬間それに陥っているかもしれません。人々が犯す次のばかげた間違いがこれです。
今このビデオで、願わくば私はあなたに証明した、あるいは示したと思います。この信念、この「LLMは推論できない」という信念は、愚かな信念です。これは愚かな発言です。
繰り返しますが、これをテストできる特定のテストがない限り、それは別の話です。でも証拠なしにこれを信じるだけでは、賢くありません。そして恐怖によって駆動されていると思います。繰り返しますが、これを数年間ビデオで扱ってきた者として言いますが、この主題についてのビデオは毎回一つ残らず、コメント欄で批判を受けます。このビデオのコメント欄にも多くの批判があるだろうと驚きません。
これは一部の人々にとって非常に刺激的です。多くの感情を呼び起こします。私たちの脳の扁桃体の中枢を本当に刺激します。一部の人々、人々のある部分集合にとって、彼らが特定の信念、特定の理解を持っているため、これは致命的な恐怖を引き起こします。機械が人間と同じように考え、推論し、理解できるということが、何かそのことが恐怖や否定性を引き起こすのです。
これが真実だとあなたも知っています。きっと見たことがあるはずです。もしかしたらあなた自身を不快にさせたかもしれません。これを完璧にカプセル化したと思います。非常に予見的です。これは2023年10月6日のものです。彼はこれがどこに向かっているか知っていました。
彼はこう言っています。もしあなたが知性を他のすべての人間の資質より上に価値を置くなら、あなたはつらい時を過ごすことになる、と。なぜなら、もしあなたが私たちの価値は主に知性によって決まると考え、機械がより知的になったら、私たち人間が愚かな者になるからです。私たちが最も愚かな同僚になります。私たちは役に立たなくなります。
繰り返しますが、もし知性が唯一の指標であるなら、です。だから多くの人々がつらい時を過ごしているのを見ているわけです。これが恐怖を呼び起こすからです。だから彼らは「単なるゲーム」をしたり、間違いを見つけて、その間違いが意味しないことを仮定したりといった、すべての論理的誤謬を犯すのです。
そしてこれが3番目で、これが最も狡猾なものです。見抜くのが難しいのです。なぜなら、もしLLMが推論できないなら、それが悪い考えなら、何が真実でなければならないか。LLMは推論できる、ですよね。もしこれが悪い考えなら、論理的にその反対が良い考え、賢い考え、正しいものです。
これもおそらくあまり良い考えではありません。今のところは少なくとも。繰り返しますが、何かが推論できるかどうかを確認できる特定のテストを考え出せるまでは。これは少し擁護しやすい考えです。
なぜそれがより擁護しやすいかというと、4分マイルの例に戻ると、トラックを走って4分マイルを達成できない人が何人いても、10人でも1000万人でも100億人でも、これまで生まれたすべての人を走らせても、誰も4分マイルを達成できなかったとしても、それは人間が4分マイルを走ることができないことを証明しません。
一方で、一人が4分マイルを達成すれば、彼らができることを証明します。
私がこれを持ち出す理由は、LLMは推論できないと言う人々と話すとき、「では、推論のテストは何ですか」と尋ねることがよくあるからです。彼らはこの発言をします。LLMは推論できないと信じていると。あなたは「では、実行できるテストは何ですか」と言います。あるいは少なくとも、これを否定する反例は何でしょう、と。
例えば、人間が4分マイルを走れないと信じているなら、考えを変えるのはどんなケースでしょうか。例えば、人間が3分マイルを走ったら、おそらく考えを変えるでしょう、よね。
では、LLMが推論できることをあなたに示すには、LLMは何をしなければならないでしょうか。人々がよくやるのは、それをあなたに返すことです。「いいえ、あなたが推論できることを私に証明してください」と。推論できると思うなら、あなたが証明しなさい、と。
その論法も意味をなしません。私がこれが悪い考えだと言っているからといって、反対の考えを支持しているわけではありません。私はただこれが擁護できないと言っているだけです。この立場を論理的に擁護することはできません。
人々がAIが越えるべきゴールポストを示してくれるときでさえ、第一に、それらは常に動いています。そしてAIが次々とそれらを破っていくので、速く動いています。あるいは、それがあまりにも曖昧で、実際のテストに変換できないのです。合格したか失敗したかを見て判断できるテストに。
AIが世界クラスのチェスプレイヤーを打ち負かす前は、機械知能が世界クラスのチェスプレイヤーを打ち負かしたとき、それが知性だろうと信じられていました。それが起きた後、人々は「いや、それは単なるブルートフォースとヒューリスティックだ。それは知性ではない」と言っていました。
トリビアや言語の様々なニュアンスは知性と考えられうると人々は言っていました。LLMやいくつかの以前のAIモデルがそれを粉砕した後、私たちは「いや、それは単なる統計だ、知性ではない」と言いました。
世界にある何百万もの異なる物体、猫や人の顔などの極めて多様な物体を認識する前は、AIがすべての物体を認識できるレベルに達したら、それは知性だろうと思っていました。それができた後、「いや、それは単なるパターンマッチングだ。見ているものを説明できない」と言いました。
囲碁も同じです。囲碁はチェスとは違うと思っていました。より直感的な理解が必要だからです。単なるブルートフォース統計、ヒューリスティックなどで打ち負かすのは難しいだろう、と。人間のリーグや他のグランドマスターを打ち負かしたら、有名な手37のような、人間が思いつかなかった創造的な手を含めても、私たちはまだそれを退けました。「いや、それは単なる狭い知性だ。人間の一般知性ではない」と。
多くの人々は、それはデータセット内でしか機能しないと言います。データセット内のパターンをマッチングできるだけだ、と。AlphaFoldとそのすべての派生モデルは巨大な生物学の問題を解決しています。科学的進歩に貢献しています。
Google DeepMindの癌研究とGemmaというオープンソースモデルファミリーの最近の発見を見てください。それが現在、新規の科学研究をしていないことを証明するのは難しいです。まだ初期ですが、単にデータセット内で機能しているだけだとは言えません。なぜなら、人間が見つけられなかった新規のものを見つけているからです。私たちにはできませんでした。でもそれにはできました。
コメント欄の一部の人々は、お気に入りの大規模言語モデルに、理解できるか、推論できるかと尋ねただけです。こういう例がたくさんあります。彼らは答えをスクリーンショットして「はは、これが真実だ。問題解決」と言っています。でもそれは本当に何かを証明するのでしょうか。
今これらの応答を読みながら、私は人間が推論できるかどうか疑っています。だから今私に人間は推論できるかと尋ねたら、本当にそう見えないと言いたくなるかもしれません。人間は物事を理解するか。いいえ。
明らかに違います、よね。では私がそう言うことが、それが事実である証拠になるでしょうか。おそらくそうではありません。そして私たちは強化学習さえ考慮していません。あなたが人間は推論も理解もできないとツイートするたびに、100万人がいいねボタンを押すと想像してください。おそらくもっと頻繁にそう言うようになるでしょう。
つまり、この答えは強化学習のせいなのでしょうか。これらのモデルがどう訓練されているかのせいなのでしょうか。非常にあり得ます。後でこれらのビデオの一つで示すように、これについての素晴らしい研究論文が出てきています。
要点は、これは何の意味もないということです。ちなみに、「思考は化学プロセスに結びついていて、大規模言語モデルにはそれがない。したがって思考できない」といったコメントは、基本的にこのデジタル時計は時間を測れないと言っているようなものです。コグや金属歯車がないからだ、と。
時間を測ることは金属歯車を使うと示すことができます。見てください、示せます。したがって、この異なるアプローチは同じ能力を持つことは不可能だ、と。考えてみてください。
これらの人々は何を主張しているのでしょうか。これらの人々の多くは非常に賢く、教育を受けた人々です。もし私が彼らに、これは時間を測れない、なぜなら単なる金属歯車の集まりだからだと言ったら、彼らは笑うでしょう。「それはばかげたことを言っている」と。時間を測れるものを作る方法は一つ以上あります、よね。デジタル時計、あなたのコンピューター、それらのどれも金属歯車を使って時間を追跡していません。
では、なぜこれらの普段は非常に賢い人々が、思考においてこんな愚かな間違いを犯すのでしょうか。非常にシンプルです。彼らは私たちが聞いているのと同じことを聞いていないのです。
感情的反応の正体
あなたと私がこの質問を聞くとき、LLMは推論できるか、私たちはおそらくそのままで聞いています。それに対する感情的反応はありません。怒りや悲しみのような感じはありません。それは単なる質問です、よね。私たちはその質問を、このオブジェクトはこのことができるのか、あるいはこのことをする能力を持っているのか、として見ています。
電子レンジでDoomを実行できるか、あなたの犬は芸ができるか、と尋ねるのと同じでしょう。そしてこれらの質問への答えは非常にシンプルです、よね。もし電子レンジでDoomを実行できたら、イエス、よね。Doomを実行できたら、それができるようにできたら、イエス、それができる。Doomを実行できるようにできなかったら、答えはノーです。あるいはたぶん、ですよね。たぶんできない。あるいはたぶん私がそれができる方法を見つけられなかっただけかもしれません。
できるようにできたら、それは機能する。できるようにできなかったら、たぶん機能しない。そしてあなたの犬は芸ができるか。同じことです。芸をしているのを見たら、イエス、芸ができる。芸をしているのを見なかったら、たぶんできない。あるいはたぶん私が芸をするのを見ていないだけかもしれません。
LLMが推論できるかどうかのアイデアに対して本当に苦闘している人々は、その質問を同じように聞いていないと思います。
彼らが電子レンジはDoomを実行できるかという質問を聞くと、脳のある部分が論理的にそれを考え抜いて理解します。あなたの犬は芸ができるか。同じことです。
でも彼らにLLMは推論できるかと尋ねると、いいえ、完全に異なる脳の部分が引き継ぎます。その脳の部分は赤信号を出します。危険がある。私たちの脳のより深い古代の部分が引き継ぎます。それははるかに原始的です。はるかに感情的です。
その部分は、もしイエスなら、もし彼らが推論できるなら、私たちは終わりだ、と言います。私たちは完了です。もし彼らが推論できるなら、私たちは全員死ぬ。私たちは全員失業する。私たちは全員重要ではなくなる。したがって脳は答えがノーである理由を作り出すべきだ。彼らは推論できない、と。
これが起きていることを見分けられる理由は、彼らの答えがこれが答えている質問なのかという観点からあまり意味をなさないことが多いからです。願わくば私が示したように、この質問に対する彼らの答え、それらの答えは合いません。意味をなしません。
彼らは何の質問に答えているのでしょうか。彼らが答えている質問は、彼らが自分の脳にプロンプトするプロンプトのようなもので、次のようなものです。
なぜLLMは私を特別に感じさせることをできないのか説明してください。
そのレンズを通して答えを見てください。これらだけでなく、非合理的なAI嫌悪やそういったものに遭遇するときはいつでも、その観点から見たらそれらの答えがより意味をなすかどうか見てください。
最初のコメントは、人間は新しい洞察を生み出し、重みを更新する、と言っています。つまり、彼らは学習していて、推論プロセスについて内省してそれを評価する、と。
ちなみに、Anthropicは「大規模言語モデルにおける内省の兆候」という論文を発表したばかりです。おっと。
単なる巨大なパチンコ台です、よね。特別ではない。私が特別なのです。
ちなみに、これが事実であることは、異なるグループの人々がAIの異なる能力に対して非常に否定的に反応することからも分かります。
反応は他の能力の場合と同じくらい感情的で非合理的ですが、彼らが焦点を当てるものが異なるだけです。
ここにAIを使ってこのアニメーションを作った人がいます。私はそのアニメーションが大好きです。美しく見えます。もしこれが何かのアニメ、漫画、何であれ、私は見ることにかなり興味があります。素晴らしく見えます。
この人がそれをリツイートしています。この人はAIに反対しています。彼らのプロフィールや他のコメントから分かります。彼らは「これを報いよう」と言っています。下の人はこの映画的なものを作ったと言っています。AIが嫌いなこの人、アーティストなので、「これを報いよう。あなたは何も作っていない。コンピューターに何かを作らせただけだ」と言っています。
Mad Vidproがこれをリツイートしました。実は私がこれを見たのもそのおかげです。Mad Vidproは、様々なアート、ビジュアル、ビデオなどにAIを使うことに反対する人々から、Twitterで攻撃されているようです。彼らから多くの非難を受けているようです。悪いことをしたわけではなく、単にこれらのツールを紹介しているだけなのに。
私は、トロールの機会を逃さない性質なので、ここに飛び込んで言いました。「自分自身も多少絵を描く者として、写真を撮るためにカメラを使う人々について同じように感じます。カメラがすべての作業をします。写真を撮る人は何も貢献しません。この写真の流行は続かないでしょう。」
つまり、第一にMattに同意していますが、もしそれが明確でなければ、この人のツイートに対応しているようなものです、よね。コンピューターにすべてをやらせた。あなたは何もしていない、と。
その人が言及しているのは、私の理解では、どんな芸術作品も高い技巧と低い技巧と考えることができるということです。何かを彫刻するなら、多くの技巧が必要でしょう、よね。石からゆっくりとすべてを彫り出さなければなりません。一方、AI芸術のようなものは、プロンプトを入力すると、通常4つの異なるバージョンが生成されて選べます。
その人は、技巧の尺度で低かったから、これは基本的に価値がないと言っているわけです。問題はこれです。技巧の尺度で低い他の芸術もたくさんあります。
繰り返しますが、私は写真の例を使います。現代のデジタルカメラでは、指差して押すだけで画像が捉えられます。画像の中の何も作りませんでした、よね。夕日の写真を撮っているなら、夕日を作ったわけではありません。描いたわけでも、彫刻したわけでもありません。これだけです。ボタンを押すだけです。
プロンプトを入力することは、カメラのボタンを押すよりも多くの作業が必要だと論じられるかもしれません。でも明らかにその推論は意味をなしません。それを言った人でさえ、写真には適用しないと思います。
例えば、同じ人です、よね。彼は携帯電話で日の出の写真を撮りました。これが低労力または低技巧だから、ひどいこと、悪いことだとは彼は考えないと思います。彼は携帯電話を掲げて、ボタンを押して、画像を捉えただけです。
同じ推論が適用されるでしょうか。彼は何も作らなかった、スマートフォンに何かを作らせたということに同意するでしょうか。ここで彼は、これは絶対にひどい、見られないものだと言っています。本当に見られないのでしょうか。そんなに悪くないように見えます。
これはAIによって作られた別のショットです。彼は「これがいかに魂がないか大好きだ」と言っています。魂がないのでしょうか。分かりません。要点は、それらの発言は本当に意味をなさないということです。
額面通りに受け取ると、もしこれが人間の監督によって作られ、全く同じに見えたら、彼は魂がないとは思わないでしょう。もしこれが誰かによって作られたり、何らかのアニメーションだったりしたら、その人に「見られない」とは言わないと思います。
そして夕日などの写真を撮った写真家に、あなたは何も作らなかった、カメラにあなたのために作らせたとは言わないと思います。それらの発言はそのレンズを通して意味をなしません。
では、私のレンズを適用しましょう。これらの人々がこうした状況で自分の脳に与えるプロンプトはこれだと私は信じています。なぜLLMは私を特別に感じさせることをできないのか説明してください。
この人を特別に感じさせるものは何でしょうか。ここで彼は3Dアーティスト、3Dデザイナーだと言っています、よね。そして彼はBlenderでの作品をピン留めしました。つまり彼はこれらのシーンを手で作ります。彼の技巧は、どこかにあります。どれくらいの作業を投入しているか分かりませんが、写真を撮ることやAI芸術よりは高いです。これが3Dモデリングか何かです。これが彼が誇りに思うものです。これが彼を特別に感じさせるものです。
それで彼は2004年から2005年までのBlenderを使った、彼の技巧を使った、おそらく彼の進歩をピン留めしました。誰かがアニメーションを作ると、それは彼を特別でなく感じさせます。だから彼はそれをリツイートして「あなたは作っていない。コンピューターが作った、よね。だからあなたの作品について私が自分の作品について感じるように良く感じるべきではない」と言います。
Grockが想像して作ったこのものは、見られない。私たちは見られない。そしてこの小さなアニメーションは、魂がない。それが何を意味するか定義できますか。彼は人間が作った魂がないものを挙げられますか。そこに何か客観的なものがありますか。おそらくありません。額面通りに受け取るという立場からは意味をなしません。
その発言が意味をなすのは、これがその人へのプロンプトで、彼らの経験と出力が彼らが言ったことだと考えたときです。魂がない、見られない、あなたは作っていない、コンピューターが作った、よね。
さて、この場合、LLMについて話しているわけではありません。Blenderを使って芸術を作ることで彼が特別に感じ、誰かがAIを使って似た芸術を作れるなら、よね。彼はなぜそれらの人々が彼を特別に感じさせることをできないのかを説明しているのです。
最近、Suno musicの研究を投稿しました。AI音楽がほとんどの人にとって本物の音楽と区別がつかなくなっているというものです。たくさんのコメントをもらいました。その研究、論文に対する最も強い否定的反応を示した人々は、ちなみにそれは誰も侮辱していませんでした。何も攻撃的なことは言いませんでした。単に「見てください、平均的な人はもはやAI音楽と人間が作った音楽を区別できません」と言っただけでした。
多くの否定的反応は音楽業界の人々からでした。AI芸術に反応する人々。グラフィック芸術なら、グラフィック、3Dグラフィック、アニメーションなどを作る人々です。
LLMが推論できるというこのアイデアに否定的に反応する人々。つまり、この人は科学者、ゲームデザイナー、プレイヤー、オタク、時々作家です。
この2年間、XとYouTubeの両方で見てきました。AIの特定の側面が良くなっているのを私が示すたびに、特に人間レベルに近づいているように見えるとき、叫び声、反応的な反応、それらは通常、それをする人々、具体的には、それをすることに本当に誇りを持っている人々から来ます。
AI音楽について投稿すると、音楽家が怒ります。コーディングについては、コーダーが怒ります。繰り返しますが、全員ではありません。非常に特別な部分集合で、明らかかもしれませんが、繰り返しますが、ここで私が言おうとしている大きな点は、それらの反応がなされる方法が奇妙だということです。彼らは異なります。しばしば合理的ではありません。
音楽家に人間が作った音楽を評価するよう頼むと、彼らが使う特定の言葉やフレーズや説明があります。好きか嫌いかを言います。テクニックについて話すかもしれません。スタイルが好きかどうかについて話すかもしれません。
ビジュアルアートでは、どう感じさせたかについて話すかもしれません。色について話すかもしれません。コードについて、それがクリーンか、機能するか、何でも、よくコメントされているかなど、人々が話す特定の方法があります。
人間が他の人間の出力を判断するとき、私たちはそれについて話し、それが良いかどうかを判断し、説明する特定の方法があります。
そして反対側では、AIからの出力を人々に示すとき、多くの人々、おそらくほとんどの人々、たぶん80%の人々、私は推測しているだけです。この数字が何か全く分かりません。
私たちは他の何かについてするのと同じようにそれを分析したり考えたりする傾向があります。LLMは推論できるか。私たちは鳥は飛べるか、これはDoomを実行できるかを処理するのと同じ方法でその質問を処理します。
でも人々の何パーセントかにとって、こうしたことについて話すことはその恐怖反応を引き起こす傾向があります。
繰り返しますが、彼らがその出力、その芸術作品や音楽、あるいはAIに関連するその質問、何であれについて言うことは、完全に異なる何かに変形されるようです。
これらの人々がAIの出力について話すとき、ほとんど新しい用語を作り出します。これらの出力を説明する新しい方法を作り出します。AIについては、魂がない、深みがない、と言います。
人々はAI音楽は小さいまたは浅いと聞こえると言います。人々はAIの文章には意味がない、と言います。その背後に生きた経験がないからだ、と。
LinkedInで見つけたこのチャートがあります、よね。これが読者がAIの文章を好まない理由です。人々はAIの文章を嫌う、なぜならそれは単なるテキストだからです、よね。一方、人間の文章には、テキストはありません。サブテキストがあります。作者の意図もあります。
文脈的影響と弁証法的参加があります。この全体の、表面の下の氷山があります。人間の文章はこれらすべてです。AI芸術は単にこれです。だから私たちはAIの文章が好きではないのです。
その信念声明氷山図には、ただ一つ、小さな小さな問題があります。それは、人間はAIよりも人間が書いた詩を好むということです。
そしてこれは他の多くの文章についても真実です。私たちもAI音楽を通常の音楽と区別できません。彼らがどちらが良いと人々が思うかの比較をしたかったのですが。ある時点でAI音楽は平均的な人々により好まれるようになると思います。
でも文章、詩については、念のため、詩だけではありません。この例はたくさんあります。でも人間はAIの文章と人間の文章を区別できません。どちらがどちらかと尋ねられても、分かりません。でも彼らはAIの詩をより好意的に評価します。より好きなのです。
つまり、人々にこの絵を見せると、人々は「人間の文章が明らかに優れている。見てください、すべてのものがある」と言います。でもこれは非常に重要で、誰もが理解すべきことです。これはAI生成の出力すべてに当てはまるからです。文章、書かれたテキスト、詩、オーディオ、ビジュアル、何であれ。
どちらを好むべきかのヒントを与えずに、盲目的に選ばなければならないとき、人々は「おお、こっちの方が好きだ」と言います。彼らはAIの方をより多く選びます。そして理由を尋ねられると、例えば有名な人間の詩人による詩とAI詩を比較すると、人々はAI詩を好みます。なぜか。より理解しやすく、テーマと主題がより明確だからです。有名な詩人の形式を意図的に模倣した方法で書かれたものでさえ。
詩をリズム、感情的影響、美的美しさで評価するよう求められると、参加者は一貫してAIが書いた作品を人間が書いたものよりも好みました。これが大きな点です。詩がAI生成だと告げられると、彼らの評価と評点は下がりました。AI作成作品に対する一般的な偏見を示しています。
つまり、もしあなたが特定の文章やテキストや音楽や何であれが好きかと尋ねられ、それについて何が好きか、何が好きでないか、なぜ明確または不明確かを説明するなら、あなたは本当にそれが好きかどうかを説明しているのです。
しかし、もしそれがAIによって生成された作品だと告げられて、突然あなたの言語全体が変わり、魂や深みについて話しているなら、AI文章が人間の文章より悪いと言うために全く新しいカテゴリーを作らなければならないなら、あなたは自分自身に嘘をついているようです。
もし私が「これは時間を測れない、なぜならそれは単なる歯車の集まりだから」と言った場合の論理的誤謬を見抜けるなら、それが良い論法ではない理由を理解しているなら、でもLLMは単なる何か確率的オウムだと言うのがなぜ良い論法ではないのかを捉えられないなら、あなたは自分自身を欺いているのです。
何をするにしても、何よりも自分自身に嘘をつかないでください。
それはドストエフスキーです。そして私がこれについて話したい理由は、今後数年、次の5年間が極めて極めて重要になるからです。人々は正気を失うでしょう。人々は錯乱しているように聞こえるでしょう。そして彼らは自分自身の錯乱を見ることができないでしょう。なぜなら、彼らは自分が知覚していることについて自分自身に嘘をついているからです。
私たち全員にとって、これについて非常に合理的であることを確認し、自分自身の恐怖や不安に欺かれないことが理にかなっていると思います。もしAIがあなたが得意なこと、あなたがやっていることに影響を与えられるほど良くなっているなら、それができるかどうかを確認する特定のテストがあることを確認してください。それは何が得意で何が苦手か。それがあなたを置き換えられないことを自分に証明するために、何か崇高で新しい抽象的な概念を発明しないでください。
そして、特定の職業の人々が、AIがその特定の職業に決して影響しないと言うことに注意してください。彼らがその職業の上位1%だけと比較していないことを確認してください。もしAIがソフトウェア開発者の50%よりも良くコーディングできるなら、それは大規模な影響を与えるでしょう。上位1%である必要はありません。
平均的な人はAI音楽と人間が作った音楽を区別するのに苦労しています。彼らの推測はコイン投げのようなものです。基本的に50/50です。それが音楽市場にどう影響するかを理解しようとしているなら、それがあなたが見るべき情報です。
AI音楽をあなたのお気に入りのバンドと比較して、それについてどう感じるかを見るべきではありません。これまでに生きた最も才能ある音楽家の上位1%と比較すべきではありません。
研究は、平均的な人は違いを見分けられないと言っています。それに基づいて、それが音楽市場にどう影響すると思いますか。AIがより多くの産業や分野に拡大して到達するにつれて、それについて過剰反応してちょっとクレイジーになることも、過小反応してそれが存在しないふりをしようとすることも、おそらくいくつかの問題を引き起こすでしょう。
何よりも、自分自身に嘘をつかないでください。
本当に、AIから安全だと思う唯一の仕事はYouTuberであることです。この仕事はできません。生きた経験が必要です。カメラの前での存在感が必要です。存在する必要があります。特定の元気が必要です。何か根性が必要です。魂が必要です。
特定のXファクター、オーラ、バイブ、エネルギーまたは周波数、そして本質、特定の内なる光が必要です。心が必要です。特定の磁力またはパナッシュが必要です。特定のジェネクワが必要です。
でも、他のみんなは困っています。
最後にもう一つ。もしあなたが私の個人的な信念、LLMが推論できるかできないかについて疑問に思っていたなら、これが私の答えです。
推論の定義がこれです。論理の過程によって考え、理解し、判断を形成する心の力。
分かりました。私たちは論理の過程によってそれらのことをしています。理にかなっています。論理とは何を意味するか。論理は実施された推論を意味します。
要約すると、推論とは論理を使って考えること、論理の過程です。そしてもちろん論理は推論すること、推論の過程を行うことを意味します、よね。
これであなたの質問に答えられたことを願います。


コメント