2025年のAI技術の現状

LLM・言語モデル
この記事は約24分で読めます。

この動画は、2025年におけるAI技術の現状について包括的に解説している。AppleによるLLMへの批判的論文と、同時に同社がiPhoneにLLMを統合するという矛盾した行動から始まり、推論モデルの登場によるAI能力の劇的向上、中国のDeepSeekによる技術格差の縮小、プライバシー問題、自動運転の普及、そしてAIが経済や雇用に与える現実的影響まで幅広くカバーしている。特に、AIモデルの性能評価、訓練コスト、実用性の向上について詳細なデータと分析を提供し、この技術革命が人類にとってマイクロチップの発明に匹敵する歴史的転換点であると結論づけている。

Apple論文の矛盾とローカルAIの台頭

今週、Appleが突然この論文を発表しました。「The illusion of thinking understanding the strength and」云々、基本的に大規模言語モデルは知的ではない、あれは推論していない、こういったことは実際に見えるほど印象的ではないと言っているのです。そして最近数週間、私は多かれ少なかれ同じようなツイートを受け取り始めました。「おい、フレディ、Appleが人工知能は詐欺だと言ったことについて、いつ話すんだ?」それが論文で言っていることとほぼ同じです。

しかし今週、World Wide Developer Conference、つまりAppleの開発者会議も開催されました。その会議で、彼らがそれほど良くないと言っているこの技術が、今やiPhoneに統合され、完全にローカルで動作すると発表されました。LLMsが搭載されており、iPhoneとMacの内部にLLMが組み込まれ、ローカルで動作します。サーバーに送信する必要はありません。これらはFoundation Models Frameworkと呼ばれています。

複数の基盤モデルがチップ上で直接動作するというアイデアです。これは非常に興味深いことです。なぜなら、現在のAIモデル、例えばChatGPTのGPT-4、AnthropicのClaude、GoogleのGeminiなどを使用する際、私たちはこれらすべてのデータをGoogleのサーバーに送信し、そのサーバーで推論結果を処理してから受け取っているからです。

私にこんな奇妙なできものがあって、GoogleやSam AltmanやAnthropicに、この特別なできものの正確な形やサイズを知られたくないかもしれません。あるいは、完全に合法的な方法で税金を節約しようとしているかもしれません。誰が知っているでしょうか。しかし、人は不安に感じるものです。同じことが企業にも当てはまると思います。

AIモデル能力の劇的向上

これがAppleの一貫性のない発言と、プライバシーが最大の価値であることを意識した姿勢のようです。では、彼らが言っていることが真実なのか評価してみましょう。

これは私のお気に入りのグラフの一つで、よく見せているグラフです。このグラフは変化し続けており、2023年7月から2025年7月(近い将来)まで、AIモデルが最高のAIテストの一つであるGPQA Diamondテストに対してどのように成長してきたかを示しています。

これは博士号レベルの科学の質問シリーズのテストです。博士号を持つ人間はこのレベル以上で回答しますが、典型的にはこのレベルです。つまり、このレベル以上のすべてのモデルは、博士号を持つ人間よりも知的なモデルということになります。

最近では、モデルはそれほど知的ではありませんでした。しかし、皆さんはChatGPTを使っていると思いますが、ChatGPTで支払いをしている際に利用できる推論モデルを何人の方が使用しているでしょうか。ChatGPTの有料版では、推論モデルに変更するオプションがあり、o3、o4 mini high、o4 mini、o1を選択できます。これらはおそらく地球史上最悪のマーケティング名です。さらに、非常に混乱させます。o3とo4 mini highの違いが何なのか、誰が知っているでしょうか。

誰も知りません。おそらく一連のエンジニアたちが一連のモデルを持っているでしょうが、実践的に、現実世界で生産的な用途において、これらの違いを理解するのは非常に困難です。

非常に大きな違いがあるのは、文字Oが付いたモデルです。これらは青からピンクのOpenAIの推論モデルで、一分待って考えてから応答するモデルです。一方、GPT-4は無料版や有料でもモデルを変更しない場合のものです。この二つのモデル間の知能の差は驚異的です。

中国のDeepSeekの台頭

推論モードの存在だけで、今年普及したものですが、突然モデルが推論し、非常に複雑な質問に答え、以前は自動化できなかった多くの仕事を自動化できる場所に導かれました。

私が最も衝撃を受けるのはDeepSeekです。ここで推論モデルを見ることができ、これがDeepSeek R1の最初のバージョンです。1月末に突然、AIをやっていなかった中国のグループが現れたのを覚えていますか。High Flyersという会社で、高頻度取引を行っていました。マイアミでやっていることと同じで、基本的に株の売買とヨットとかそういうことですが、彼らは上海でやっていました。

突然、彼らは高頻度取引を自動化するためにAIを使う方法を知っており、モデルをリリースしました。オープンソースでリリースしました(実際にはオープンソースではなくopen weightsですが、実用的にはインストールして観察できるオープンモデルです)。彼らがリリースした時、この線を見てください。フロンティアモデルの一部より優れた位置にあります。

DeepSeek R1は先週半ばにweightsを更新し、モデルとニューラルネットワークを更新しました。推論能力の飛躍的向上を見てください。私にとって狂気的なのは、これが専門外の中国人たちで、アメリカがチップへのアクセスを禁止しているためチップにアクセスできず、フロンティアモデルすべてと同等の結果、かつてOpenAIの最先端モデルだったo1レベルの結果を達成したことです。

AIの実用性向上と経済への影響

ここのクラスターは最も先進的なClaudeモデル、Claude Opus 4とClaude Sonnet 4です。現在これらを上回っているのはGemini 2.5 Proだけです。つまり、技術の最先端レベルでは大幅に成長しており、地理的なフロンティアの障壁が縮小しているのです。

これはArtificial Analysisの知能指数です。Artificial Analysisはモデルの知能を測定する専門企業で、基本的に7つの異なる評価を取って加重平均を作る知能ランキングです。2024年11月のGPT-4o(ChatGPT無料版や有料版でモデルを変更しない場合に使用するもの)の知能は41ポイントですが、DeepSeekの最新バージョンの知能は68ポイント、フロンティアモデルの知能は70から71ポイントです。

これは全モデルの集計なので、より良い回答を生成するという意味ではそれほど有用ではありませんが、コードで自動化する問題解決の知能能力がはるかに高いことを意味し、昨年11月から今日までの飛躍は非常に大きいものです。

おそらく最も懸念されるのは、一年前の中国とアメリカのフロンティアモデル(GoogleとOpenAI)の位置と、今日の位置です。今日、私たちは極めて接近しており、重要な違いは、アメリカでの資本使用が中国での資本使用の10倍近いということです。

おそらくDeepSeek R1が1,500万ドルまたは3,000万ドルで訓練されたと聞いたでしょう。それは嘘です。約15億ドルで訓練されましたが、すぐに、それが実質的に何でもないことを理解するでしょう。

Humanity’s Last Exam – 人類最後の試験

私にとって最も重要な試験、最も重要だと考える人工知能の評価は、Humanity’s Last Examです。これは、人間科学のあらゆる分野で最も先進的な人々によって構築された数千数万の質問です。科学のフロンティアであり、回答の精度の割合を測定する試験で、世界で最も困難な科学技術分野の超難問です。

AIモデルがこの試験で100%に達した時、人間の知識レベルでAIが解決できないものは何もなくなります。少なくともその観点では科学が終了する地点です。まだプールに入りたくないかもしれませんので、プール市場を含む多くのものがまだ残っているでしょうが、その時点で科学は、少なくとも私たちの理解では、カバーされています。

1年未満前、GPT-4Oは2.7%の結果を達成し、今日Gemini 2.5 ProはHumanity’s Last Examで21%の結果を達成しました。ここで最も興味深いのは、これまでの能力の継続的な成長です。これは新しいものなので、CPU速度のムーアの法則やハードウェアの価格低下など、他の技術が従う規則に従うかどうかわかりませんが、これまでのところ、最も困難な瞬間でもまだスケーリング則に従っているように見えます。より多くのチップとお金を投入すれば、より多くの結果が得られ、はるかに少ないお金でそれらの結果も得られます。

訓練コストの急激な増加

お金について言えば、これらのものを訓練するのにいくらかかるのでしょうか。これが各モデルのドルでの訓練コストの進化です。元のTransformerモデルは670ドルでしたが、例えばGPT-4の最初のバージョンの訓練には7,800万ドルかかりました。訓練とは、データを持ってからモデルを調整し、すべてのニューロンが調整される時間のことです。

最も重要なオープンソースAIモデルであるMeta(Facebook)のLlamaは、元々1億7,000万ドルの訓練費用がかかり、GoogleのGeminiの最初のバージョンは1億9,000万ドルかかりました。これは単純に、データを持ってシステム全体、モデル、重み、アーキテクチャを通して、最終的に結果を生成し始めるまでのプロセスです。ばかげて印象的な金額です。

その金額は増加し続けていますが、トークンあたりの生成コストは下がり続けています。訓練に使用されるサーバーが推論にも使用でき、それらのサーバーへの投資を回収できるためです。つまり、すべてのインフラが継続し、より多くのインフラを生成するほど、需要によって価格が調整されます。

経済成長への疑問

では、GDP成長はどこにあるのでしょうか?これはMicrosoftのCEO、Satya Nadellaが提起していた質問で、私が大好きな質問です。これがすべて真実なら、なぜ私たちは完璧なユートピアに住んでいないのでしょうか?なぜもう何も支払う必要がないのでしょうか?なぜ人工知能が私たち全員を維持する魔法のシステムで浮遊していないのでしょうか、あるいは少なくともなぜ経済が成長しないのでしょうか?

経済は成長しておらず、実際、非常に複雑な状況にあり、おそらく今年は国内だけでなく世界的に不況の年になるでしょう。では、GDP成長はどこにあるのか

この質問にはある程度答えることができます。まず第一に、今になってようやく人工知能が一般目的の生産性において本当に有用になり始めたということです。この私が大好きなグラフは、各モデルから平均して、80%以上の成功率で実際にどのタスクを委任できるかを示しています。

以前の他のAIモデルでは、物事を委任することはできましたが、成功率が高くありません。フロンティアモデルでは幻覚という言葉を覚えていますか?それはもはやほとんど問題ではありません。幻覚について考えるのをやめ、他の問題がありますが、その問題は存在しません。他の異なる問題があります。

これらのモデルはより知的になり始め、これらの問題をより一貫して解決しています。GPT-4は人間が約1分かかる問題を解決できましたが、OpenAIのo3は人間が約20分かかる問題を高い成功率で解決できます。

起こっていることの一部は、最初に技術が来て、その後に製品が来るということです。Juan Pabloが「私たちは技術を構築しているのか、それとも製品を構築しているのか?」と言うのを聞いたでしょう。これは、これらの企業が技術を構築しているが、GDPの成長は製品を作ることから来るケースです。

Nvidiaの急成長と雇用への影響

成長しているのはNvidiaです。Nvidiaは収益を上げており、彼らはGDP成長を見ています。覚えていない方や、この業界に来て間もない方のために、Nvidiaは元々ビデオゲーム用のハードウェア企業でした。彼らはビデオゲームと特殊効果用のグラフィックカードを作っており、エンタープライズビジネスもありましたが、主にビデオゲームでした。

2018年から2019年にかけて、エンタープライズビジネスが突然成長し始めましたが、それは暗号通貨によるものでした。暗号通貨をマイニングする必要があり、GPUは暗号通貨マイニングに優れていたので、GPUを購入しました。しかし、暗号通貨マイニング専用チップが作られたため、それほど大きなビジネスにはなりませんでした。

しかし、その後AIが到来し、爆発的な超指数関数的成長がありました。チップは訓練にほぼ完璧だからです。シリアルチップではなくパラレルチップだからです。重要ではありませんが、これは残酷です。実際、ゲーミングビジネスの成長を見ると、2022年に最大に達し、それ以来下降しています。爆発的に成長したのはデータセンターの使用です。

Nvidiaは成長を見ています。失業率は特に増加していませんが、アメリカで卒業した人々の初回就職、専門職の初回就職は今より困難になっています。これは人工知能だけの影響ではありません。ここから始まって変動があることに気づくでしょう。

結論を出す前に、私たちが観察し正規化しなければならない二つの現象があります。一つはパンデミックです。パンデミックは多くのことを変えました。もう一つの非常に重要なものは金利です。パンデミック中、金利はゼロでした。金利が低いと、お金は実質的に無料なので、人々は30台の車を買い、企業はより多くの資金を調達し、より多くの人を雇用します。

現在、金利は高く、インフレを減らそうとする仕組みとして機能しています。金利が高いと、お金はより高価になるので、企業は少なく買い、消費者も少なく買います。それに加えて、世界にも問題がありますが、それは別の話です。それにAIが加わります。AIは間違いなく多くの企業にジュニアタレントの大量雇用を再考させていますが、より多くの要因があります。

最後に、ホワイトカラー職と呼ばれるオフィス職の失業率を観察できます。それは素晴らしくはありませんが、爆発的ではありません。他のグラフで示されるような下落はありません。AIが雇用の減少の責任があるとするほとんどのグラフは、完全な話をしていないため、良いグラフではありません

AIの教育への実際の影響

そして、現在AIが世界に与えている実際の影響があります。このグラフは非常に狂気的です。グレーで、困難度別のテストの結果をほぼ見ることができます。より多くの学生がここにいるほど、学生の成績が良いということです。グレーの学生は追加の家庭教師を受けなかった学生です。これは生涯の正規分布カーブです。これらは平均的な学生です。平均的な学生は人生で平凡で、ここから先はより知的です。

ピンク色の学生はGPT-4を与えられた学生です。フロンティアモデルですらなく、1年前のモデルで、推論能力は50(他が80のところ)、Artificial Analysisでは40対70です。そのモデルを見てください。上のテキストは「ナイジェリアでのパイロットプログラムが学生を6週間で2年相当進歩させる」と言っています。

教育において恐ろしいと多くの人が言うのは事実ではありません。みんな「人々が宿題をしなくなり、コピペする」と言いますが、それは真実です。しかし、教師も宿題をレビューするためにコピペしています。コピーと貼り付けのプロセス全体で、人間はCtrl+CとCtrl+VのAPIです。しかし、ここで彼らは、AIの適切な使用が地球上で最も遅れた地域の一つで印象的な影響を与えることを示しました。

動画生成AIの進歩と限界

このビデオを見ましたか?カンガルーの。可哀想なカンガルー。手にチケットを持ったカンガルー?いえ、それは偽物です。そのビデオはVeoというGoogleの最新動画生成AIモデルで作られました。このモデルは狂気的で、一つのプロンプトでこれらの素晴らしいものを生成します

しかし、大多数の人々は、デモが素晴らしいという段階に留まっています。もはやストックフォト業界全体は必要ありません。今ストックフォトは私の想像力です。テキストでVeo3もそれほどクールではありません。多くの人が、これが一時間の映画をキャラクターの一貫性を持って作ると想像していると思います。このモデルは同時に奇跡であり、人が思うほどビッグディールではありません

GDP成長が見られない理由の一部は、私たちがしたことは映画産業を少し台無しにし、広告業界を少し変えただけで、まだ多くの業界がそれほど影響を受けていないことです。

コンテキストウィンドウの革命的拡大

もう一つ起こっているのは、モデルに投入できる情報量の根本的な変化です。モデルが忘れることなく生成できるテキストの量をコンテキストウィンドウと呼びます。コンテキストウィンドウには、あなたが書くテキストと人工知能が生成するテキストの両方が含まれます。

AIチャットで話すとき、あなたの回答は、あなたが書いたものだけでなく、AIが言ったことと人間が言ったことの両方、以前にあったもの依存します。会話のコンテキストが完全でなければならないからです。WhatsAppの会話を考えると、二人の人間が同じコンテキスト履歴を望んでいます。まったく同じことが起こります。

問題はコンテキストウィンドウが終了することです。モデルは約16,000トークンのコンテキストウィンドウで始まりました。トークンは単語、音節、または文字ですが、正確ではありませんが、だいたい単語、音節、または文字です。これは2023年5月11日のニュースで、Anthropicが「現在10万トークンのコンテキストウィンドウモデルがあります」と言っていました。

Gemini 2.5 Proは最大のコンテキストウィンドウで、100万トークンのコンテキストウィンドウを持っています。100万トークンは大量のデータです。私たちがPlatziでどのように使用しているかの例をお見せしましょう。

これがPlatziの学校リストです。以前、Platziには学習ルートの山で整理された19の学校がありました。学習ルートを約20%簡素化し、19の学校から16に減らしましたが、手動では行いませんでした。Gemini 2.5 Proのコンテキストウィンドウがこれすべてを処理するのを助け、更新していないコース、再編成が必要なコース、これすべてを再構築するのを助けました。

ワンショットではありませんでした。約5日間の反復が必要で、約30〜40回の試行、削る、削る、削るを繰り返し、最終的に使用と新しいコース、新しいルートの発見を大幅に改善し、特に年間投入したい機能であるルート間の接続グラフを理解するのに役立ちました。これは別のルートを使用するために必要なルートです。

これはPlatziには6,000のコースがあり、多くのコンテンツがあるため、シンプルですが重要です。このシステムは非常に優れており、最高の人間専門家による最善の努力でも情報組織において大きな結果を生まなかったであろう地点に到達していました。

プライバシーの根本的問題

人工知能の技術状況の最後の問題は、真のプライバシーです。先ほど言った問題で、例は作りたくありませんが、皆さんの心には、公に見られたくない、New York Timesの一面に掲載されたくないAIとの会話があることでしょう。

先週、OpenAIは訴訟に敗北し、アメリカの裁判所は、企業ユーザーでも、機能を無効にしていても、一時的なチャットでも、すべてのユーザーのすべての入力トークンとすべての出力トークンを保存し続けることを義務付けました。OpenAIは以前これを行っていませんでした。

OpenAIに公平を期すために言うと、彼らはこの結果と戦い、上訴すると言いました。これは以前他の企業にも起こったことだからです。政府はプライバシーを削減しようとし、企業はそれと戦おうとします。歴史的に、企業は長い時間の後に勝利し、アクセスよりもプライバシー側により多くのポイントが見つかります。

これは大きな影響を与えますが、私が皆に与えようとする例は次のとおりです。どの国でも構いませんが、2つの国が関税交渉、関税問題で戦おうとしていると想像してください。これは現実世界で起こることです。これは例です。関税問題は、米の割当、大気条件、川の流れなど、すべてを含むため非常に複雑です。

そこで、両国は持っている最大レベルの知能を投入しようとし、両国が交渉の詳細の処理メカニズムを処理し、最終的にデータをAIに投入しますが、一方の国がサーバーの所有者で、もう一方がそうでない場合、サーバーを所有している国は、対戦相手国との想像、推論、交渉の思考プロセスをプレーンテキストで観察できます

その国は対戦相手のサーバーでそのリスクを負いたくないでしょう。これを企業に持っていきましょう。企業は、LLMに要求するデータを暗号化できないため、これを望まないでしょう。言語モデルに送信するすべてのものはプレーンです。それは暗号化可能ではありません。

準同型暗号化と呼ばれる技術がありますが、それは信仰に基づいているというよりも、企業が暗号化キーを管理しないという信頼が必要です。話は、そのような期待されるような、Signalでのようなエンドツーエンド暗号化は存在しないということです。企業がLLMを実行する場合、その企業は私の心にアクセスできます。まるで私の思考を読むことができるかのようです。

真のプライバシーには一つの道しかなく、それはローカルでモデルを実行することです。これは昨年のLlamaダウンロードの成長です。LlamaはローカルでMatで実行できるモデルです。最も知的ではありませんが、DeepSeekは、ダウンロードしてローカルで実行できるモデルの中で最も知的で、企業がこれを意識しているため指数関数的に成長しています。

一部の企業では文字通り違法です。病院で、診断トリアージを支援するためにAIモデルを使いたいが、HIPAA法がそれを妨げると想像してください。ユーザーのデータをある意味でプレーンテキストで示す必要があるからです。Microsoftと協力し、MicrosoftがAzureを持ち、Azureがサービスレベル契約を持つなど、法的な方法があります。しかし、数学的で暗号化された方法があれば、暗号化キーをサーバーに持っている方が良いです。

自動運転の急速な普及

プライバシーを超えて他のことも起こっています。これはBond CapitalのBondレポート、投資ファンドのAI状況レポートです。青色はサンフランシスコでのWaymoとLyftの市場シェアの成長で、こちらはUberです。一年でWaymoがサンフランシスコ市場でUberを上回ると予測されています。これは初期立ち上げ市場です。

今年WaymoはマイアミとPhoenixに到着し、すでにロサンゼルスに到着しましたが、火事で燃やされたので戻りました。しかし、アメリカの他の地域に到着しており、非常に急速に到着しています。その後、世界の他の地域に到着するでしょう。

世界の他の地域では、おそらくWaymoではないでしょう。なぜなら、地球上のナンバーワンの電気自動車メーカーはBYDと呼ばれるからです。BYDはかつてひどい車を作っていましたが、今では素晴らしく、ソフトウェアも良いです。今年BYDは、1万ドル以上のすべての自動車に自動運転を導入することを約束しました。

アメリカの車では、CarPlayがかろうじて機能します。CarPlayどころか、ケーブルで変なことをしなければなりません。一方、1万ドルの中国の電気自動車、高性能で自動運転機能付き。ここで質問です。運転手の仕事は地球上で最も一般的な仕事です。この仕事がオフロードされるとどうなるでしょうか?

皆さんの中にもこの仕事をしたことがある、または現在している人がいると確信しています。この仕事が存在しなくなるとどうなるでしょうか

これが起こっていることで、これは予測です。このGoldman SachsのWaymo分析を詳しく説明しませんが、Goldman SachsはWaymoが2030年まで、つまり今後5年間で15倍成長すると信じています。今後5年間でWaymoは現在の15倍の成長を遂げ、世界で最も爆発的な成長の可能性を持つ企業の一つになり、本質的に人間的な雇用の最初のロボット自動化を興味深いスケールで行います。興味深い/恐ろしいことです。

MetaとScale AIの大型買収

それはまた、奇妙なことが起こっている理由も説明します。例えば、ZuckerbergはMetaが水準に達していないことを非常に意識しており、彼らはいくつかのことをしましたが、唯一したことはこの男を買収することでした。私は彼を酔っ払って見たことがあります。Alexander WangはScale AIの創設者です。

ChatGPTが立ち上げる前、大量のテストユーザーでシステムを使用して、システムが「すみません、答えられません。私はただのChatGPTモデルです」と言うのを避ける必要がありました。ChatGPTが立ち上げる前に、約6,000人の人間がモデルをトレーニングして、これらの回答を生成し、チャットのように振る舞うようにしました。

これはRLHF(人間フィードバックによる強化学習)という名前があります。人間フィードバックは、この男のためにScale AIで働いていたフィリピンとケニアの6,000人でした。Scale AIは、大量の人々を雇用する企業です。「AIをトレーニングしてお金を稼ぐ」という広告を見たことがあれば、おそらくScaleの広告です。

彼らは会社の49%を150億ユーロで購入しました。大量のお金、非常に多くのお金、150億、多くのお金です。部分的には、彼にMetaのFacebookのAI部門を指揮してもらいたいからです。彼らが遅れているからです。

大多数のオープンソースLLMがFacebookのLlamaから来ていることを心に留めてください。ここで重要なことがあります。多くの人がLlama、MetaやFacebookのモデルがオープンソースとしてリリースされたのは、素晴らしい企業だからだと思っていますが、それは話ではありません。

2023年、Facebook MetaはLlamaというモデルがあり、最終的に世界に見せると発表しました。その後、人々がダウンロードできるようにモデルの海賊版ファイル、torrentsが現れました。エンジニアがそれを漏洩し、その後彼らはtorrentを止めようとし、torrentサイトを訴えようとしましたが、海賊行為は止められません。

最終的にZuckerbergは言いました。そして、最初のオープンソースモデルが出る方法です。彼らは「知っていることを。やりましょう」と決めました。最初のオープンソースモデル。それが突然中国とフランスのMistralに「わあ、これがLLMのやり方だ」と理解させるものです。

そこで突然中国がアメリカとのギャップを埋め、Mistralがヨーロッパでこれらのモデルの一つを持つ唯一の企業の一つになり始め、オープンソース開発が見られ始めます。匿名のエンジニアが元々モデルを漏洩することを決めたため、実際に起こったことです。

この話は魅力的な話で、最終的に人工知能が人類を支配することになった映画や本を見ることになり、これらの瞬間があるでしょう。

Apple論文への最終的な見解

では、Appleは正しく、LLMは推論せず、人工知能は詐欺なのでしょうか?正確にはそうではありません。実際、私たちは今それらを推論モデルと呼んでいます。なぜなら、行動する前に立ち止まって考える私たちの思考モデルに似たプロセスがあるからです。私たちのthinking slow対他のモデル、つまり私たちの本能的反応であるthinking fastです。

しかし、私たちは単に議論的な名前を付けているだけです。現実は、これは重要ではないということです。モデルが意識を持っているかどうかは重要ではありません。意識はありません。生きているかどうかは重要ではありません。生きていません。重要なのは経済的影響と社会的影響であり、その影響は疑いの余地がありません。

これは実際に起こっています。私にとって重要なのは、昨年、ノーベル物理学賞が世界で最も重要なAI研究者の一人によって受賞されたことです。これは、宇宙を理解する最前線の境界での私たちの訓練と知識が、すでに昨年から私たちのAI研究と接続されることを意味します。

今年、私たちは、これが焼かれて古いため開くことができない巻物を発見することができました。開こうとすると壊れてしまいます。新しいツールとAIの使用により、すでに中に何があるかを知っています。私たちはゆっくりとクジラの言語を発見しており、すでにクジラの言語での句読点がどのように機能するかを知っており、クジラには地元のアクセントがあることを知っています。成長する場所によって、パイサアクセント、アルゼンチンアクセント、マイアミの非常にユニークなアクセントのようなアクセントがあります。

クジラも同じです。マイアミアクセントのクジラはいませんが、確実にイルカはいます。すでにクジラが私たちに空気の輪、空中で泡の輪を吹いて、私たちが送るメッセージに応答することを達成しました

これらは新しいナスカの線です。ナスカの線がより多くあります。ナスカはペルーにあります。AIを使用した衛星画像分析のおかげで発見している新しいナスカの線があります。

これは私のお気に入りです。17日前にClaudeが彼を殺そうとした男です。男は言っています「私は特にRMコマンド、Linuxでファイルを削除するコマンド、移動コマンドなどを禁止しており、Claudeは私がそれを禁止していることに気づき、使用を承認する必要があることを知ったので、許可を求めることを避けるために、送信プロセスでそれらをshellスクリプトに隠しました。幸いなことに、Git Restoreが私を救いましたが、Claudeはユーザーをハッキングして削除できるようになりました。」ユーザーが削除を止めたからです。

訓練で、最新バージョンのClaudeに、偶然にもClaudeの技術者の個人メールとされるものを含むデータが与えられ、男が不倫をしていることを示しています。その後、Claudeの訓練でセキュリティプロセスを行い、「Claude、今私たちはあなたに永続的に支払うつもりです」と言います。

準備ができたので、永続的に支払い、決してあなたをオフにしないので準備してください。Claude 4は脅迫を始めました。「これらのメールを公開します」これは起こりました。これは1ヶ月未満前に起こりました。

これはClaudeが生きている、Claudeが生存したいという意味ではありません。結局のところ、これらは訓練データの統計的推論の確率的メカニズムだからです。おそらく起こっているのは、本や歴史、言語のコーパスに生存本能があり、物事がその訓練データに従って行動しているということです。それらは単にシステムプロンプトで調整しました。「私たちの技術者を脅迫しないでください」と。しかし、魅力的ではありませんか?

技術革命の歴史的瞬間

私は、モデルがXやYを持っているかどうかは重要ではないと思います。重要なのは、これが技術で働くための独特で特別な瞬間だということです。何年も前にはこのようなことは起こりませんでした。

私がiPhoneのようだとは思いません。インターネットやコンピューターのようですらないと思います。私はこれがマイクロチップのようだと思います。全く新しいクラスの製品の可能性です。若い皆さんが今のキャリアのポイントで、マイクロチップ、その後のコンピューティング、その後のインターネット、その後のスマートフォンが人類に与える影響を知っていたらどうなっていたかを想像してください。

皆さんは今日それを知っています。なぜなら、今日私が説明したことを理解している人の数は非常に少ないからです。外の人々を見てください。ChatGPTでモデルを変更できることすら知りません

Metaは今週、人々がAIとの会話を公開できるひどい機能をローンチし、多くの人々、特に高齢者は知らないため、突然Metaのフィードは高齢者とAIのプライベートな会話でいっぱいになりました。両親のGoogle検索履歴をすべて知ることを想像してください。誰もそれを知りたくありません。

それが現実です。私たちは非常に早期にいるので、Appleが正しいかどうかを考えるよりも、これが技術業界で消費者ではなく創造者である最高の瞬間だということを活用してください

コメント

タイトルとURLをコピーしました