サム・アルトマン「何百万ものソフトウェアエンジニアリングエージェント」と「視界に入ったAGI」

AGIに仕事を奪われたい
この記事は約21分で読めます。

12,243 文字

Sam Altman "MILLIONS of Software Engineering Agents" and "AGI in sight"
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

サム・アルトマンが先日、3つの重要な観察を発表しました。ここでの大きなアイデアは、AGIがもう目前に迫っているということです。以前の動画で、人間を超える能力を持つコーディングエージェントについて話しましたが、OpenAIが初めて推論モデルを持った時、それは世界で100万番目に優れたコーダーでした。当時はそれでも「AIがコーディングできる、世界で100万番目のコーダーだ、すごい!」と思っていました。
その後、o1は世界で1万番目くらいのコーダーになりました。これは2024年9月にリリースされましたが、もちろんそれ以前から開発されていました。そして2025年1月にo3ミニが登場し、o3は世界で175位のコーダーだと彼は言及しています。
現在、彼らの内部モデルは世界で50位のコーダーとなっており、2025年末までには世界一のコーダーになる可能性が高いと述べています。これは文字通り、人間を超えるコーダーとなるでしょう。
彼はこれがどのように見えるかについてもう少し詳しく説明していますが、サム・アルトマンとOpenAIには、この技術を私たちに徐々に導入し、また新しいアイデアも徐々に紹介していくという考え方があります。これらのアイデアは新しいものではなく、AI界隈では長い間議論されてきましたが、この技術が徐々に世界に浸透していくにつれ、私たちはその現実に直面することになります。
先日公開されたサム・アルトマンのブログ投稿を読むと、これがどこに向かっているのかを理解する上で重要なアイデアが見えてきます。これはコードフォースのELOレーティングで、特定のコーディングタスクをどれだけうまくこなせるかを示しています。これはベンチマークであり、問題は広範なソフトウェアエンジニアリングの問題ではなく、特定の演習問題に限定されているということを覚えておく必要があります。しかし、それでもAI技術がソフトウェアエンジニアとして効果的にコーディングする能力の成長を示しています。
2022年末、GPT-3.5は0でした。コーディングを試みましたが、単に失敗するだけでした。GPT-4は良い成績を収めました。GPT-4は人々が原始的なAGIまたはマイクロソフトが言うところの「AGIの火花」と呼んでいたものですね。ELOレーティングで400弱を記録し、その後、このチャートは急激な上昇を見せています。
o3フルは2727に達し、o4は3000を超えると予測されています。私たちはこのようなチャートをしばらく見てきましたので、ニュースやこの分野の動向をフォローしている多くの人々は、この加速的な進歩、能力の指数関数的な成長を理解し始めています。このチャートのような形を把握し始めており、他にも多くの同様のチャートがあります。
素晴らしいことに、私たち人類は今、人工知能が指数関数的に進化するという考えに慣れ始めています。その概念を理解し始めているのです。しかし、新しい概念について話してみましょう。これも新しいものではなく、以前から聞いたことがあるかもしれませんが、大多数の人々にとって、これらのチャートが最初に見た時にショックだったように、この新しい次元の概念も最初は少し衝撃的かもしれません。
そのアイデアは非常にシンプルです。私たちはよくこれらをAIアシスタント、AIエージェント、AIツールなどと呼びます。映画でもこの概念を目にしますよね。通常、良い映画でも悪い映画でも、私たちが話をする相手のAIは1つだけです。しかし現実には、おそらく、いや確実に、これらの大群が存在することになるでしょう。1つではなく、10個、100個、1000個、100万個が特定のタスクに取り組むことになります。
より小さなモデルが、それぞれの特定のタスクで非常に効果的であることを私たちは目にしています。したがって、1つの大きな賢いモデルがタスク全体を行うのではなく、1万個の小さな効率的なモデルが、昆虫のように自分の得意分野、専門分野に特化して集中的に取り組む可能性が高いのです。
さて、ブログ投稿に入っていきましょう。「3つの観察 – 私たちのミッションは、AGI(人工汎用知能)が人類全体に利益をもたらすことを確実にすることです」と題されています。
ところで、多くの人々は、OpenAIは完全にオープンソースであるべきだと主張していました。それが当初のビジョンでした。最近、イリヤ・サツケヴァー、サム・アルトマン、グレッグ・ブロックマン、そしてイーロン・マスクの間の内部コミュニケーションが明らかになっています。特に訴訟の中で、イリヤ・サツケヴァーが「この技術がより強力になるにつれて、オープンソース化はしません。それは極めて愚かで危険です」と述べているのを目にしました。
OpenAIが研究の共有アプローチを変更した理由、つまり研究を共有し、モデルをオープンソース化することについて尋ねられた際、彼は「私たちは間違っていました。率直に言って間違っていました。もし私たちのように、ある時点でAI、AGIが極めて強力になると信じるなら、それをオープンソース化することは理にかなっていません。それは悪いアイデアです。数年後には、AIをオープンソース化することが賢明ではないということが誰の目にも明らかになると確信しています」と答えています。
その後、例えば東京大学でのQ&Aセッションで、サムは更なる研究とオープンソースプロジェクトを共有していく予定だと述べています。具体的な内容はありませんでしたが、その方向に少し動いているようです。どうなるか見守っていきましょう。
しかし、OpenAIの背後にあるアイデアは、人類全体に利益をもたらすAIを作ることでした。2017年頃まで遡るメールでそのような話をしていたようです。
サムは続けています。「AGIを示唆するシステムが視界に入ってきており、私たちは今がどのような時代なのかを理解することが重要だと考えています。AGIは曖昧な定義の用語です。私もそれには同意します。しかし一般的に、私たちはそれを多くの分野で人間レベルの、ますます複雑な問題に取り組めるシステムと考えています。
人々はツールを作る存在であり、理解し創造しようとする本質的な衝動を持っており、それが私たち全員にとってより良い世界につながります。各世代は前の世代の発見の上に積み重ねて、さらに強力なツールを作り出します。電気、トランジスタ、コンピュータ、インターネット、そして間もなくAGIです。
時間とともに、断続的ではありますが、人類のイノベーションは着実に進み、以前は想像もできなかったレベルの繁栄と、人々の生活のほぼあらゆる面での改善をもたらしてきました。ある意味で、AGIは私たちが共に構築している、この常に高くなっていく人類の進歩の足場の中の、単なる別のツールに過ぎません。
別の意味では、今回は違うと言わずにはいられないような何かの始まりです。そう感じませんか?私たちの目の前にある経済成長は驚異的で、すべての病気を治療し、家族と過ごす時間をより多く持ち、創造的な可能性を完全に実現できる世界を想像することができます。おそらく10年後には、地球上の誰もが、今日最も影響力のある人ができること以上のことを成し遂げることができるようになるでしょう」
これは考えるべき興味深い概念です。確かに、1人の人間と多くのAIで運営される10億ドル企業や、1人の人間と多くのAIで制作される素晴らしい映画は想像できます。確かにそのアイデアは理にかなっています。
「AIの開発で急速な進歩を続けて目にしています。AIの経済性について3つの観察を共有します」
最近、DeepSeekがR1モデルやV3、R10を発表し、それが市場を驚かせました。NVIDIAの株価が下落し、AIの様々な側面について多くの議論が行われました。ジーヴァンの法則や経済性などについてです。
この中国のモデルが示唆しているのは、アメリカ企業がやってきたよりもはるかに安価で効率的にAIモデルを作れるということです。正確な数字は忘れましたが、10倍安価、50倍安価といったものもあり、推論は98%安価だったと思います。もし数字を間違えていたらすみません。
しかし、これらのモデルの構築と実行が何桁も安価で効率的だということで、AIチップやNVIDIA製品への需要が大幅に低下すると予想されました。リソースがより効率的になれば、より多くのことができるようになり、必要量が減ると考えられるからです。
もちろん、ジーヴァンの法則を引用して逆の主張をする人もいます。つまり、リソースが安くなれば、実際にはより多く使用する可能性があるということです。例えば、燃費の良い車を手に入れた場合、同じ距離を走って燃料を節約するのではなく、ロードトリップに出かけることを決めるかもしれません。
サムは次のように述べています。「1つ目の観察は、AIモデルの知能は、訓練と実行に使用されるリソースのログに大体比例するということです」つまり、電気、計算能力、データなどのリソースを指数関数的に増やすことで、どんどん良いモデルが得られるということです。これらのリソースは主に訓練用の計算能力、データ、推論用の計算能力です。任意の金額を投資して、継続的で予測可能な進歩を得られることが分かっています。この関係を予測するスケーリング則は、多くの桁にわたって正確です。
これを示す良い視覚的な例があります。ここに犬と帽子があるはずですが、これは何だか分からない悪夢のようなものですね。まあ、犬らしきものは分かりますが。ベースとなる計算リソースを4倍にすると、つまりチップの数を4倍にするか、訓練時間を4倍にするかして、より多くのハードウェアリソースを使ってそのモデルを訓練すると、突然、背景の人物や雪、子犬などがはっきりと見えるようになります。
次の画像では、ベースの計算リソースを30倍使用した場合どうなるかを示しています。ご覧の通り、超リアルになり、影は完璧で、着地した場所の雪が舞い上がるのも見えます。とても良い出来栄えです。変わったのはハードウェアリソースを増やしただけです。
また、これが指数関数的な成長であることにも注目してください。ベースから4倍、そして32倍というような指数関数的な飛躍が、これらを目に見えて良くしているのです。これは今のところ、多くのAIモデル、大規模言語モデルなどに当てはまっています。
サムは続けます。「2つ目の観察は、特定のAIのコストが12ヶ月ごとに約10分の1になり、価格が下がるとその使用が大幅に増えるということです」この数字については様々な見積もりがあり、10倍という数字もありますし、14倍という高い見積もりもありますが、10倍というのは良い目安だと思います。
これは、2023年初頭のGPT-4から2024年半ばのGPT-4oまでの間に、トークンあたりのコストが約150倍下がったことからも分かります。トークンは単語のようなものと考えることができます。出力と入力は厳密には単語ではなく、一部の単語は複数のトークンに分割されますが、出力と入力の単語あたりのコストが150倍下がったと考えることができます。
ムーアの法則は18ヶ月で2倍という変化で世界を変えましたが、これは信じられないほど強力です。
サムは続けます。「3つ目の観察は、知能を線形的に増加させることの社会経済的価値は、超指数関数的な性質を持つということです。その結果として、近い将来に指数関数的な投資が止まる理由は見当たりません」
このハードウェアやコンピューティング、AIチップへの需要が低下するかどうかについては、多くの議論がありました。考え方としては、最高のAIモデルを作るために100億円の予算があり、翌日にそのモデルを作るコストが半分になったとしても、50億円で済ませようとはしないということです。依然として100億円全額を使って、可能な限り最高のものを作ろうとするでしょう。
誰も特定のベンチマークスコアを目指していたわけではありません。最高のものを作ることを目指していたのです。100億円の予算があれば、100億円使うつもりだったのです。モデルの構築がより効率的で安価になれば、それはただモデルがより良くなるということであり、差額を節約するということではありません。
ここでサムは、この分野への指数関数的な投資の増加が続くと予想しており、「もしこれら3つの観察が真実であり続けるなら、社会への影響は重大なものとなるでしょう。私たちは今、AIエージェントの展開を始めていますが、これは最終的にバーチャルな同僚のように感じられるようになるでしょう」と述べています。
これは私が先ほど言及した部分で、いわば理論が現実と出会う部分です。これは2025年中に見ることになるものについて話しているからです。彼らはすでにほのめかしていましたので、これが来ることは分かっています。
サムは続けます。「ソフトウェアエンジニアリングエージェントの例を考えてみましょう。現在、コードフォースのベンチマークによると、内部モデルは世界で50番目に優れたコーダーです。1、2年前、あるいはそれ以前の最初の推論モデルが100万番目だったことを考えると、これは大きな進歩です。おそらく2023年後半だったと思います。
このエージェントは、トップ企業で数年の経験を持つソフトウェアエンジニアができることの大部分を、数日程度のタスクであれば実行できるようになると予想しています」
ここ2ヶ月ほどの間に、OpenAIから全く新しいものが登場しています。それは即座に答えを返さないツールやエージェントです。オペレーターに対して、これを検索してこれをやってと指示すると、クリックを始めて作業を行います。私は一度、オンラインでマインスイーパーゲームを見つけて勝利するように指示したことがありましたが、23分間頑張り続けました。最終的には失敗して諦めましたが、23分間粘り強く挑戦し続けたのは驚くべきことでした。
オンラインでは、もっと長い時間作業を続けたという投稿も見かけます。最近リリースされたDeep Researchでも、10分、20分、30分ほどかけてプロジェクトを深く研究し、終わったら「はい、ご要望のレポートができました」と通知してくれます。
ここで彼らが言っているのは、このソフトウェアエンジニアエージェントが数日間作業を行い、その後完成したプロジェクトを持って戻ってくるかもしれないということです。それについて少し考えてみてください。数日かかるということは、かなり複雑なプロジェクトに取り組めるということを示唆しています。それはちょっと凄いことですよね。
サムはさらに続けます。「これは最も大きな新しいアイデアを生み出すわけではありません。多くの監督と指示を必要とし、いくつかのことには優れていますが、意外なことに他のことは苦手です」
私はいつもイーサン・モリックのアイデアを思い出します。彼がその用語を作ったと思いますし、少なくとも私が最初に聞いたのは彼からでした。彼のSubstackで見た有用な考え方は単純です。人間の等価な難しさのタスクを点線で表すと、それは私たちが同じ難しさだと考えるタスクです。ある人がタスクAができると言われたら、同じような難しさのタスクBやCもできるだろうと考えます。
しかしAGIの能力は、上下に激しく波打つギザギザの線のようなものです。なぜなら、ある特定のことについては超人的な能力を発揮し、他の予想外の簡単なことで完全に失敗するからです。それがサムの言う「いくつかのことには優れているが、意外なことに他のことは苦手」という意味です。
AIの実践者として私たちが持つべきスキルの1つは、特定のユースケースでAIに何をさせようとしているのか、そのギザギザの境界線を理解する能力です。また、異なるモデルがどのように進化し、その境界線をどのように前進させるのかを理解することも重要です。
以前、AIモデルに与えていたパズルがありました。ボード上に特定のピースを配置し、あるピースは別のピースの隣に置けないなどの制約がありました。GPT-4やその他のモデル、Geminiモデルなど、どのモデルも効果的に解くことができませんでした。しかし推論モデルのo1が登場すると、完璧に解いてしまいました。
ブログは続きます。「それでも、実在する比較的ジュニアなバーチャル同僚として想像してください」これは私たち多くが持つ必要のある重要な心の転換だと思います。そして、そのような同僚が1000人、あるいは100万人いることを想像してください。さらに、そのようなエージェントがあらゆる知的労働の分野にいることを想像してください。
この経済性は、特定のタスクを行う1000個のエージェントを実行するコストが数セントで済み、それらのタスクで極めて効果的である可能性があります。そのため、これらのAIエージェントの大群が現れることが予想されます。1つのエージェントがゆっくりと作業を進めるのではなく、全ての問題に一斉に取り組む大群です。
ある意味で、AIはトランジスタのような経済的な存在になるかもしれません。それは、うまくスケールし、経済のほぼすべての隅々に浸透する大きな科学的発見です。私たちはトランジスタやトランジスタ企業についてあまり考えませんし、その恩恵は広く分配されていますが、私たちのコンピュータ、テレビ、車、おもちゃなどが奇跡のような性能を発揮することを期待しています。
世界は一度に変わるわけではありません。そんなことは決してありません。短期的には、生活は大部分が2024年と同じように続くでしょう。私たちは依然として恋をし、家族を作り、オンラインで議論を戦わせ、自然の中をハイキングするでしょう。そして、オンラインで議論を戦わせることが大好きな人もいますよね。インターネット上で誰かが間違っているときには、必ず正しい方向に導こうとします。
実際、オンラインで質問しても答えが得られない場合、正確な情報を得るには、わざと間違った答えを投稿する方が良いという法則があります。すぐに誰かが訂正しに来るからです。これは実際の法則で、マーフィーの法則と呼ばれています。ご覧の通り、非常に正確です。
サムは続けます。「しかし、未来は無視できないような形で私たちに迫ってくるでしょう。私たちの社会と経済への長期的な変化は巨大なものとなるでしょう。私たちは新しいことをする方法、お互いに役立つ新しい方法、競争する新しい方法を見つけるでしょうが、それは今日の仕事とはあまり似ていないかもしれません。
主体性、意志、決断力は極めて価値のあるものとなるでしょう。何をすべきかを正しく決定し、絶えず変化する世界をどのように進んでいくかを理解することは、大きな価値を持つでしょう。回復力と適応力は、育成すべき有用なスキルとなるでしょう」
ADHDを持ち、物事が安定しすぎて、退屈で、単調で、ルーチン的すぎるために学校や仕事で苦労してきた人々にとって、私は「これは私たちの時代です。これこそ私たちが訓練してきたことです」と言いたいですね。
サムは続けます。「AGIは人間の意志に対する史上最大のレバレッジとなり、個人がこれまで以上に大きな影響力を持つことを可能にします。より少なくなるのではありません」
私は以前にもこのことに触れましたが、皆さんはどう思いますか?人類の歴史のほとんどの期間、個人の潜在能力はそれほど大きくありませんでした。平均的に見てということですが。そして、より多くのことが自動化される未来を想像することができます。100年後、200年後、ほとんどのことが超知能AIによって処理され、再び個人が与えられる影響力はそれほど大きくないかもしれません。ほとんどのことが最適化され、発見され尽くしているでしょう。
しかし今、このものが出現しつつある時、個人の能力、その潜在能力は急上昇すると思います。前例のない巨大な潜在能力を持つ短い期間があり、私たちはまさにそれを生きているのです。
なぜ「いかに」と書いたのか分かりません。「今」と書くつもりでした。申し訳ありません。
「AGIの影響は不均一になると予想しています。一部の産業はほとんど変化しないかもしれませんが、科学の進歩は今日よりもはるかに速くなるでしょう。AGIの影響は他のすべてを凌駕する可能性があります」
つまり、AIが自己改善を自動的に繰り返し、AIがAI研究を行うという、本当に急速に回転し始めるフライホイールのようなものです。
「多くの商品の価格は最終的に劇的に下落するでしょう。現在、知能のコストとエネルギーのコストが多くのものを制約しています。一方で、高級品や土地のような本質的に限られたリソースの価格は、さらに劇的に上昇する可能性があります」
サム・アルトマンのムーアの法則に関するブログ投稿で、彼は非常に先見の明のある主張をしていると思います。100%正しいと思います。無限の知能と高性能なロボットがある世界を想像してみてください。多くのものが希少でなくなります。
例えば、大邸宅を建てるコストは、ロボットの軍隊が建設できるようになればずっと安くなるかもしれません。医療も同様に価格が下がるでしょう。では、本質的に限られた需要のあるリソースは何でしょうか?土地は確実にその1つです。
サムは続けます。「技術的に言えば、私たちの前にある道は相当明確に見えます」多くの人々が、AGIへの道は直線的だと言っています。イリヤ・サツケヴァーの会社は「安全な超知能を構築している」と言い、人々は「それは視界の中にある、もう技術的な制限はない、そこに到達する方法は分かっている」と言っています。
しかし彼は続けます。「しかし、AGIを社会にどのように統合すべきかについての公共政策と集団的意見は非常に重要です。早期から頻繁に製品をリリースする理由の1つは、社会と技術が共に進化する時間を与えるためです。AIは経済と社会のあらゆる分野に浸透していくでしょう。私たちはすでに、AIがますます多くのものと交差していくのを目にしています。
今や私たちは、すべてがスマートになることを期待するでしょう。すべての人がそうではないかもしれませんが、確実にすべてのものがそうなります。多くの人々が、歴史的に行ってきた以上に技術に対する制御を人々に与える必要があると期待し、安全性と個人の権限付与のバランスにはトレードオフが必要であることを受け入れるでしょう」
はい、一部の研究では、彼らが「自己複製の赤線」と呼ぶものを私たちは越えたとしています。これは、現在オープンソースで利用可能な、最高のモデルよりも小さなモデルでさえ、他のコンピュータに自己複製し、そのチェーンを継続し、それを実行する方法を見つける能力があるということを意味します。オープンソースとは、自分のコンピュータでローカルに実行できるということです。独自のモデルであれば、1つの中央拠点からシャットダウンできますが、オープンソースはそうはいきません。
私はオープンソースが好きですし、その発展を望んでいますが、それにはいくつかのリスクが伴います。どちらか一方を推すつもりはありませんが、それが事実だと感じています。
「個人的には、オープンソースは非常に重要だと考えています。私たちは決して無謀になりたくありませんし、AGIの安全性に関連するいくつかの重要な決定と制限は人気がないかもしれませんが、方向性としては、AGIに近づくにつれて、個人の権限付与をより重視していくべきだと考えています。
私たちが見える別の可能性のある道筋は、権威主義的な政府がAIを使って、大規模な監視と自律性の喪失を通じて人口を管理するというものです」
これは実際にはあまり話題にされない大きな問題ですので、彼が取り上げてくれて嬉しく思います。このような話題をフォローしている人々のほとんどは、P-Doomというアイデアを聞いたことがあると思います。何か悪いことが起こる確率、AIが人類に何か壊滅的な影響を与えるような実存的リスクの確率について議論されています。
もう1つの概念は、権威主義的な政府の考え方です。P-1984と呼ばれています。権威主義的な政府と人々が自律性を持たず、集団思考によって導かれるという本からの引用です。AIはもし権威主義的な政府がそれを可能にすれば、その未来を非常に効果的に実現する可能性があります。決して覆されることのない永続的な体制かもしれません。明らかに非常に恐ろしいシナリオです。
「AGIの恩恵が広く分配されることを確実にすることは重要です。技術進歩の歴史的影響を見ると、私たちが気にかける指標のほとんど(健康状態、経済的繁栄など)は、平均的に見て、また長期的に見て改善しています。しかし、不平等の増加は技術的に決定されているわけではなく、これを正しく扱うには新しいアイデアが必要かもしれません。
特に、資本と労働の力関係が容易に崩れる可能性があり、これは早期の介入を必要とするかもしれません。私たちは、地球上の全ての人々がたくさんのAIを使用できるようにするための計算予算を提供するような、奇妙に聞こえるアイデアにも開かれています。しかし、単に知能のコストを可能な限り低く抑え続けることが望ましい効果をもたらす方法も多く見えています」
私個人の見解としては、長期的には非常に楽観的ですが、短期的、中期的には、つまりAGIが世界に登場し、私たちが準備できていない状態で、経済や労働、資本などについて何をすべきか模索している間は、懸念があります。
超知能とAIは、これまでの世界の構築方法、経済システムの構築方法とうまく適合しないからです。短期的、中期的には非常に波乱含みになる可能性があると思います。長期的には解決策を見出し、誰もがより良い状態になると楽観的に考えていますが、その移行期は、少なくとも私にとっては、最高のものではないかもしれません。
「2035年の誰もが、2025年の全ての人々に匹敵する知的能力を持つことができるはずです。誰もが無限の天才にアクセスし、自分が想像できる方法で活用できるようになるべきです。現在、自分の才能を完全に発揮するためのリソースを持たない才能が多く存在し、それを変えることができれば、世界の創造的な産出は私たち全員に大きな利益をもたらすでしょう」
そしてはい、これは残念ながら非常に真実です。以前の動画で紹介したように、バークレーの誰かがDeepSeek R10を再現しました。自己認知的な戦略を生み出す能力、あるいはそう呼びたいものを、30ドル未満で再現できました。その動画をまだ見ていない方は、絶対に見る価値があります。驚くべき内容です。ここでの可能性は巨大です。
この人物は主要な著者の1人で、複数の著者がいます。彼は自分が行ったことを説明し、最後にこう述べています。「もちろん1つの注意点として、これは彼らがテストした1つのタスクでのみ検証されており、一般的な推論領域ではありません。私たちは今、計算能力によって制限されています。手伝いたい方はご連絡ください」
この頭脳が、計算能力へのアクセスの制限によって制約されているという事実は悲劇です。それは犯罪的だと思います。そして、もしリソースを与えられれば、この世界をより良くし、科学を前進させるような人々が何百万人もいるはずです。サムが言うように「世界の創造的な産出は私たち全員に大きな利益をもたらすでしょう」
これがブログ投稿の終わりです。非常に興味深いことに、AGIの横にアスタリスク(*)が付いていることに気づいたかもしれません。それが何を意味するのか見てみましょう。
少し滑稽ですが、彼らは次のように述べています。「ここでAGIという用語を使用することで、明確なコミュニケーションを図ることを目的としており、マイクロソフトとの関係を定義するプロセスや定義を変更または解釈する意図はありません」
ご存知ない方のために説明すると、マイクロソフトとの契約には、AGIを達成した時点で契約が根本的に変更される、いくつかの合意事項が消滅するなどの条項があります。この点については多くの議論がありました。AGIを達成したと言った時点で、契約のその条項を再検討する必要が出てくるのではないかということです。
しかし彼らは「私たちはマイクロソフトと長期的なパートナーシップを続けることを完全に期待しています。この脚注は馬鹿げているように見えるかもしれませんが、一方で、一部のジャーナリストが馬鹿げたことを書いてクリックを得ようとすることを私たちは知っています。だから、ここで馬鹿げたことを先に防いでいるのです」と述べています。
そして確かに、馬鹿げたジャーナリストが馬鹿げた記事を書くという馬鹿げたことを先に防ぐことには、馬鹿げたところは何もありません。サムはそれが起こる前に防いでおく必要があったのです。笑い事ではありません。
最後に、皆さんはどう思いますか?これらのソフトウェアエンジニアエージェントの展開に私たちは準備ができているでしょうか?サムが言うような、これらのジュニアなバーチャル同僚が100万人いることに準備ができているでしょうか?
以前、インターネット上で正しい情報を得るには間違ったことを言う方が簡単だという法則があると言いましたが、私はそれをマーフィーの法則と呼びました。これは間違いです。私たちの間だけの話ですが、コメント欄で何人の人が訂正してくれるか本当に興味があります。少なくとも100人はいるでしょう。
その法則の名前を知らない方は、コメント欄を見てください。きっと見つかるはずです。
ここまでご視聴いただき、ありがとうございました。私の名前はウェス・ロスです。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました