OpenAIのCEOサム・アルトマンと最高科学責任者ヤコブが、同社の新しい組織構造と今後のビジョンを発表した。非営利団体のOpenAI財団が公益法人であるOpenAIグループを統括する新体制への移行を発表し、AGI(汎用人工知能)の実現に向けた具体的なロードマップを示した。ヤコブは2026年9月までにインターンレベルのAI研究アシスタントを、2028年3月までに自律的な研究プロジェクトを遂行できるAI研究者の実現を目指すと述べた。インフラ面では、30ギガワット以上のコミット(約1.4兆ドル)を発表し、将来的には週1ギガワットの計算リソースを生産する「インフラファクトリー」構想も明らかにした。OpenAI財団は250億ドルを投じてAIによる疾病治療研究と、新たな「AIレジリエンス」分野への取り組みを開始する。質疑応答では、GPT-4oの継続提供、成人ユーザーへのより自由な利用環境の提供、モデルのコスト削減と能力向上のバランスなど、ユーザーの関心事に応えた。AIが科学的発見を加速させ、人類の未来を大きく変える可能性について、具体的なタイムラインと共に展望を語った発表となった。

OpenAIの新たな方向性
こんにちは、私はサムです。こちらは当社の首席科学者、ヤコブです。今日はOpenAIに関する多くの最新情報をお伝えします。明らかに今日のニュースは私たちの新しい組織構造についてですが、それについては最後の方でお話しします。その前に、まず多くの重要な背景情報をお伝えしたいと思います。
これらの多くが重要であることを考えると、私たちの具体的な研究目標やインフラ計画、製品について、通常とは異なるレベルの透明性をもってお話しするつもりです。現時点では、これらすべてをカバーすることが公共の利益に大いにかなうと考えています。OpenAIの使命は、非営利組織と新しい公益法人の両方において、汎用人工知能が全人類に利益をもたらすことを確実にすることです。
これを構築することに近づくにつれて、それが何を意味するのかについて新たな洞察を得ています。OpenAIの初期には、AIまたはAGIは空に浮かぶ神託のようなものになり、私たちのために素晴らしいものをすべて作ってくれると考えていた時期がありました。しかし今では、より明確なビジョンがあります。それは、ツールを作成し、人々がそれを使って未来を創造するということです。
私たちはAIで人々に可能な限り力を与え、人類の歴史を通じて機能してきたプロセス、つまり人々がより新しく優れたツールを使ってより良いものを構築していくというプロセスが今後も続いていくことを信頼したいのです。私たちは今、人々がどこでも使える個人向けAGIを構築するビジョンを描くことができます。これらすべての異なるツールを使い、さまざまなサービスやシステムにアクセスして、仕事や私生活を支援するのです。
そしてAIがどんどん良くなるにつれて、AIが新しい科学を発見したり、発見を手助けしたりできるようになると、人々がそれを使って社会全体をより良くし、自分自身の人生をより充実させるために創造できるものは、非常に素晴らしいものになるはずだと考えています。OpenAIについて私たちが考える3つの核心的な柱があります。研究、製品、そしてインフラです。AGIを構築するために必要な研究で成功しなければなりません。
それを簡単かつ強力に使えるプラットフォームを構築しなければなりません。そして、人々が望むすべての素晴らしいAIを低コストで使えるように、十分なインフラを構築しなければなりません。これが私たちの世界についての考え方を示す簡単な図です。
この下層には、チップ、ラック、それらを取り巻くシステム、これらが入るデータセンター、そしてエネルギーがあります。最初の3つについては今日詳しくお話しし、エネルギーについては別の機会にお話しします。次にこれらの上でモデルをトレーニングします。その上にOpenAIアカウントがあります。現在アトラスと呼ばれるブラウザがあり、今後数年以内に、どこにでもAIを持ち歩けるデバイスが登場します。
そして、ChatGPTやSoraのようないくつかの自社製アプリがあり、時間とともにさらに増えていくでしょう。しかし、私たちが最も興奮しているのは、右上にあるこの大きなパズルのピースです。ついに、人々がAPIを使ってアプリやChatGPTで、時間をかけて持つことになる新しいエンタープライズプラットフォームで、オープンアカウントでなどで、AIを使って信じられないほどのサービスを構築できる世界が見えてきました。人々は世界の現在のすべてのもの、そしてそれ以上のものを、この新しいAI世界に組み込むことができるでしょう。私たちはそれを可能にしたいのです。そして世界は、私たち全員のために莫大な価値を構築すると信じています。
これが私たちが見ている経済的な姿です。しかし、私たちが長い間考えてきたこと、そして今実際に起こり始めている、または今起こり始めていると見ているものの一つ、その兆しや芽生えとでも言うべきものは、AIが科学に与える影響です。
前のスライドからの経済的影響は、長期的な生活の質と社会の改善と変化にとって巨大なものになりますが、新しい科学を自律的に発見したり、人々がより速く新しい科学を発見するのを助けたりできるAIは、最も重要なことの一つになると思います。それは私たちが本当に理解しようとしていることです。
それでは、研究について話すためにヤコブに引き継ぎます。先ほど述べたように、私たちは内部目標や物事の状況についての見解について多くを共有するつもりです。
深層学習とAGIへの道筋
ありがとう、サム。私たちは核心において、深層学習と呼ばれる技術の理解に焦点を当てた研究所です。
そして、私たちの特別な焦点は、深層学習システムのトレーニングをスケールアップするときに何が起こるかを理解することです。そこで私たちが頻繁に議論する一つの結果は、AGI、つまり汎用人工知能です。しかし、ある意味では、これでさえ可能性のある進歩と変化の大きさを少し過小評価しているかもしれないと感じています。
特に、深層学習システムが超知能に到達するまで10年未満である可能性があると私たちは信じています。つまり、多くの重要な軸において、私たち全員よりも賢いシステムです。これはもちろん深刻なことです。これに取り組むべき多くの意味があります。そして、このテクノロジーの特に注目すべき影響の一つ、それに至るまでのテクノロジーの影響、そして私たちが研究プログラム全体を組織化している中心的なことは、科学的発見を加速させる可能性、新しいテクノロジーの開発を加速させる可能性です。
これがAI開発の最も重要な長期的影響の一つになるだろうと私たちは信じています。それは新しいテクノロジーの開発における進歩のペースを根本的に変えるでしょう。これらの目標にどれだけ近づいているかを考えるとき、進歩を見る良い方法の一つは、モデルが実行できるタスクを人々が達成するのにかかる時間の範囲を見ることです。
これは過去数年間で急速に拡大してきたものです。現在の世代のモデルがいるのは約5時間のところです。これは、国際情報オリンピックなどの競技会で最高の人々とモデルが対等に競っているのを見ることでわかります。そして私たちは、この時間の範囲が急速に拡大し続けると信じています。これは部分的にアルゴリズムの革新の結果であり、また部分的には深層学習をさらにスケールアップすることの結果です。特に、コンテキスト計算、またはテスト時間計算とも呼ばれるこの新しい軸に沿ってスケールアップすることで、私たちは本当に何桁も先に進むことができます。
これはモデルが問題について考えるのに費やす時間の量とほぼ同じです。モデルが現在問題について考えるのに費やす時間の量と、科学的ブレークスルーなど本当に重要な問題にどれだけの計算量、どれだけの時間を費やしたいかを考えると、データセンター全体を使うことを厭わないはずです。
そこで本当にかなり長い道のりがあります。この進歩を予測して、私たちはもちろん内部で計画を立てており、そこでの私たちの考えについて透明性を提供したいと考えています。そこで、これらの非常に強力なシステムに向けた私たちの内部目標と目標のタイムラインを共有するという、やや珍しいステップを踏みたいと思います。これらの特定の日付については、私たちが全く間違っている可能性は十分にありますが、これが現在の私たちの考え方であり、現在どのように計画し組織化しているかです。
研究の自動化に取り組んでいる研究組織として、当然ながら、これが私たち自身の仕事にどのような影響を与えるか、将来のAIシステムの開発を加速させるAIシステムはどのようなものになるか、それらはアライメントのような研究をどのように強化できるかについて考えています。そこで私たちは、来年9月までに、大量の計算量を使って研究者を有意義に加速できる、かなり有能なAI研究インターンを獲得することについて計画を立てています。これは実際にかなり近いと信じています。
そして私たちは、2028年3月までに、より大きな研究プロジェクトを自律的に遂行できるシステム、有意義な完全自動化されたAI研究者を獲得することを目指しています。もちろん、これらの非常に有能なシステムを見据えるとき、私たちは安全性とアライメントについて多くのことを考えます。実際、展開と安全性の両方における私たちの多くの作業だけでなく、深層学習の理解と能力開発においても、これらの非常に有能なモデルの準備として考えることができます。
AI安全性への多層的アプローチ
安全性は多面的な問題であり、私たちが一般的に考えを構造化する方法は、モデルに最も内部的な要因から最も外部的な要因まで及ぶこれら5つの層です。そして核心において、私たちが超知能にとって最も重要な長期的安全性の問題であると信じているのは、価値のアライメントです。
この価値のアライメントについて説明すると、これはAIが根本的に気にかけているものが実際に何であるかと考えることができます。それはいくつかの高レベルの原則に従うことができるでしょうか。不明確で矛盾する目標が与えられた場合、それは何をするでしょうか。それは人類を笑うのでしょうか。私たちがこの高レベルの目標や原則がAIを駆動することが非常に重要だと信じる理由は、非常に長い間考えるシステムに到達するにつれて、それらが非常に賢くなるにつれて、人間の能力の端またはおそらくそれを超える問題に取り組むようになるにつれて、完全な仕様に到達することが非常に困難になるからです。
そのため、私たちはこのより深いアライメントに依存しなければなりません。次に目標のアライメントがあります。エージェントは人々と対話するでしょうか。どのように人々と対話するでしょうか。それは指示に従うことをどのように行うのでしょうか。次に信頼性があります。
AIは予測を正しく調整できるでしょうか。簡単なタスクで信頼できるでしょうか、難しいタスクで不確実性を表現できるでしょうか、少し馴染みのない環境に対処できるでしょうか。次に、信頼性と非常に関連していますが、敵対的環境に関する敵対的堅牢性があります。AIは人間やAIの敵対者からの標的型攻撃に耐えることができるでしょうか。
そして外側の層はシステミック安全性であり、これはAIの知能やアライメントに依存しない、全体的なシステムの動作に関する保証です。たとえば、これはセキュリティやAIがアクセスできるデータ、使用できるデバイスなどです。そこで私たちはこれらの領域全体にわたって複数の研究方向に投資しています。
そして、全体としての深層学習の一般的な開発と理解の向上からもかなりの進歩が見られました。そして、私は少し技術的に深く掘り下げたいと思います。特定の方向について話したいと思います。価値のアライメントは難しい問題です。それはまだ解決されていません。
しかし、その研究を助ける新しい有望なツールがあります。それは思考連鎖の忠実性です。これは私たちが非常に重く投資しているものです。最初の推論モデルから始めて、私たちは解釈可能性における新しい方向を追求してきました。アイデアは、モデルの内部推論の一部を監督から自由に保つことです。
つまり、トレーニング中にそれを見ないようにして、モデルの内部プロセスを代表するものとして残すのです。だから私たちは、モデルに良い考えを考えるように導くことを控え、それが実際に考えていることに対してもう少し忠実なままにしておくのです。もちろん、これが機能する保証はありません。深層学習について数学的な証明をすることはできません。
そこで私たちはこれを研究しています。しかし楽観的である理由が2つあります。一つの理由は、非常に有望な実証結果を見てきたことです。これは私たちが内部で多く採用している技術です。私たちはこれを使ってモデルがどのようにトレーニングされるか、トレーニング中に傾向がどのように進化するかを理解しています。
また、たとえばモデルの策略の傾向を調査するために、外部との協力にも成功しています。第二に、これはスケーラブルです。つまり、明示的に、モデルを監視する能力に対して敵対的ではないスケーラブルな目標を設定します。もちろん、モデルを監視する能力に対して目標が敵対的でないことは、戦いの半分に過ぎません。
そして理想的には、モデルの監視を助けることに役立つようにしたいのです。そこで私たちはこれを非常に重く研究しています。しかし、思考連鎖の忠実性について強調すべき重要なことの一つは、それがやや脆弱であるということです。
それは本当にこの明確な境界を引くこと、この明確な抽象化を持つこと、そして思考連鎖にアクセスできる方法に抑制を持つことを必要とします。これはアルゴリズム設計から製品の設計方法まで、OpenAIに存在するものです。ChatGPTの思考連鎖の要約を見ると、もし思考連鎖の要約がなく、思考連鎖を常に完全に可視化していたら、それは時間の経過とともに全体的な体験の一部になり、監督の対象にしないことが非常に難しくなるでしょう。
そして長期的には、モデルのためにある程度の管理されたプライバシーを保持することによって、内部プロセスを理解する能力を保持できると信じており、これは非常に有能で長時間実行するシステムに向かうにつれて、非常に影響力のある技術になり得ると信じています。それでは、サムに戻します。
製品戦略とユーザー事例
さて、これに続くのは非常に難しいですし、明らかにこれが私たちが言わなければならないことの最も重要な部分です。しかし、繰り返しますが、私たちは完全に間違っている可能性があります。私たちは目標を設定し、それを悲惨なほど逃してきました。しかし、私たちが見ている状況では、来年9月までにインターン級のAI研究アシスタントを持つことが可能であり、2028年3月まで、これはGPT-4の発売からほぼ5年後になると思いますが、その時点で正真正銘のAI研究者を持つことが可能だと考えています。これが私たちの研究プログラムの核心的な推進力です。
他に話したい2つの分野があります。製品とインフラです。製品面では、深層学習でこの信じられないほどの進歩を遂げるにつれて、先ほど述べたように、人々が未来を発明するのに役立つようにしたいと考えています。
そして、従来の私たちにとってそれは、ChatGPT内のAIスーパーアシスタントのように見えていましたが、今私たちは本当に、他の人々がその上に構築できるプラットフォームへと進化しようとしています。そして、世界のすべての部分が組み込まれる必要があるすべてのピースは、他の人々によって構築されるでしょう。
それについて話す前に、人々がどのようにGPT-5を使っているかを示す短いビデオを見せたいと思いました。今日、人々がChatGPTでGPT-5を使っている方法のいくつかをご紹介します。
私は量子物理学者です。私はネイルテクニシャン、免疫学者です。私は鉄鋼労働者、デザイナー兼開発者、経済学教授です。私は基本的に釣りで生計を立てています。GPT-5は、私たちがまだ行っていない実験の結果を予測することができます。
私の工場の仲間にとって簡単な部品番号システムを作成してもらえますか?ベイエリアでダンジネスクラブを捕まえたいです。ここで、特定の量子演算子の適用について質問します。これは非常に詳細な数学を提供してくれます。私は基本的に、空中でリアルタイムに描画できるカメラアプリを求めました。テーマがあります。進むべき方向があります。
100万または無限のアイデアから、10個または20個を与えてくださいという感じです。それをテストし始めます。ジョークを言ったり、経済学者は何をすべきかのような質問をしたりします。使える異なる餌、異なる水深、自分で理解するのに何年もかかる情報です。試行錯誤がたくさんあります。ブレインストーミングには素晴らしいです。やり取りがあります。
私は推論を簡単に追うことができます。結果を信頼する必要はありません。何をしたのかを見ればいいだけです。GPT-5はこれを一発でやってのけました。101個の部品番号です。これに番号を付けるのに数週間かかり、目がクロスするほどだったでしょう。
ヤコブは少し後でQ&Aに再び参加しますが、その前に1人の特別ゲストを迎えます。私たちはこれが大好きです。
もっとたくさん欲しいです。これをどこにでも欲しいです。だから私たちは、OpenAIを人々や企業がその上に構築できるプラットフォームにしたいのです。私たちは今、AIクラウドへの道を見ることができます。これはChatGPTだけではありません。これは私たちが作るサービスだけではなく、できるだけ多くの人々が依存し、使用し、創造するものを構築できるように、私たちの技術を公開したいのです。この引用、または少なくともこのアイデアは元々ビル・ゲイツからのものだと思います。
少なくともそれは私が最初にそれを聞いた場所です。プラットフォーム上に構築する人々によって、プラットフォームビルダーよりも多くの価値が創造されたときに、プラットフォームを構築したことになるというものです。それが私たちの目標です。来年にはそれが私たちの目標です。私たちは今、このテクノロジーとユーザーベース、そして構築してきたこの種のフレームワークを取り、全世界がその上に素晴らしい新しい会社やサービスやアプリケーションを構築できるようにすることができると本当に考えています。
そのためには進化させなければならない多くのことがありますが、プラットフォームになることに向かって進化するにあたって、触れたい2つの基本原則があります。一つはユーザーの自由についてです。これがあらゆる種類の人々が構築し、使用し、創造するプラットフォームになるのであれば、世界中の人々は非常に異なるニーズと欲求を持っており、もちろん非常に広範な境界がありますが、私たちはユーザーに多くの制御とカスタマイズを持ってもらいたいのです。
さて、私は最近これについて話そうとしたときに、多くの愚かな間違いの一つを犯しました。エロティカ以外の例を使えばよかったと思います。エロティカとポルノボットには理解できる違いがあると思いましたが、いずれにせよ、私たちが伝えようとしていた点は、人々は多くの柔軟性を必要とし、人々はこれらのものを異なる方法で使いたいと思っており、私たちは成人ユーザーを成人として扱いたいということでした。
私たち自身のファーストパーティサービスでは、より厳格なガイドラインがあるかもしれませんが、AIは人々の生活の非常に重要な部分になろうとしています。人間の表現の自由がそこにある必要があります。それに伴って、その世界は以前の種類のテクノロジーとは異なる方法でプライバシーについて考える必要があると考えています。
プライバシーはもちろんあらゆる種類のテクノロジーにとって重要ですが、AIのプライバシーは特に重要になるでしょう。人々は過去のテクノロジーを使っていたのとは異なる方法でこのテクノロジーを使っています。彼らは医者、弁護士、配偶者に話すようにそれに話しかけています。彼らは自分の人生の最も親密な詳細を共有しています。そしてもちろん、私たちはそのプライバシーを強力に技術的に保護する必要があります。
しかし、私たちはそのプライバシーを強力な政策的保護も必要だと考えています。私たちはAI特権のような概念について話してきました。しかし、AIが人々の生活におけるこの基本的なプラットフォームになるのであれば、本当に強力な保護が私たちにとって非常に重要に思えます。では、インフラについてお話ししたいと思います。
インフラ投資計画の詳細
インフラ構築がどこにあるかについて多くの混乱があったことは知っています。そこで、それについて非常に透明にしようと思いました。現在の私たちの状況は、すべてのコミットメントの合計が30ギガワットを少し超えるインフラ構築です。そしてこれは、今後何年にもわたって約1.4兆ドルの総財政的義務です。
これは私たちがこれまでにコミットしたものです。もちろん、もっと多くのことをしたいと考えていますが、今日見ている状況、収益成長について私たちが考えられること、資本を調達する能力を考えると、これが現在私たちが快適に感じているものです。これには多くのパートナーシップが必要です。
私たちは多くの素晴らしいチップパートナーについて話してきました。私たちのためにデータセンターを建設している人々、土地、エネルギーがあります。チップ製造施設があるでしょう。これにはすでにかなりのサプライチェーンの革新が必要になってきています。そして私たちは、AMD、Broadcom、Google、Microsoft、NVIDIA、Oracle、SoftBankなど多くの企業と協力してこれを実現できることに興奮しています。
しかしこれはまだ初期段階です。ヤコブが話している作業が実を結び、私たちがそう考えているように、そしてこれらのものの経済的価値が実現し、人々がこれらすべてのサービスを使いたいと思うならば、私たちはこれよりもはるかに多くのものが必要になるでしょう。
ですから、明確にしておきたいのは、私たちはまだこれにコミットしていませんが、それについて会話をしています。私たちの願望は、週に1ギガワットの計算能力を創造できるインフラファクトリーを構築できることです。そして願わくば、その5年間のライフサイクルにわたって、そのコストを1ギガワットあたり約200億ドルに大幅に削減できることです。
これを行うには、多くの革新、多くのパートナーシップ、明らかに多くの収益成長が必要になります。他のすべてのことをする代わりに、データセンターの構築を助けるためにロボティクスについての考えを転用しなければならないでしょう。しかしこれが私たちが行きたい場所であり、今後数か月間で、私たちはここに到達できるかどうかを確認するために多くの作業を行う予定です。
実際にこれを開始できる財政的な立場になるまでには、しばらく時間がかかるでしょう。1ギガワットは大きな数字ですが、これを視野に入れるために短いビデオをお見せしようと思いました。これは私たちがテキサス州アビリーンに建設しているデータセンターです。これは最初のスターゲートサイトです。
現在、全国でこれらのいくつかを実施していますが、このサイトが最も進んでいます。建設現場だけで毎日何千人もの人々が働いています。これらのチップを設計し、製造し、組み立てるために、おそらく数十万人または数百万人の人々がサプライチェーンで働いています。
エネルギーのために行われるすべての作業があります。各1ギガワットを実現するために起こらなければならない膨大な量のことがあります。そして私たちは、これをはるかに効率的で、はるかに安く、はるかにスケーラブルにする方法を見つけたいと考えています。そうすれば、研究ロードマップが必要とするインフラと、人々がこれを使いたいと思うすべての方法を実現できます。それを可能にするために、私たちには新しい構造があります。
おそらくこの前に、すべてのオープンエンティティの非常に複雑な図を見たことがあるでしょう。今ではそれがはるかにシンプルになりました。私たちにはOpenAI Foundationと呼ばれる非営利組織があり、それが取締役会が座っている場所を管理しています。または、取締役会もそこに座っており、OpenAI Groupと呼ばれる公益法人の一部を所有しています。つまり、非営利組織が管理し、その下に公益法人があります。
私たちはOpenAI Foundationが史上最大の非営利組織になることを願っています。今何度か述べたように、科学は、その利益を広く分配する機関とともに、世界が最も改善する方法の一つだと私たちが考えるものです。したがって、科学は非営利組織が資金を提供する唯一のものではありませんが、私たちが行うことの重要な最初の主要分野になるでしょう。非営利組織は公益法人を統治します。
それは当初、公益法人の株式の約26%を所有しますが、私たちが本当にうまくいけば、ワラントによって時間とともに増加する可能性があります。そして、テクノロジーがどこにあり、社会が何を必要としているかを考えると、AIの最良の利益であると私たちが考えるものを追求するためにこれらのリソースを使用します。公益法人は通常の会社のようにより多く運営されます。同じ使命を持ちます。その使命に縛られます。
そして安全性の問題においては、その使命にのみ縛られますが、私たちが持っている研究と製品の目標に奉仕するために、その巨大なインフラ構築に必要なリソースを引き付けることができるでしょう。では、財団の最初の焦点、私たちは時間とともにより多くのことを行いますが、何か素晴らしいことを最初に達成したいと考えています。それは、病気を治すのを助けるためにAIを使用する250億ドルのコミットメントです。
これが起こる方法はたくさんあります。データの生成、多くの計算助成金の使用、科学者への助成金、そしてAIレジリエンスのためにも。AIレジリエンスは新しく、非常に重要な分野だと思います。そこで、共同創設者のヴォイチェフを招待して、これがどのようなものになるかについて話してもらいたいと思います。こんにちは、ここに来られて嬉しいです。来てくれてありがとう。
AIレジリエンスという新概念
AIレジリエンスという用語は、私たちが歴史的にAI安全性について考えてきたことよりも少し広いものです。レジリエンスの場合、高度なAIにはリスクと混乱が伴うと考えており、これらの問題の多くを解決するのに役立つ組織のエコシステムを持ちたいと考えています。
より良く説明するために例を挙げましょう。私たちは皆、AIが生物学において進歩すると信じており、AIが生物学において進歩するにつれて、悪意のある行為者がAIを使用して人工パンデミックを作成するリスクがあります。したがって、安全性レベルでの緩和策は、モデルがウイルス学に関係するクエリをブロックすることを確実にすることです。
しかし、AI業界全体を考慮すると、たとえOpenAIがそれをブロックしても、誰かが他のモデルを使用して病原体を生成する可能性が非常に高いです。レジリエンスの場合、私たちはそれをブロックするだけでなく、問題が発生した場合の迅速な対応も望んでいます。
リスクと混乱について考えるとき、メンタルヘルスはその一つであり、バイオは別のもので、仕事の置き換えも別のものかもしれません。私たちはエコシステムが必要だと考えており、私が好きな良いアナロジーはサイバーセキュリティです。インターネットの初期には、人々がクレジットカード番号を入力することに抵抗を感じる場所でした。ハッキングが非常に簡単だったからです。ウイルスがあるときは、人々がお互いに電話をしてコンピューターをインターネットから切断していました。そして私たちは長い道のりを歩んできました。
現時点では、サイバーセキュリティ企業の全体的なインフラストラクチャがあり、重要なインフラストラクチャ、政府、企業、個人ユーザーを保護しており、人々が最も個人的なデータをオンラインに置き、生涯の貯蓄をオンラインに置くことを厭わないほどになっています。
サイバーセキュリティは本当に遠くまで来ました。そして私たちは、AIにも類似したものが存在すると考えています。AIレジリエンス層があり、非営利組織がそのようなエコシステムを作成するのを刺激するのを助けることに本当に興奮しています。私もそう思います。これを行うのに重要な時期だと思いますし、あなたがどのように私たちがそれを実現するのかを解明しようとしていることに非常に興奮しています。
ですから、繰り返しますが、これらは非営利組織が資金提供する唯一のものではありませんが、私たちはこれらを最初の2つとして、AIを使用して病気の治療法と治療法を開発することと、AGIを社会に展開することがどのようなものになるかを理解するにつれての、この新しいAIレジリエンスの取り組みとして、興奮しています。
では、私たちがこれらを3つの柱として述べましたが、これがすべてうまくいったらどうなるでしょうか。2026年には、その年のモデルが小さな発見をし始めるのを見始めることが可能だと考えています。
2028年までには中規模またはさらに大規模な発見があり、2030年と2032年がどのようなものになるかは誰にもわかりません。もしAIが過去に起こったように科学を進歩させ続けることができれば、未来は非常に明るくなり得ると考えています。もちろん、人間がこの未来を自己決定できることが非常に重要だと考えています。しかし、新しい科学的進歩が私たちに与えるオープンスペースは非常に印象的です。
そこで私たちはSoraに、過去を見ることによって根本的により良い未来を想像するのを助けてもらいました。そして私たちは特に、科学の歴史が発見の上に発見を重ねてどのように構築されるかに興味があります。これがAIで起こることを私たちは望んでいます。これは200年分の科学になるでしょう。
しかし、お互いに積み重なる足場を組み立てるこれらの200年分の複合的な発見を、200年ではなく20年または2年でできるとしたら、これがどれだけ加速されたかを考えると、何が可能かを想像できます。世界を想像する前に、根本的により良い未来が非常に可能になる世界を想像できます。ここには癌の治療法を発見しているデータセンターがあります。
あそこには史上最高のエンターテインメントを作っているデータセンターがあります。ここには、あなたの将来の夫または妻を見つけるのを助けているデータセンターがあります。これはロケットを作り、宇宙植民地化を助けています。これは気候危機の解決を助けています。そこで、私たちはこれらすべてのことを昔ながらの方法で行いました。
そして今、AIの助けを借りて、おそらくはるかに多くの力で次に来るものを形作ることができるでしょう。そこで、私たちはAI医療について少し話しました。私たちはロボットについて非常に興奮しています。エネルギーは世界にとって非常に非常に重要だと本当に考えています。個別化された教育が何を意味するのか、新しい材料を設計すること、そしておそらく私たちがまだ考えることさえできない他の多くのことを見つけたいと考えています。
そこで、OpenAIのこの次の段階に入り、それよりも重要なことに、深層学習におけるこの継続的な進歩に入るにあたり、今日私たちに参加してくれたことに感謝します。そして今、私たちは新しいことを試そうとしています。それは質問に答えることです。これがうまくいけば、将来的にもっと試すものです。ヤコブがこのQ&Aに再び参加します。どうもありがとうございました。これは私たちにとって新しい形式です。
質疑応答セッション
ですから、初めて試すときは辛抱強くお願いします。繰り返しますが、これが役立つなら、もっと頻繁に行うつもりです。そして、最も支持された順に質問に答えていこうと思います。準備はいいですか?では、これがどのように機能するか見てみましょう。Vimeoリンクに質問を入力でき、それに答え始めます。
カレブからの質問です。テクノロジーが中毒性を持ち、信頼を侵食していると警告されていますが、SoraはTikTokを模倣し、ChatGPTに広告が追加される可能性があります。なぜあなたが批判したのと同じパターンを繰り返すのですか?そして、言葉だけでなく行動を通じて信頼をどのように再構築しますか?
私たちは確かにこれを心配しています。SoraやTikTok、ChatGPTの広告のようなものだけでなく、それらはおそらく設計を慎重に行える既知の問題ですが、私たちは確かに人々がチャットボットと予想していなかった関係を築くのを見てきましたし、そこには明らかに中毒性のある行動があり得ます。世界のダイナミクスと競争を考えると、
おそらく一部の企業は非常に中毒性のある新しい種類の製品を提供するでしょう。私たちは私たちの行動であなたに判断してもらわなければならないと思います。私たちはいくつかの間違いを犯すでしょう。問題のあるモデルをロールバックしようとします。Soraを出荷してそれが超中毒性になり、創造に関するものではなくなったら、製品をキャンセルするでしょう。そしてあなたはそれで私たちを判断しなければならないでしょう。
私の希望と信念は、私たちが以前の企業が犯した同じ間違いを犯さないということです。彼らもそれらを犯すつもりはなかったと思います。私たちは皆、これを一緒に発見しているのです。おそらく私たちは新しい間違いを犯すでしょうし、迅速に進化し、緊密なフィードバックループを持たなければならないでしょう。私たちは、このテクノロジーが世界で信じられないほどの良いことをするあらゆる種類の方法を想像できます。
また、明らかに悪いものもあり、私たちは使命に導かれており、継続的に製品を進化させるだけです。ChatGPTやSoraのような製品で私たちが最適化するものという点で、私たちが非常に希望を持っていることの一つは、非常に長期的に最適化することを考えることです。これは自然に、モデルが生産的に作業できる範囲を拡大することについて一般的にどのように考えるかと非常に一致しています。
そこで、私たちはそこでかなりの開発が可能であると信じており、最終的には短期的なシグナルだけでなく、長期的な満足と幸福のために本当に最適化するモデルを得ることができます。では、次の質問です。
成人モードがインストールされた後、forモデルを永続的に保持するオプションはありますか?より安全なモデルは必要ありません。責任ある大人です。私たちは4oをサンセットする計画はありません。宇宙の終わりまでそれを保持することを約束するつもりもありませんが、一部のユーザーが本当に気に入っている製品であることは理解しています。
また、なぜ未成年者が使用するのに健全ではないと考えたモデルであるかを他の人々にも理解してほしいと思います。時間の経過とともに、人々がもっと好きなより良いモデルを構築することを願っています。あなたの人生の中の人々との関係のように、彼らは進化し、賢くなり、時間とともに少し変化します。同じことが起こることを願っています。しかし、現在4oをサンセットする計画はありません。
わあ、私たちにはたくさんのfor質問があります。時間の都合上、これらすべてを網羅するつもりはありませんが、人々に使いたいモデルを持ってもらいたいと思っています。人々がモデルを回避されているように感じてほしくありません。
そして、私たちが、ヘロインを売っているようなことをしていないと思う限り、大人が大人として選択をすることを望んでいます。それもすべきではありません。感情的なスピーチをしたい人々のために、私たちが言ったように、もっと許可したいと思っていますし、そうする予定です。
さて、ヤコブへの良い匿名の質問があります。2つの部分があります。潮に関する2つの質問です。Gからと匿名からです。AGIはいつ起こりますか?私は思うのですが、数年後に私たちはこれらの年を振り返って、AGIが起こった移行期のようなものだったと言うでしょう。
初期に採用したときの考え方として、AGIをすべての問題の究極の解決策のような、この単一の点として感情的に考えていました。その前と後があります。しかし、私たちはそれが少しより連続的であることを発見しました。特に、AGIに向けた明らかなマイルストーンのように見えたさまざまな種類のベンチマークについては、私たちは今、それらをどれくらい離れているかを年数で大まかに示すものとして考えています。
そこで、チェスで人間を打ち負かすコンピューター、次に囲碁、次に自然言語で話すことができるコンピューター、数学の問題を解決できるコンピューターといった一連のマイルストーンを見ると、それらが明らかにお互いに近づいていくと思います。AGIという用語は非常に過負荷になっており、ヤコブが言ったように、私たちが真ん中にいる数年間のプロセスになるでしょう。
しかし、今日私たちが発表したものの理由の一つは、私たちの意図、私たちの目標は2028年3月までに真の自動化されたAI研究者を持つことであり、それが何を意味するかを定義することの方が、AGIの定義で全員を満足させようとするよりもはるかに有用だと思うからです。そしてもう一つ言及すべきことがあると思います。
一種の直感に反することですが、明らかに私たちはかなり複雑な技術で作業しており、これらすべてのアルゴリズムを理解しようとしていて、おそらく最初は、AGIはすべての答えを理解した瞬間であり、最終的なものだと想像していました。しかし今、私たちは、ある種の知能の曲線、おそらく多次元的なものがあり、人間はその上のどこかにいると認識するようになってきました。
深層学習をスケールアップし、これらの新しいアルゴリズムを開発するにつれて、最終的にはその点に近づき、最終的にはそれを超えるでしょう。そして、すでに複数の軸で超えています。そしてそれは実際には、その周りのすべての問題を解決したことを意味するわけではなく、それは私たちが真剣に考える必要があることです。
展開されたモデルと比較して、内部モデルがどれだけ先を行っているかについてのアイデアを教えていただけますか?私たちは次のモデルについてかなり強い期待を持っています。
だから、今後数か月と1年間でかなり急速な進歩が期待されると思います。しかし、私たちは非常にクレイジーなものを保留しているわけではありません。実際には、これがしばしば機能する方法の一つは、私たちが開発する多くのピースがあり、それらはすべて困難な勝利ですが、それらをまとめると非常に印象的なものを持つことがわかり、それをかなりうまく予測できるということです。
今日の私たちの目標の一部は、私たちが多くのピースを持っていることを伝えることです。現在、世界に見せていないこの巨大なものに座っているわけではありませんが、今から1年後までに、確かにこの2026年9月の目標で、私たちは能力における非常に重要な前進への現実的なチャンスを持つことが期待されます。
OpenAIのスタンスは何ですか?ロニンは、共同研究、計算の共有、安全性への取り組みのために、AnthropicやGemini、xAIのような研究所と提携することについてOpenAIのスタンスは何ですかと尋ねています。これは安全性の面でますます重要になると考えています。研究所は安全技術、安全基準を共有する必要があるでしょう。
世界全体が、再帰的自己改善段階に達する前に、私たちは本当に一緒にこれを慎重に研究する必要があると言う時が来ることを想像できます。私たちはそのコラボレーションを歓迎します。非常に重要だと思います。先ほど話した思考連鎖の忠実性について触れておきたいことの一つは、実際に業界基準の確立について話し始めたことです。
GoogleやAnthropicの研究者、そして他のいくつかの研究所と共同調査を開始しました。それは私が非常に興奮していることであり、複数の研究所にわたって協力することから本当に利益を得ることができる例だと思います。
匿名が尋ねています。元のGPT-4のような古いモデルの一部をオープンソース化することはありますか?いつか博物館の遺物としてそれらを行うかもしれませんが、GPT-4は特に有用なオープンソースモデルではありません。大きいです。それほど良くありません。GPT-4の力を超えるものを非常に小さなスケールで作ることができるでしょう。
人々に有用なもののために、私はそのようなものをもっと期待しています。楽しい博物館の遺物のために、そうですね、いつか、誰が知っていますか?そのようなクールなことがたくさんあるかもしれません。別の匿名者、または多分同じ人が尋ねます。あなたの新しいモデルが前のものより劣っていることを認め、ユーザーのニーズを無視しながら傲慢と貪欲で会社を台無しにしていることを認めますか?
私はそれがあなたのユースケースにとって劣っていると信じており、あなたのユースケースにとってより良いモデルを構築したいと考えています。全体として、ほとんどのユーザーにとってより良く、より有能なモデルだと考えていますが、4oから5へのアップグレードについて学んだことは確かにあり、将来的にははるかに良くしようとします。より良い連続性についてと、私たちのモデルがほとんどのユーザーにとってより良くなることを確実にすることの両方について、科学やコーディングなどにAIを使用している人々だけでなく。
Yは、個人的なつながりと内省のためのChatGPTのバージョンが、ビジネスや教育だけではなく、いつかあるでしょうかと尋ねています。もちろんです。これはAIの素晴らしい使い方だと思います。これが人々の生活にとってどれほど意味があったかに私たちは非常に感動しています。
私たちは皆、Chatが困難な個人的な状況でどのように人々を助けたか、またはより良い人生を送るのを助けたかについて、ユーザーから大量のメールや連絡を受け取ります。そしてこれが私たちがここにいる理由です。つまり、これは私たちが行うあらゆることと同じくらい重要です。
私たちは科学的進歩について聞くのが大好きです。病気と診断され、治癒した人々について聞くのが大好きです。個人的な話は私たちにとって信じられないほど重要であり、それについて聞くことに興奮しています。そして私たちは絶対にそのようなサービスを提供したいと考えています。
あなたの安全性、さて、GとAnonymousからの潮についての2つの部分がある2つの質問です。あなたの安全性ルーティングは、私たちの選択を上書きすることによってユーザーの信頼とワークフローを壊します。すべての同意する成人ユーザーに対してこの家父長的な政策を取り消すことにコミットし、私たちを子供のように扱うのをやめますか?
ユーザーがルーティングを制御できるのはいつですか?安全性と検閲の透明性はどこにありますか?なぜ大人は自分のモデルを選ぶことができないのですか?そうですね、私はモデルルーティングの処理方法が私たちの最高の仕事だったとは思いません。forには実際の問題がいくつかあります。
そして、私たちは人々が形成している問題、4oのようなモデルを使用している精神的に脆弱な状況にある人々がより悪い状況に陥る問題を見てきました。ほとんどの成人ユーザーはそれらを問題なく使用できますが、述べたように、私たちには未成年のユーザーを保護する義務があります。
そして、私たちには、本当に望んでいるものを選択している心の状態にない成人ユーザーを保護する義務もあります。そして私たちは彼らに害を与えていません。年齢確認を構築し、真のメンタルヘルスの危機を抱えているユーザーとそうでないユーザーを区別できるようになるにつれて、もちろん、私たちが述べたように、ユーザーの自由をもっと与えたいと考えています。それは私たちのプラットフォーム原則の一つです。
ですから、そこでの改善を期待してください。そして、これが私たちの最高の仕事だったとは思いません。前回のロールアウトをどのように伝えたか、害を引き起こすことと、そのようなことを望んでいない人々に意図しない害を引き起こさないようにしながら、大人を保護することとのバランスを取る方法について。そこで何か言いたいことはありますか?
はい。だから、確かに問題があります。私たちは、ChatGPTのために開発した仕様の中で、モデルの高レベルのポリシーとガイドラインをレイアウトすることを目指しています。しかし、自分自身が見つけることができる状況の空間は膨大であり、ある時点で、正しい境界を確立することは本当に難しい知能問題になります。
そして、私たちは推論モデルから、そしてソフトウェアの問題とトレードオフについて考えることにもっと推論を拡大することから、この指標で改善された結果を見ています。もちろん、これは、たとえば数学の問題よりもトレーニングがもう少し難しいです。
そこで、これは私たちがかなり重く研究していることです。ケイトは、成人モードは12月のいつ来ますか?NSFWだけでなくもっとありますか?書くときにわずかな対立でさえ、forのフィルターをトリガーします。
12月のいつに出荷されるか正確にはわかりませんが、そうです、目標は、書くとき、創作的な執筆を手伝ってもらうためにChatGPTを使用しているとき、以前のモデルよりも多くのカテゴリではるかに寛容であるべきだということです。私たちはこれを望んでおり、ユーザーもこれを望んでいることを知っています。
これがあなたの個人的なツールになるのであれば、それはあなたがしていることを手伝うべきであり、すべきではないと感じることに対してコンテンツフィルターにぶつかるたびに、私たちはそれがどれほど迷惑であるかを理解しています。ですから、私たちは成人モードでそれを修正しようとしています。
直面する新しい問題があるかもしれませんが、人々により多くの柔軟性を与えたいと思っています。匿名者は、なぜあなたの安全性のアイデアは、彼らが実際に使用しているモデルについてユーザーに嘘をつくことを必要とするのですかと言います。
繰り返しますが、私たちはこれを間違ってロールアウトしたと思いますが、ここでの目標は、人々がForoを使い続けることができるようにすることでしたが、Foroが私たちが実際に本当に有害だと思う動作をする状況で、私たちが望むすべての年齢獲得を持つ前に、ユーザーを本当に望んでいないメンタルヘルスの問題を抱えないモデルに移すことでした。
FOROは興味深い挑戦でした。一部のユーザーが本当に気に入り、一部のユーザーが本当に望んでいない害を引き起こしていたモデルです。そして、これがモデルで直面する最後の挑戦だとは思いません。しかし、私たちはそのバランスを取る正しい方法を見つけようとしています。
レガシーモデルを書き直すことなく大人のために戻しますか?はい。Yは、12月のアップデートは人間とAIの感情的な絆についてのOpenAIの立場を公式に明確にしますか?それとも、制限はそのようなつながりを世界中で有害であると暗黙のうちに定義し続けますか?
公式な立場を持つことが何を意味するのかわかりません。私たちはこのツールを構築し、あなたはそれを好きなように使うことができます。もしあなたが小文字のR関係を持ちたいと思っていて、モデルから共感や友情のようなものを得ていて、それがあなたとあなたの人生にとって重要であるなら、モデルがそれが何であり、何でないかを忠実に伝えることが私たちにとって非常に重要です。
しかし、ユーザーとしてあなたがそのサポートに価値を見出しているなら、繰り返しますが、それは素晴らしいことです。私たちは、これらのモデルから得る感情的なサポートや他の種類のサポートで価値、有用性、より良い人生を見つける人々の話に非常に感動しています。
カイロは、OpenAIが無料版のユーザーに対して非常に多くの機能をますます許可しているのはなぜですかと尋ねています。製品とビジネスの観点からこれに答えることができますが、ヤコブ、モデルがより低い価格とより少ない計算量でより有能になる信じられない速度について話すことが役立つと思います。
私たちは、新しい知能のフロンティアに到達するにつれて、そのコストをかなり迅速に削減する能力をかなり見ています。そして特に推論モデルでは、いくつかの追加のテスト時間計算が許可されると、実際にかなり安いモデルがはるかに有能になることがわかりました。
そして、これは続くと予想されます。だから、研究を自動化することなど、これらの新しいフロンティアに到達することについて話すように、私はその多くのコストが大幅に下がり続けると予想します。
だから、私たちはモデル能力の増加について多くを話し、科学を前進させることについては、それは非常に重要です。私がAIについて観察してきた最も素晴らしいことの一つは、過去数年間で、特定の知能単位の価格が毎年約40倍下がってきたことです。
最初にGPT-3を持っていたとき、私たちはそれが非常にクールだと思いました。そしてそれはこのコストでやや困難でした。GPT3スケールのモデルは今、基本的に電話などで無料で実行されます。私たちが発売した時点のGPT-4と同じくらい賢いモデルのコストは、相対的に今大幅に下がっており、このトレンドが続くことを期待しています。
しかし、私たちはまだ大量のインフラが必要だと考えています。なぜなら、私たちが発見し続けているのは、それをより安くできるほど、人々がもっと使いたがるということであり、それが増加するだけだと予想しているからです。しかし、私たちの目標は、知能のコストをどんどん下げて、人々がますます多くのことにそれを使えるようにすることです。それによって、無料で多くの機能を提供し続けることができます。
しかし、それはまた、病気を治したり、より良いロケットの作り方を考え出したりするためにAIを限界まで押し上げることに本当にお金を使いたい人々が、莫大な金額を使うことを意味すると思います。私たちは、ビジネスモデルがうまくいく限り、できるだけ最高のテクノロジーを無料層に投入し続けることにコミットしており、時間の経過とともに私たちからもっと多くのことを期待するべきです。
匿名が尋ねます。ユーザーが安全性ルートをオプトアウトできる年齢確認が始まりますか、またはOpenAIをあらゆる責任から解放する署名可能な免責事項がありますか?繰り返しますが、私たちは、責任免除に署名しても、ヘロインを売ることに相当することはしません。
しかし、成人ユーザーを成人として扱うという原則については、年齢確認されていれば、かなりの柔軟性が得られるでしょう。私たちはそれが重要だと考えており、明らかにこれらの質問をしている人々の共感を得ています。匿名者も尋ねます。ChatGPTはAIのAsk Jeevesですか?私たちはそうでないことを強く願っています。そうはならないと思います。
私たちはすでに触れた他のことに触れるこれらのいくつかがあるので、10分しか残っていないので、同じ質問のいくつかをスキップして、もっと多くのことに取り組もうと思います。将来のQUセッションでは、ここですべてを網羅できない場合、もっと多くのことができます。
MacintoshがiPhoneの前身であったように、なしは尋ねます。MacintoshがiPhoneの前身であったように、ChatGPTをOpenAI製品と見ていますか、それとも世界を本当に再構築するはるかに偉大なものの前身と見ていますか?
研究所として、最初にチャットボットを構築することを目的としてはいませんでしたが、この製品が私たちの全体的な使命とどれだけ一致しているかを評価するようになったと思います。そしてもちろん、ChatGPTがより良くなり、ますます高度なAIと対話する方法であり続けることを期待しています。
しかし、最終的にAIシステムが価値ある成果物を作成し、私たちが議論してきたように科学的進歩を実際に前進させることができるようになることを予想しています。それがAIの本当の永続的な遺産になると信じています。
チャットインターフェースは素晴らしいインターフェースだと思います。それは唯一のインターフェースではありませんが、人々がこれらのシステムを使用する方法は時間の経過とともに大きく変化するでしょう。ヤコブが以前に共有した5秒、5分、5時間のタスクについて考えると、人間にかかる5年または5世紀のタスクについて考えると、それが何を意味するのかを考えることさえ難しいです。しかし、おそらくあなたは異なる種類の製品体験を望むでしょう。
また、おそらくこれがより周囲に常に存在する仲間のように感じられることを望むでしょう。今、ChatGPTに何かを尋ねることができます。それはあなたのために何かをすることができます。しかし、あなたの人生を観察し、必要なときに積極的にあなたを助けるサービスを持つことは本当に素晴らしいでしょう。そしてあなたがより良いアイデアを思いつくのを助け、私はその方向に非常に強く押すことができると思います。
ニールは、GPT 4.5が大好きです。執筆に関しては市場で断然最高であり、それがProにお金を払う主な理由です。その将来について明確にしていただけますか?
私たちは、4.5よりもはるかに優れたモデルを非常に間もなく持つと考えており、執筆に関してもはるかにはるかに優れています。4.5から大きな前進であるモデルを持つまで、それを維持する予定です。
しかし、私たちは4.5がそれほど良いとは思わなくなりました。はるかにはるかに優れたものを提供したいと思います。しかし、私たちは確かにその研究方向を終えたわけではありません。そして、それを他の作業中のものと組み合わせることで、4.5よりもすべての軸で劇的に優れたホイールを得られると期待しています。
執筆のようなこの種のタスクで4.5よりも劇的に優れたモデルをいつ持つと思うか、そしてそれがどこまで行くかについて、共有するタイミングの感覚はありますか?来年は間違いなく期待していると思います。
Windows用のChatGPT Atlasはいつ来ますか?とラースは尋ねます。正確な時期はわかりません。数か月後だと思います。それは私たちが絶対にやりたいことです。
そしてより一般的に、ブラウザや新しいデバイスのような体験を構築できるというこのアイデア、クエリに応答するだけのものではなく、この種の周囲の常に役立つアシスタントに向かうAIを持ち歩けるようにすること。
これは私たちがもっと押し進めるべき非常に重要な方向になるでしょう。モデルの動作に対する新しい正当化に関する透明性を持つために、170人の専門家の意見を含む文書を開示しますか?
フィジ・シモに、彼女がそれをどのように扱いたいかを尋ねますが、私たちが何を共有できるかは正確にはわかりませんが、そこで何かをすべきだと思います。そして、そこでの透明性を高めることは良いことだと思います。
匿名者は、私は2か月目からプロユーザーです。研究者でありフィクション作家として、GPTは私がより明確に考えるのを助けてくれると感じています。質問を失いました。ごめんなさい、それは本当に良い質問でした。もう一度見つけてみましょう。
より明確だがより自由ではありません。想像力は最適化の犠牲になりましたか?どう思いますか?現在のシステムでは、4.5のようなモデルを03のようなモデルと比較すると、そこにトレードオフがあると思います。
これらの技術を理解していくにつれて、これらは間違いなく一時的なものだと思います。ですから、これは良くなると思います。一つの奇妙なことに気づいたのは、人口規模で、現実の人々がChatGPTEのように話していることです。彼らはChatGPTが言うことのいくつかの癖を使っています。
そして、人々とテクノロジーの共進化のような他のことがあると思います。それは私たちが完全に予測できない方法ですが、時間の経過とともに、人々ははるかに有能で、はるかに創造的で、はるかに広範囲に、今日よりもはるかに広く考えると私は期待しています。
そして、私たちは確かにこの例を見始めています。人々がこれを頭の中に保つことは決してできなかったと言っています。このアイデアを持つことは決してできなかったでしょう。そして、人々が、あなたは知っています、私は自分の思考をアウトソーシングし、このものが私に言うことをするだけだと言う他の例を聞きます。
そして明らかに私たちは後者よりも前者の方にはるかに興奮しています。感情や精神的健康を処理することに関してアクセシビリティの理由でそれを使用することについて人々を批判する一方で、感情的に知的なモデルを構築する理由を理解するのを助けてもらえますか?
繰り返しますが、それは良いことだと思います。私たちはそれを望んでいます。それについて幸せです。同じモデルが、精神的に脆弱なユーザーに妄想を奨励するためにも使用される可能性があります。そして私たちが望むのは、これらのモデルを意図的に使用している人々です。モデルはそれが何であり、何でないかについてユーザーを欺いていません。モデルは役立っており、モデルはユーザーが目標を達成するのを助けています。
私たちはもっと多くのそれを望んでおり、より科学的な言葉がないので、モデルがユーザーをだますように感じるものは少なくしたいと思っています。ここでの不満は完全に理解しています。害を引き起こしているものを止めようとするときはいつでも、完全に良い使用もいくつか止めてしまいます。
しかし、私たちがここから来ている場所を理解してください。それは、それを認識していて、そこから本当の価値を得ている大人にサービスを提供しようとしており、途中で望んでいない人々に意図しない害を引き起こさないようにすることです。では、
あと数分しかないので、他の方向の質問があるかどうか見てみましょう。さて、ラジからの質問です。AIによる大規模な雇用喪失はいつ起こると思いますか?
私たちはすでに、現在のモデルが多くの知的職業を実行できることを止めるギャップが、生の知的能力よりも統合とインターフェースについてのものである時点にいると思います。
そこで、私たちは確かに、多くの仕事の自動化が今後数年間で起こることについて考えなければなりません。そして、これは私たちが集団的に考えるべき大きなことだと思います。それらを置き換える仕事は何か、そして私たちが皆従事する新しい追求の種類は何かです。これは私からの質問で、ライブストリームからのものではありません。
意味はどのようなものになると思いますか?将来の仕事はどのようなものになると思いますか?AIが現在の多くのことを自動化するとき、人々がどのように充実感を得て、時間を過ごすと思いますか?
そうですね、これは非常に哲学的な質問だと思います。多くの方向に進むことができると思いますが、私が期待することは、高レベルの目標設定です。どのような追求を追いかけるかを選ぶこと、それは人間のままであり続けるものであり、多くの人々がそこから意味を得ると思います。
また、世界についてはるかに多くを理解する能力、新しい知識の信じられないほどの多様性、そして新しいエンターテインメントもありますが、世界にあるであろう知性も、人々に多くの意味と充実感を提供すると思います。
さて、速射、2分です。シンディは、GBT6はいつかと言います。ある意味では、それはあなたへの質問かもしれません。GPT5では、以前のモデルでは、GPT4、GPT3のように、新しいモデルをどのようにトレーニングするか、出荷する製品は何かについて、非常に緊密な関係を保ってきました。
そして私が言っていたように、今は統合側でやるべきことがたくさんあります。たとえば、GPT-5では、推論モデルを主力モデルとして本当に持ち込む初めてのことです。そこで、これらのリリースとこれらの製品を研究プログラムと密接に結びつけなくなりました。
私もいつそれを呼ぶかは正確にはわかりませんが、私たちからの明確なメッセージは、今から6か月後、おそらくもっと早く、モデル能力の大きな前進があると予想しているということです。
フェリックスは、IPOはまだ計画されていますか、そして構造はどのようになりますか?資本を増やすための規則はありますか?特定の計画や、これがいつ起こるかということはありませんが、必要な資本ニーズと会社の規模を考えると、それが私たちにとって最も可能性の高い道だと言うのは公正だと思います。
しかし、それは今、私たちにとって最優先事項ではありません。アレクは、1.4兆ドルの投資に満足していると述べました。時間の経過とともにこれをサポートするためにどのレベルの収益が必要ですか?最大の収益ドライバーは何ですか?ユーザーごとのサブスクリプションだけではあり得ません。
最終的には、年間数千億ドルの収益に到達する必要があり、私たちはそれに向かってかなり急な曲線にいます。エンタープライズが私たちにとって大きな収益ドライバーになることを期待していますが、消費者も本当にそうなると思います。
そしてそれはサブスクリプションだけではなく、新製品、デバイス、他にもたくさんのものがあるでしょう。そして、これはAIの発見と科学が本当に何を意味するか、そしてそれが解き放つすべての収益の可能性については何も言及していません。そして、それがもっと見えるようになるにつれて、私たちはインフラへの支出を増やすでしょう。
時間になりました。参加してくれて、質問してくれて、どうもありがとうございました。この形式から学び、それを繰り返し、このようなQ&Aを続けていきたいと思います。どうもありがとうございました。


コメント