Sam Altmanの衝撃発言:AIがバイオテロの脅威になると警告

OpenAI・サムアルトマン
この記事は約9分で読めます。

OpenAIが開催した開発者向けタウンホールにおいて、Sam AltmanはGPT-5の価格が2027年末までに100倍安くなるという大胆な予測を示した。しかし、より注目すべきは、彼がAIによるバイオテロリズムとサイバーセキュリティへの脅威について率直に警告した点である。Altmanは2026年から2027年にかけてAIに関連する重大な事態が発生する可能性があり、その最有力候補がバイオ兵器関連であると述べた。同時に、AIは問題であると同時に解決策でもあるという矛盾した主張を展開し、問題を作り出した者が解決策を売るという歴史的な悪役のパターンを彷彿とさせる懸念を生んでいる。技術の民主化が進む中で、悪意ある行為者が高度なAIモデルにアクセスできるようになる危険性について、具体的な対策が示されないまま不安だけが残る内容となった。

Sam Altman said what???
- I Stream on Twitch - Want to order coffee over SSH?ssh terminal.shopBecome Backend Dev: h...

OpenAI開発者タウンホールでの質疑応答

OpenAIが開発者向けのタウンホールを開催しました。そこにはたくさんの開発者が集まって、Sam Altmanがさまざまな質問に答える形式でした。OpenAIの視点、あるいは彼自身の視点から今後何が起こるのかを説明しようとしていたんですね。正直なところ、かなり良い質問がいくつも出ていましたし、Samからの回答も興味深いものがありました。

ただ、このタウンホールの終わりの方で、本当に不快な質問が出たんです。でもそれ以上に不快だったのが彼の回答でした。まさか彼がそんなことを言うなんて信じられませんでした。状況がより不確実に感じられるようになったんです。

というのも、通常AIの終末論的な話を聞きたければ、Anthropicの最高経営責任者であるDario Amodeiのところに行けばいいわけです。彼が話すたびに、苦痛に満ちた表情で「寡頭制が生まれるだろうし、それを防ぐ方法がよくわからない。AIを作る人はみんな兆万長者になって、永続的な下層階級が生まれるだろう。まあ、それが進歩のコストの一つなんだ」みたいなことを言うんです。毎回「おい、Dario、なんでそんなに落ち込ませるんだよ。天才の国について語るのはやめてくれ。気分が落ち込むから」って感じなんですよね。

モデルのコスト削減について

とにかく、このタウンホールは1時間ちょっと続きました。その中から私が気に入った部分をいくつか取り上げて、少し話し合ってみましょう。そして最後に、ちょっと変な感じがする部分についても触れます。まだ何となく違和感があるんです。誰もそれについて違和感を持っていないことに、私自身が違和感を覚えているんです。よくわかりません。私って簡単に影響されやすいのかもしれませんね。

ある人が質問しました。「モデルは本当に高いんですけど、もっと安くしてくれませんか?」

Samは答えました。「2027年末までにGPT-5の2倍の高度な知能を提供できると思います。もっと良い推測をしたいですか?それとも私が言いましょうか。誰か推測したい人はいますか?少なくとも100倍は安くなると言っておきます」

これってかなり大胆な発言ですよね。今から22ヶ月以内に、5の2倍の性能のものが100倍安くなるというんです。ちなみに、これはSam Altmanが実際に一貫して言っていることで、AIのコストは毎年10倍削減されるだろうと述べています。

だから22ヶ月、23ヶ月後には、5の2倍のものが100倍安くなっているはずで、そうなれば多くの人が実際に使えるようになります。どうやって100倍も安くするのか全く分かりませんが、とにかく100倍安くなるそうです。これを実現するために、たった一人の男がその重責を担わなければならないんじゃないかという予感があります。推論の重みを肩に背負って。

技術選択の固定化という懸念

このクレイジーな部分に入る前に、もう一つありました。なんと、有名人が来ていたんです。見てください。

「ちょっと違うことについて聞きたいんですが、もっと技術的な側面について」

ちなみに、これはTheo、YouTuberでY Combinatorの創業者です。

「モデルや私たちが使う開発ツールが良くなるにつれて、私が恐れているのは、現在の動作方法に固定されてしまうかもしれないということです」

Theoはこの問題をもう少し詳しく説明し、Samはもちろん実質的には答えにならない答えを返しました。正直なところ、これは非常に良い質問で、特に広告がじわじわと入り込んでくる中で、大きな懸念事項なんです。ハードコードされた大きく表示される広告を超えた段階では、LLMが常に特定の答えを返すようになるかもしれないと想像できます。

とはいえ、これはいつも起こっていることですよね。ウェブアプリケーションを構築するように頼むと、Reactが返ってくる確率は本当に、本当に高いんです。特定のパターンが存在していて、統計的に言えば、それが使うべきパターンなんです。そして、これらの魔法のような統計機械が何かをするとすれば、その質問に必要な答えを提供するでしょう。それは同じ技術が何度も繰り返されるだけかもしれません。

これは実際、かなり興味深いことです。なぜなら、そもそもシステムの作り方を知らない人が、どうやってより良いシステムを作ることができるのでしょうか。さらに言えば、これらのモデルは、80%が同じアイテムを使い続けている中で、どのシステムを選べばいいかをどうやって知るのでしょうか。最も結果が多いものを選びたくなるんじゃないでしょうか。

素晴らしい質問です。とても難しい問題です。少し手動での操作が入ってくるような気がします。またしても、広告です。ちょっと心配ですね。

バイオセキュリティに関する衝撃的な警告

さて、実際に大きな話題に入りましょう。この質問については、誰も話していないような気がして、私自身も驚いているんです。とても興味深い質問なんですが、それ以上に回答が衝撃的でした。質問全体を再生してから、彼の回答の一部を聞いて、「えっ?」という部分で止めます。

「質問は、このロードマップの中でセキュリティはどこに位置づけられるのか、そして広く言って、こうした問題についてどう考えているかということです」

「セキュリティ全般ですか、それともバイオセキュリティ限定ですか?」

「どちらでも、できればバイオセキュリティについて」

「2026年にAIが間違った方向に進む方法はたくさんあります。確かに私たちがかなり心配しているのはバイオです。モデルはバイオにかなり優れています。現時点では、私たち、つまりOpenAIだけでなく世界全体の戦略は、誰がアクセスできるかを制限しようとすることです。そして、人々が新しい病原体を作るのを助けないように、たくさんの分類器を設置しています」

「AIはバイオテロリズムにとって本当に問題になるでしょう。AIはサイバーセキュリティにとっても本当に問題になるでしょう。しかし、AIはそれらの問題に対する解決策でもあります。他の多くの問題に対する解決策でもあります。私たちには、この回復力のためのインフラを提供する社会全体の取り組みが必要だと思います。常にブロックすべきものをブロックするという私たちが信頼する研究所だけに頼るのではなく、世界には多くの優れたモデルが存在するでしょう」

「私たちは多くのバイオ研究者や企業と、新しい病原体に対処するために何が必要かについて話し合ってきました。多くの人がこの問題に関心を持っていて、AIが実際に役立つようだと報告している人も多いと思います。しかし、これは技術的な解決策だけでは済まないでしょう。完全に技術的な解決策ではありません」

「世界はこれらのことについて、これまでとは異なる方法で考える必要があるでしょう。だから私は現状についてとても心配しています。しかし、この回復力ベースのアプローチ以外に道は見えません。そしてAIは実際にそれを迅速に実現するのに役立つようです」

「今年、AIに関して目に見えて本当に悪いことが起こるとしたら、バイオが妥当な賭けだと思います。そして来年、再来年と進むにつれて、他の多くのことも本当に悪い方向に進む可能性があると想像できます」

えっ、COVID-2.0みたいなものが来るってことですか? 2026年、2027年に恐ろしい瞬間が訪れるってことを示唆しているんですか? これは良くない話に聞こえます。

問題と解決策が同一であるというジレンマ

それに、この答えは本当に嫌いです。「AIはバイオテロリズムにとって本当に問題になるでしょう。AIはサイバーセキュリティにとっても本当に問題になるでしょう。しかし、AIはそれらの問題に対する解決策でもあります。他の多くの問題に対する解決策でもあります」

おい、何百万人もの人々に潜在的な影響を及ぼす可能性のあるものを作り出しておいて、「でもね、問題でもあるけど解決策でもあるんだよ」って言うって、何なんですか。

歴史の授業でいつも警告されていたことじゃないですか。悪役がいつもやることじゃないですか。問題を作り出して、それから解決策を売りつける。私は間違っていますか? 私たちは古典的な歴史上の悪役が積極的に作られているのを目撃しているんでしょうか。

とにかく、これが彼が落とした現実なんです。そして、ここで問題なのは、AIがどうやってそれを解決するのかさえ分からないということです。もし誰かがこれらのモデルを手に入れたら、もし物事が安くなったら、もし技術がはるかに良くなったら、今日の大規模モデルを数年後に作るのが、技術の改善やその他のナンセンスによって大幅に安くなると想像できます。

そして突然、彼らは恐ろしいことをする独自のモデルを持つことができるようになるんです。それで、どうするんですか? それをどうやって防ぐんですか? AIはどうやってそれを防ぐんですか? 防げません。誰かがあなたの超素晴らしいモデルを頭から搾り取って、小さなものに放り込んで、バンバンってやるだけです。どうするんですか? これは良くないです。

分かりません。ただ、この件について話さなければならないと感じたんです。この動画が私の動画の中で最も幸せじゃないものだということは分かっています。ただ、どうしたらいいか分からないんです。どうしてこの点について誰も話していないのかという感じです。

Sam Altmanが、もし2026年か2027年に本当に悪いことが起こるとすれば、それは生物兵器だと考えているというのは、かなり興味深いと思います。

うわー、それは勝利じゃないですね。今日は勝利じゃないです。

とにかく、私の名前は… このタウンホールを楽しんでいただけたら嬉しいです。皆さん、いつも本当に感謝しています。分かりますよね、何を言っているか。皆さんが励まされることを願っています。外に出て、実際に時間をかけて自分の技術を向上させていることを願っています。

Clawdbotにすべてのプライベートメッセージを乗っ取らせて、それを世界中に無料で公開してしまうようなことはしていないことを願っています。皆さんが良い一日を過ごしていることを願っています。心配しないでください、悪いSam Altmanがあなたを捕まえることはありませんから。心配しないで。

ねえ、どうして私がサンフランシスコにいるのか不思議に思っているでしょう? 実は大きなイベントのためにここに来ているんです。そしてそのすべてをストリーミング配信する予定です。今後5日間、私のチャンネルでライブ配信します。だから、この動画を見ているなら、おそらく今ちょうどライブ中だと思います。

コメント

タイトルとURLをコピーしました