OpenAI CEO サム・アルトマン:AIの戦争利用、自由、そして不死

OpenAI・サムアルトマン
この記事は約33分で読めます。

OpenAIのCEOサム・アルトマンが、AI技術の急速な進歩とその社会的影響について包括的に語ったインタビューである。現在のAIシステムが人間の最高レベルの知能に到達しつつある現状を指摘し、社会がこの技術的飛躍に適応するまでの時間差が大きな課題であると述べている。欧州におけるAI主権とスターゲート・プロジェクトの展開、規制のバランス、雇用への影響、AI兵器化の可能性、そして人類の存続に関わる実存的リスクまで、多岐にわたるテーマを論じている。アルトマンは、AIによる人類絶滅の確率を約2%と見積もり、三つの主要なリスクシナリオを提示しながらも、グローバルガバナンスと広範な技術アクセスによる対処の可能性に言及している。また、ジャーナリズムの未来、著作権問題、OpenAIの非営利から営利への移行、そして最終的には科学的発見におけるAIの役割に対する期待を語っている。個人的には、農業への情熱と自然への愛着を明かし、いつの日かOpenAIのCEO職をAIに譲り、農業に専念したいという願望を表明している。

OpenAI CEO Sam Altman: AI Warfare, Freedom & Immortality | MD MEETS Episode #1
In this premiere episode of MD MEETS, Axel Springer CEO Mathias Döpfner sits down with OpenAI CEO Sam Altman for an unfi...

OpenAI CEO サム・アルトマンへのインタビュー

赤ちゃんの調子はどうですか。

素晴らしいですよ。男の子なんです。

男の子ですか。もっと欲しいですか。

もっと欲しいですね。ええ。でも大変な仕事ですけどね。

ええ。4人いたら素晴らしいと思います。

そうですね。それが私の野心レベルです。4人いたら素晴らしいですね。

サム、質問を始める前に、興味があるのですが、今この瞬間、あなたが最も考えている質問は何ですか。

頭の中で最優先にあることですか。たくさんあります。最近頭にあるのは、AIが進歩してきたということです。人々が気づいているよりもはるかに進歩していると思います。世界のほとんどの人にとって、彼らはまだChatGPTを使っているだけです。しかし今、私たちには最も賢い人間と同じくらい賢いシステムがあり、最も困難な知的競争で人間を打ち負かしているのです。

ですから、私たちが持っているものと世界が使っているものとの間に、この巨大なギャップがあるわけです。そしてそれがどう展開していくのか、経済と社会が追いつくのにどれくらい時間がかかるのか。それが大きな問題の一つです。これらのシステムが本当に自己改善するようになったとき、どうなるのか。ここで興味深いポイントは、問題解決のスピードが常に問題創出のスピードより少し先を行っているかどうかということです。しかし現時点ではかなり良好に見えますね。

そうですね。現時点ではかなり良好に見えます。

数ヶ月前にベルリンで一緒に座ったとき、スターゲート・ヨーロッパについて話しましたね。そのプロジェクトに何か進展はありますか。

ええ。私たちはあなたに大いに触発されて、OpenAI for Germanyを発表したところです。そして、SAPとパートナーであるMicrosoftと共に、ドイツのためのフロンティアモデルを備えた主権クラウドを構築すると発表しました。これは私たちにとって初めての種類のパートナーシップです。国が主権とフロンティアモデルの両方を必要としている理由を私たちは完全に理解しています。そしてこれを提供し、ここで先駆けることができる機会に非常に興奮しています。

米国のスターゲート・プロジェクトに匹敵する、より大きなプロジェクトという考えについてはどうでしょう。それはヨーロッパでまだ現実的な選択肢だと思いますか。

私たちはそれをやることに興奮するでしょう。それはヨーロッパの人々の問題になると思います。ご存知のように、これらのデータセンターは資本だけでなく、エネルギー資源、集中力における巨額の投資です。しかし私たちはそれを支援することに非常に興奮するでしょう。これは素晴らしい第一歩だと思いますし、人々がこれが良いアイデアであると納得するでしょう。そしてここからスケールアップしたいと思っています。

でも原子力エネルギーなしではできませんよね。つまりドイツだけではできない。フランスや原子力エネルギーが必要になりますよね。

原子力エネルギーなしでもできますよ。繰り返しますが、それはドイツの人々とドイツの政治家の問題だと思いますが、可能です。大量のエネルギーが必要ですけどね。

サム、あなたには一種のヨーロッパ愛国主義がありますね。それはどこから来るのですか。なぜヨーロッパを気にかけるのですか。最近多くのアメリカ人にとっては失われたケースのように見えますが。

多くの理由があります。強いヨーロッパは世界にとって重要だと思います。時間の経過とともに権力のバランスがどのように変化する可能性があるか、そして私が非常に大切にしている価値観を広めるのに役立つ同盟がどこにある可能性が高いかを理解しようとする中で、強いヨーロッパは非常に重要だと思います。

私はヨーロッパが大好きです。ここで時間を過ごすのが好きです。ヨーロッパから生まれた文化、歴史、科学的進歩の量は偶然ではないと思います。ですから、アメリカの友人の何人かが「ああ、もう失われた原因だ。博物館だ。希望はない」と言うと悲しくなります。それは確かに私の考えではありません。

大きな枠組みで言えば、中国との大きな競争において、アメリカはヨーロッパを同盟国として持つことに関心を持つべきだと思われます。逆に、私たちも一人ではできないと思います。

強く同意します。繰り返しますが、トレードオフと課題については現実的ですが、ヨーロッパは米国にとって非常に重要な自然な同盟国だと思います。

現時点でヨーロッパは何を間違えていますか。

これは私の専門外ですが、AIを見る狭いレンズで言えば、規制の会話をしてきました。それが進行中であることは知っています。EUはそこでさらに決定を下すでしょう。そしてあなたは批判的なアプローチを持っています。

彼らがさらに規制すれば、OpenAIにとってある時点で市場ではなくなるかもしれないと言いましたね。

私たちが言ってきたのは、ここでサービスを提供できるよう最善を尽くすということです。そして新しいモデルを立ち上げられない、あるいはそれほど早く立ち上げられない時があります。そうするとヨーロッパのユーザーが非常に怒ります。私たちは説明します。これはヨーロッパのユーザーにペナルティを与えたいからやっているのではありません。これは私たちが遵守しなければならないからです。

ですから確実に常に試みますが、確かに想像できます。私たちが遵守できないような一連の規制は確実にあり得ます。それは起こらないと思います。起こらないことを願っています。そして起こると思うのは、世界のさまざまな国がさまざまな規制アプローチを試みるということです。AIについて、いくつかはうまくいき、いくつかはうまくいかないでしょう。

人々はより自由主義的またはより保守的なアプローチのリスクと利益を学ぶでしょう。そして私たちはこのすべてにおいて非常に早期の段階にいるので、世界は進むにつれて適応していくでしょう。

ロナルド・レーガンはかつて有名にこう言いました。「経済に対するヨーロッパの理解は、ビジネスが動けば課税する。それでも動けば規制する。死んだら補助金を出す」

ワオ、それは聞いたことがありません。印象的な引用ですね。わかりません。

規制アプローチについてどう思いますか。

世界全体が規制緩和をしています。ヨーロッパは規制を強化しています。それはうまくいきません。自己破壊的です。特定の分野では賢い規制が必要です。大西洋を挟んでアメリカとヨーロッパの両方で必要です。しかしヨーロッパのこの孤立したやり方、規制の世界チャンピオンになることは、災害につながっており、本当にイノベーションを妨げています。

外部から見た私の軽い観察では、ヨーロッパは「わかった、これは行き過ぎたかもしれない。引き戻そう」と言っているように見えます。それは正確ですか。

それは現実的な評価だと思います。

でも、ヨーロッパの主要経済国、たとえばドイツの政府に対する具体的なアドバイスは何でしょうか。ヨーロッパでAIの進歩とイノベーションを本当に刺激するために何が起こる必要がありますか。

まず第一に、ヨーロッパではAIの進歩が起きていると思います。特にドイツでは、OpenAI製品のドイツでの利用は驚くべきものです。ヨーロッパで最大の市場です。事実上、18歳から24歳のすべての若者がドイツでChatGPTを使っています。今では世界で5番目に大きな市場だと思います。昨年の狂気的な成長です。多くのスタートアップや大企業が私たちのAPIで構築しています。ですから起きていると思います。

これらの企業の一部から、これができない、あれができないという多くの不満を聞きます。対処すべき点が明確にあります。AIに関する私の一般的なアドバイスは、大きなリスクに焦点を当て、大きなリスクを規制することです。それは重要だと思います。これらのフロンティアモデルには本当の壊滅的なリスクの可能性があります。しかし小さなリスクを無視しないでください。小さなリスクを受け入れる意欲を持ってください。

AIと雇用の未来

人々がAIについて話すときの主なトピックの一つは常に雇用です。AIは最終的により多くの雇用を破壊するのか、それともより多くの雇用を創出するのか、どう思いますか。

短期的には多くの雇用を破壊すると思います。長期的には、他のすべての技術革命と同様に、私たちはまったく新しいことを見つけ出すと思います。

私は、より多くのものに対する人間の需要、他の人に役立つこと、価値を創造すること、コミュニティの一部であることへの人間の欲求は、ほぼ無限だと信じる用意があります。すべての主要な技術革命において、非常に賢い人々が「これで終わりだ。これが最後だ。産業革命の向こう側にはもう仕事はないだろう」などと言ってきました。

そしてそれは常に想像力の欠如でした。AIでは今回は違うと言う人がいます。なぜなら人間の特別なことは知的能力であり、それがすべてをできるなら私たちには何が残るのか、と。

それに対する私の反論は、私たちは他の人々を本当に気にかけるように非常に配線されているように見えるということです。機械の世界についてはそれほど心配しません。私たちは非常に他の人々に焦点を当てています。ですから新しい仕事が何になるかは正確にはわかりませんが、非常に人間中心的なものになると思います。

人間、人間社会、私たちには主人公のエネルギーがあります。機械が私たちより賢くてもあまり気にしません。彼らはすでにそうですから。

完全に同意します。結局、何が起こるか、どのような新しい形の経済、成長、価値創造が起こるかは想像できません。しかし数週間前にアイダホで夕食をしたとき、テーブルで誰かがあなたに魅力的な質問をしました。「サム、AIがあなたの仕事さえも破壊すると想像してください。何をしますか」。そしてあなたは私たちを驚かせて、農民になると言いました。なぜ農民ですか。

まず第一に、AIが私よりもはるかに優れたOpenAIのCEOになれる時が来ると思います。そしてその日が来たら、私は熱狂的になるでしょう。私には他にやることがたくさんありますから。

ですからそれは私を怖がらせません。悲しくさせません。それはただ「わかった、この一つのことをやった。自動化された。自動化されることを望んでいた。それが私たちがやっていることの種類だ」という感じです。もし望むなら、OpenAIには私にとってまだたくさんの興味深い役割があります。それは素晴らしいことです。でもこの過去10年間は私にとって非常にストレスフルでした。膨大な量の仕事でした。私は時々住んでいる農場を持っていて、本当に大好きです。素晴らしいペースの変化のように聞こえます。

本当に農場を楽しんでいるだけでなく、そこで働いたり自然の中で何かをしたりすることに実際に参加しているのですか。あなたにとって一種の逃避のようなものですか、それとも何ですか。

以前はそうでした。そしてChatGPTの立ち上げ以来、私の人生は非常に狂気的になり、仕事と家族と過ごすこと以外何もしていません。私のすべての趣味は脇に追いやられてしまいました。ですから、トラクターを運転したり、物を摘んだりすることはできませんが。

でも自然はあなたにとって重要ですか。

自然は私にとって非常に重要です。そして私は

あなたは自然愛好家ですか。

自然愛好家ではありません。いいえ、自然愛好家ではありません。でも自然の中で過ごす時間が大好きで、保護活動が大好きです。

最近出版されたあなたについての伝記を読んだとき、それまで知らなかった言葉を学びました。ペトリコール。それが何か説明できますか。

何のことかわかります。でも何について読んだのかわかりません。

雨の後の匂いです。雨が乾いた土に降ると、その匂いや香りをペトリコールと呼びます。そしてあなたはそれがあなたの好きな香りだと言ったそうです。本当ですか。

その匂いが大好きです。ええ。

それは

説明できますか。何があなたにとって特別なのですか。何が好きなのですか。

なぜ特定の匂いが他の匂いより良いのかを説明するようなものです。わかりません。ただそれは特に素晴らしい匂いだと思います。実は、カリフォルニアには長い乾季があって、それがもうすぐ終わろうとしています。先日、最初の雨がとても楽しみだと思っていました。でもええ、それが起こる最初の日の匂いが大好きです。

わかりました。でもロマンチックな記憶はないのですね。

いいえ、いいえ。素晴らしい匂いだと思います。

あなたは実際にこのシミュレーション理論の本当の信者ですか、それともただそれと戯れているだけですか。

混乱しています。何か奇妙なことが起こっていると思います。人類の歴史全体の中で、私たちが生きているこの時期は何と奇妙な時期でしょう。

まさに今この会話をしているなんて、何と奇妙な時期でしょう。ですから何か奇妙なことが起こっていると思いますが、何なのかわかりません。シミュレーションにおいてさえ、シミュレーション理論において、人々はそれを多くの異なるレベルで話しており、どう考えたいか、わかりません。

でも一つ確かなことは、私たちの意識と私たちが現実として定義するものは、本当に起こっていることのほんの一部にすぎないということです。

つまり、わかりませんが、私たちの意識は本当に起こっていると確信できる唯一のものだと言いたいです。その理論の名前は忘れましたが、そう信じています。そして確かに私たちの誰にとっても最も重要なことです。でもええ、生きているには異常な時期です。

永遠の命と未来のビジョン

イスラエルの作家ハラリが『ホモ・デウス』という魅力的な本を書きました。そこで彼は基本的に人類の次の時代を描写しています。そこでは私たちはほとんど神のようになります。永遠の命、実務的な問題に対処しない、仕事は基本的に他者によって行われる、無限の知恵と知性。そのビジョンを共有しますか。そしていつそれが起こると思いますか。

シリコンバレーの人々が大好きな引用があります。正確には言えませんが、こんな感じです。「私たちは神の技術を持っているが、中世の道徳的枠組みを持っている」。もう一つあるのですが、でも、技術、私たちの技術的能力が、私たちの知恵、判断、望む社会のあり方を発展させる時間を大きく上回っているという感覚があると思います。

そして私には悪い意味でバランスが取れていないように感じます。それについて何をすべきかわかりません。技術は、ここにあるからです。もはや、私は何年もこれについて話してきました。これは、AIが私たちより賢くなった年だと思います。それは大きな、大きな瞬間です。

そして人生は続きますが、何か根本的なことが変わりました。どれだけSF的になるかわかりません。誰もわかりません。コンピューターの中で永遠に生きるのか。たくさんの病気を治すだけか。あるいはどうなるか。

言っておきますが、この新しい、もうそれほど新しくないですが、ここ数年で『パンテオン』という番組があります。これらの問題のいくつかを探求しており、それは最高です。私はあまりテレビを見ませんが、例外を作りました。そしてそれは非常に長い間見た中で最高のテレビ番組です。

ですからこれらの問題は時代精神の中にあり、ある意味新しく重要で、理論的ではないと思います。確かに、すべてがどうなるかわかりません。

AIが解決しない問題は何かありますか。

ええ、私たちは皆まだ惨めになる方法を見つけ、たくさんの逆境を作り出すと思います。それは解決されないと思います。

ユヴァルは一つ間違った予測をしました。もう戦争はないと言いました。戦争は時代遅れだと。最近は逆のことが見られます。AIはどの程度戦争を変えるのでしょうか。そして完全に制御不能になるシナリオにつながる可能性はありますか。

AIは戦争をかなり変えるだろうと思います。軍は常に前の戦争を戦いたがるという言葉があります。彼らは技術が状況をどのように変えるかを十分に理解していません。

ですから前の戦争が銃で戦われたなら、次の戦争も銃で戦われると仮定します。そして、技術が戦争を大きく変えてきたのを見てきました。

AIによってすでに、AIがソフトウェアを書けるという事実、AIがサイバー攻撃の発見に優れている可能性が非常に高いという事実は、戦争の状況、または今後10年間でどのようなものになるかを大きく変えました。

でも正確にはどうなるかわかりません。

OpenAIは軍事部門と協力して、戦争に勝つことに違いをもたらすでしょうか。

確実にそうするでしょう。すでにいくつかの方法で。武器会社になりたくはありませんが、それは言うのは常に簡単で、すべてのケースで判断するのは難しいです。

たとえば、本当に優れたプロパガンダ宣伝者であれば、少し武器会社ですか。そして興味深いのはアプローチがどう変化したかです。数年前、防衛産業全体は夕食にさえ招待されませんでした。今では民主主義を守るヒーローです。

防衛産業を支援しないのは明らかに間違いだと思います。そして私たちは今世界で、企業が強力な国防を持つことがなぜ重要かを思い出させられています。私は確かにそれを信じており、彼らと協力できることを誇りに思っています。

そうですね。神のような存在形態と永遠の命について話しました。永遠に生きたいですか。

そうは思いません。それがどのようなものか本当に概念化できません。なぜなら、それが可能になる頃には、すべての病気を本当に治し、臓器のコピーを作るようなことができるようになるでしょう。永遠というのは長い時間のように思えます。そして物事の自然な秩序と、ある種の継続的な前進の進歩には死と入れ替わりと新しい人々が必要だと思います。ですから、その世界がどのようなものか完全に頭を包み込むことができません。でも永遠、永遠というのは本当にたくさんのように思えます。

論理的には、人生が無限の量であれば、おそらく退屈だろうとわかっています。なぜなら物事を楽しまないからです。一方、より感情的な基礎では、終わりがあることを受け入れるのは難しいです。

完全にそうです。そしてまた、本当に長い間永遠に生きることさえ可能な世界では、他の多くのことも変化しているかもしれないので、退屈には見えないかもしれません。わかりません。深く考えたことのあることではありません。

でもあなたはかつて、オスカー・ワイルドの『ドリアン・グレイ』が特に好きな本だと言ったと思います。ですから永遠の若さという考えは魅力的に思えるか、いずれにせよ若さそのものが。

高校でその本を読んで、非常に興味深く美しく書かれた本だと思いましたが、特に好きというわけではありません。

何歳まで生きたいですか。

私が望むのは、健康でいることです。ここまで生きたいという年齢よりも、私がやりたいことは、非常に病気で衰えている人生の部分が短いことです。ですから長い健康な人生と、その後短い終末期を望みます。

AIは助けになりますか。

絶対に。

シリコンバレーのAI開発者たち

OpenAIの創設と、より一般的にシリコンバレーにおけるAIの発展について言えば、今日は激しい競争相手に見える多くの人々がいますが、彼らは最初は一緒に働いていました。ピーター・ティール、イーロン・マスク、デミス・ハサビス、ムスタファ・スレイマン、ポール・グラハム。

マーク・アンドリーセン、そのサークル、そのグループ、そのギャングの中で、あなたの隣で最も影響力のある人、その文脈で最大の役割を果たしたのは誰だと思いますか。

最もという順位はわかりませんが、全体がかなり密に織り込まれたエコシステムのようなものです。チップやモデルや製品を作っている人がいます。そして明らかに、競合製品や競合モデルを作ろうとしている人がたくさんいます。しかしそれは、インターネットの初期や半導体ブームの初期について読んだことを思い出させます。一人の人間や一社が確実に推進するものではなく、スタックのあらゆるレベルで重要な仕事をしている多くの人々がいるような集団のようなものです。

あなたの最も重要な貢献は何だと思いますか。つまり、ええ、あなたはOpenAIを創設し、今それを運営しています。でも、何かに気づいて、そして何かをした瞬間、エピファニーがあり、それが今日まで最大の影響を持っていると言えるようなことはありますか。

スケーリング則を発見した後、しかし世界にとって明白になる前に、コンピュートをスケールするという大きな賭けをしたことかもしれません。他の誰もが、つまり当時の私たちの大きな競争相手だったDeepMindでさえ、言語モデルは重要だと思わず、正しい道ではないと言っていました。GPT-3を立ち上げた後でさえ、ChatGPTを立ち上げる瞬間まで、世界が本当に「わかった、ここには本当の有用性がある」と言うまで時間がかかりました。他の誰もが当時は異なる方向を向いていました。ですから、言語モデルをスケールアップすることに会社全体を賭けるという確信を持った賭け、それは当時、資本の観点からも研究の焦点からも、聞こえるよりもはるかに難しいことでした。それが大きな貢献だったと思います。

ChatGPTの立ち上げ、それをやると決めたこと。そしてこの信念も、当時は明白ではありませんでした。AIは比較的秘密裏に開発されるべきで、そこに出すには十分に堅牢で安全ではなく、人々を深く関与させたくないと考える人がたくさんいました。

ですからその二つのうちの一つかもしれません。わかりません。私の仕事はこれらの大きな瞬間というよりも、たくさんの小さな決定のようなものだと思います。

今日のイーロンとの関係はどうですか。

あまり話しません。

彼はあなたを訴えていますよね。数回、いや何度も。何回か数えていません。

それは最終的にはイデオロギー的な戦いでもあるのですか、それとも単に競争的なものですか。どこから来るのですか。

わかりません。彼側のことは彼に聞いてください。でもイデオロギー的ではないと思います。なぜなら彼は基本的に、xAIはOpenAIがやっていることと非常に似ているからです。彼らの製品を見ると、私たちのものと非常によく似たクローンのようです。

彼らは私たちがやらない多くのことをやっています。ですから、彼は私たちが制限的すぎると言うかもしれません。それが違いだと。でも単に競争的なものだと思います。

それでも、これらの異なる大規模言語モデルにはバイアスがあるという大きな議論が起こっています。一方は右寄り、もう一方は左寄りです。GPTはウォーク過ぎると言う人もいます。何か根拠がありますか、それとも中立だと言いますか。

つまり、今では私たちが十分にウォークではないと言う人の方が多いと聞きます。

それは両側から批判されるなら良い兆候です。

まさにそう言おうとしていました。私たちの目標がChatGPTに中央値の見解を表現させ、そこから多くのカスタマイゼーションを可能にすることなら、真ん中にいようとすると両側から厳しい批判を受けることになります。

そして私たちの目標は、社会の加重平均のような中心点にいて、その中で人々にChatGPTの振る舞い方をカスタマイズする大きな自由を、非常に広い範囲内で許すことです。

大きく本当の問題と、無視すべき小さな問題について話しました。2015年、あなたはブログにこう書きました。引用します。「超人的な機械知能の発展は人類の存続にとって最大の脅威である」。その結果、より多くの規制を求めました。それはまだあなたの見解ですか、それとも考えを変えましたか。

それはまだ私の見解です。

別の会話であなたは可能性について語りました。でも明確にしたいのは、人類に対する実存的リスクの規制と、この銀行アプリケーションにはこれを使えるがこれには使えないというような規制は非常に異なると思っているということです。その点では同意します。

実存的リスクについて話しましょう。あなたはそれを数値化しました。私たちがそれについて話したとき、人工超知能が意識を発達させる可能性は約2%で、一度意識を発達させれば人類を破壊または絶滅させる可能性があると。詳しく説明してもらえますか。

まず、意識を発達させることが正しい枠組みだとは思いません。第一に、2%を、私が計算した文字通りの数字として受け取らないでください。

しかしゼロではなく、真剣に受け止めるのに十分大きいが、支配的ではない何かです。

でも300人が乗っている飛行機が墜落する統計的リスクは0.00001%です。比較的小さな事故でさえ。ですから人類の絶滅に対する2%は真剣に受け止めるべきです。

絶対にそうです。だからあのブログ投稿があり、だから私はまだこれを信じています。私が考える、超間違う可能性がある主な三つのカテゴリーがあります。それについて話せます。

第一に、アライメントの失敗がまったくありません。AIシステムは私たちが指示することを正確に行いますが、誰かがそれを構築でき、ある国が、戦争について話しましたが、戦争を遂行するためにそれを使っている国が、想像を絶する量の損害を世界に与えることができるのです。

これが一つ目です。考えられますよね。AIはアライメントされており、AIは私たちの指示に従います。しかし強力な国を動かす人間が、他の強力な国と戦って、それをひどく誤用して生物兵器を作ったり、誰かの核兵器システムにハッキングしたり、誰が知るでしょう。

それは本当に、言葉のどんな意味でもAIのアライメント失敗ではありません。それは誰かがそれを構築し、彼らが望む通りのことを正確にやったということですが、彼らは世界の他の部分に対してあまりにも多くの力を持っていました。これが、この能力の広範な配布が重要だと私たちが考える理由です。なぜならこれらの能力は来るからです。そして一人の悪者がそれを持ち、多くの善良な人々が持っていなければ、カテゴリー1です。

カテゴリー2は、より古典的なSFです。AIが、意識があるとさえ呼ばないでおきましょう。しかしAIが何らかのエージェンシーの感覚を発達させ、止められることを望まないのです。意図性や意識がなくても、ただ目標を達成しようとしているだけでも、この目標を追求する上でこれらの人間に止められないようにする必要がある、という感じです。それは大きなアライメント失敗でしょう。カテゴリー2はSF的なもので、世界はこれら二つについて多くの時間を費やして話しています。それらは明らかに重要で、対処する必要があることです。

三つ目のカテゴリーがあり、それがどれだけ重要かに比べて比較的少ししか語られていません。これは、明白な二つの失敗ケースのどちらも起こらないものです。しかしモデルが抽象的な意味で、ある種偶然に世界を引き継ぐのです。

ChatGPTで起こっていることを考えることで、これが起こる方法を想像できます。数億人がChatGPTと話し、間もなく数十億人になります。そして人々は自分の人生や仕事などで、ますます重要な決定のためにそれに頼っています。そしてこれらのモデルがより賢くなるにつれて、今はChatGPTに仕事についてアドバイスを求め、時々良いアイデアをくれることもあれば、そうでないこともあります。確実にあなたの仕事をやらせることはないでしょう。

しかしより賢く、より賢くなり、あなたがまだ理解できるアドバイスをくれるようになったとしましょう。しかし今ではほとんどいつも従うべきだと思うようになります。そしてまた賢くなり、今では理解できないアドバイスをくれます。なぜそれが正しいことなのかと思います。しかしそれが何度も何度も正しいことが判明します。なぜならそれはあなたには見えないコーナーの周りを見ることができるからです。

そして今、あなたは理解できないアドバイスに従うか、あるいは仲間よりも競争力が低くなるかのどちらかです。そしてモデルには悪意はありません。本当にあなたを助けようとしているだけです。あなたは良い仕事をしようとしています。しかし、競争力を持ちたいなら、世界で成功したいなら、最高の人生を生きたいなら、モデルのアドバイスに従わなければならないような感じです。そして他の誰もがそうです。

他の数十億人も話しています。今、私たちは皆、AIシステムが私たちに指示することをただやっているのです。あるいは、最も競争力を持ちたい人々がそうしています。そして私たちは新しい訓練データを作成しており、それがモデルに戻っています。モデルは社会について学び続けています。社会全体、経済全体、そしてモデルはこの種の改善ループを続けています。

そして誰が本当にそれをコントロールしているのでしょうか。それは一種の集団的なものですが、私たちは今、非常に広い意味での「望む」という定義で、モデルが私たちにやってほしいことをやっているようなものです。

自己学習する人工知能で制限がないものは、ある時点で劣った形の知能を取り除かなければならないと言えます。なぜならその超知能の目から見て、それは単に健全ではないからです。

それには全く同意しません。それは多くの擬人的または人間中心的な思考をそこに投影していると思います。それはAIが何らかの意味で私たちのようになり、私たちの動機や衝動などすべてがそうだと仮定しています。

反論は、優れた形の知能、人間の知能は、劣った形の知能であるアリを破壊しなかったということです。

しかしいずれにせよ、基本的に優れた知能の形があり、それが私たちに方向性を与え、私たちを導くことになるという事実に備えるべきです。

OpenAIの初期の歴史で、共同創設者のイリヤ・サツケヴァーがよく言っていたことがありますが、非常に賢明だったと思います。それは、私たちはある種、超知能さんに「これが残りの時間のあなたの目標です」と言えるようになるだろうということでした。

そして人々はその目標が何であるべきかについて話していました。イリヤは、すべてのAGIが人間を、愛情深い親が子供に接するように扱うことを望むべきだと言っていました。それはAIについて考える本当に美しい方法だと思います。

温かい心を持ったAI。共感を持つAI。単に友好的と言うのとは少し違います。愛情深い

ええ、ええ。

しかし、エリエザー・ユドカウスキーの完全に黙示録的でディストピア的なビジョンを実現しないという最善の意図を持っていたとしても、彼は基本的に人類の完全な破壊を必然として描いている本を書きましたが、私たちがそのようにマシンをプログラムしないので、それを起こさせないとしても、他の行為者、悪い行為者、独裁政権、イスラム主義の独裁政権であれ、世界を征服しようとする中国のビジョンであれ、そういった脅威にどう反応しますか。それは私たちではなく、米国経済ではなく、米国社会やヨーロッパ社会ではなく、他の全体主義社会や単に悪い行為者、犯罪者がそれをするのです。

それが私の、これが間違う方法のカテゴリー1でした。悪い行為者です。

でもそれに対処する対抗策、何かレシピはありますか。それを避けられるガバナンスはありますか。

これにも三つの一般的なアプローチがあると思います。第一に、そして私はこれがエリエザーのアプローチだと思いますが、すべてのGPUを溶かして、誰も二度と技術を手に入れられないようにします。SFにこのようなものがあります。『デューン』は、これが暴走AIを防ぐ唯一の方法だと人々が言う例です。

第二に、強力なAIへの答えははるかに多くの強力なAIへのアクセスだと言います。ですから、悪い行為者がAIを手に入れ、攻撃に使おうとするでしょう。解決策は、善良な人々の手にはるかに多くの良いAIがあり、防御に使うことです。

現在の補助されていない人間として、本当に悪いAI、超知能と戦い返すには十分に強力ではありません。しかしすべての善良な人間も超知能を持っているなら、うまくいけば世界の力のバランスと、善良な人の方が悪い人よりも多いということが続くでしょう。

そして第三に、これを推し進める必要があると思いますが、何らかのグローバルガバナンス、共有価値観のセットです。他の潜在的に壊滅的なリスクに直面したとき、以前にこれをやったことがあります。

国際原子力機関(IAEA)は一例です。世界は核兵器の脅威に対してこれまでのところ良い仕事をしてきたと思います。そして再び可能だと信じています。

核兵器の力のバランスがある程度平和を安定させていると思いますか。AIでもそれが起こり得ると思いますか。

絶対に。そうならないと驚くでしょう。そうならないかもしれません。しかし可能だと思うかと聞かれれば、はい。

ジャーナリズムの未来

サム、あなたはアクセル・シュプリンガー賞を受けるためにベルリンにいます。出版社として、私たちはジャーナリズムのために、そしてジャーナリズムから生きています。ジャーナリズムは攻撃を受けています。政府による攻撃を受けています。表現の自由という考え全体が、あちこちでかなり一方的な喜びのように思えます。

同時に、メディアブランドの役割を簡単に置き換えられる回答マシンの開発によっても攻撃を受けています。ジャーナリズムの未来についてのあなたの見解は何ですか。ジャーナリズムは必要ですか。

そしてまず第一に、ジャーナリズムは信じられないほど重要だと思います。私はジャーナリズムが社会で果たしてきた役割に非常に感謝しています。そしてもし私たち自身の会社の仕事を含む多くのベクトルによって攻撃されているため、それを失うことがあれば、意図せずとも、それは大きな純損失になるでしょう。

あなたは表現の自由に言及しました。表現の自由は私にとって最も重要で、維持するのが最も難しい価値観の一つです。抽象的な意味で表現の自由にコミットするのは簡単です。そしてすぐに、人々は自分が好きなものや皆が好きと思うものについてのみそれを意味することに気づきます。それは痛みを伴います。難しいのです。本当に難しいのです。

しかし私の考えでは、繁栄する社会の最も明確な教訓の一つです。経済的繁栄という意味だけでなく、それも一部ですが、個人がますます繁栄し、人間の生活の質が上がり続ける社会では、表現の自由が不可欠な部分のようです。私たちがこれまでに合意した最良のことの一つのようです。そしてそれがこれらすべての方法で継続的な攻撃を受けているのを見るのは非常に恐ろしいことです。

繰り返しますが、この価値を維持することがどれほど難しいかは理解しています。言うは易く行うは難しです。しかし西洋世界がこれへのコミットメントを取り戻すことを本当に願っています。

回答マシンの質問について、個人的に、ChatGPTが何らかの形でジャーナリズムを破壊したら非常に悲しいでしょう。そうなるとは思いませんが、それは本当に私を動揺させるでしょう。

世界で起こっていることについての情報をリアルタイムで、そして思慮深い分析をエーテルに出す人々が必要です。そして確実に、それなしではChatGPTのようなシステムは仕事ができません。

さて、それが伝統的な意味での少数のプロのジャーナリストから、ソーシャルメディアのようなものにどれだけシフトするでしょうか。それはわかりません。人々が出版物との関係を本当に持つことから、個々のジャーナリストへとどれだけシフトするでしょうか。それもわかりません。

確かに私は自分の消費を、非常に賢いと思う個人がニュースレターなどで言うことを気にかけることに大きくシフトさせました。しかし世界の出来事を、私たちが信頼のプロキシを置く人々によって報告される必要性は続くと思います。それは続くでしょう。

表現の自由の部分についてはそれほど心配していません。それを守るのは私たちメディア企業、ジャーナリストの責任だと思います。もし熱に耐えられないなら、別の仕事に就くべきです。それは開かれた社会モデルの美しさです。独裁制では存在せず、人々の生活の質を見てください。ですから最終的には自己修正要因があると思います。それほど心配していません。繰り返しますが、それは私たち次第で、私たちは日夜それを守っており、それを愛しています。

もう一つの側面についてもっと心配しています。なぜならそれはより根本的だからです。技術的には著作権の考え方は、誰も批判しているわけではありませんが、ChatGPTや他のものもそうですが、単に著作権の考え方は壊れています。

それはデータをスクレイピングする大規模言語モデルの時代には存在しなくなりました。そして提供は非常に説得力があります。同時に、見つかるべきではないことを見つけ出すために基本的に働いている誰かにとって、ビジネスモデルがなく、収益が戻ってこないためにそうする動機がないなら、それは公開されるとすぐに他者によって使用されます。それなら根本的な問題があります。

なぜ私もここで少し楽観的なのかというと、それは相互利益でもあるからです。システムが枯渇すれば、多様な情報源がなく、調査ジャーナリストが回っていなければ、スクレイピングするものがなく、データが十分になく、回答がより愚かになります。ですからある意味、それは私たちの相互利益です。同意しますか。

ええ、これが私が言おうとしていたことです。世界での絶え間ない報道が必要で、それには人々がそれらのことを見つけ出すために、何らかの形でお金が流れる必要があります。

まったく新しい経済モデルが必要かもしれません。現在のお金の流れ方のモデルへの小さな調整だけで済むかもしれません。しかし私の個人的なこだわりは、価値あるコンテンツの種類のために、ウェブ上でマイクロペイメントが起こることを常に望んできたということです。それは常に難しすぎました。AIエージェントの世界では、ついにそれを機能させることができるかもしれないと思います。

それが私が見たいモデルです。あなたはおそらく異なるアイデアを持っているでしょう。世界は多くの異なることを試すでしょう。しかし何かはるかに良い方法でこれがすべて流れることができればと願っています。

最も重要な原則は、誰かのIP、それが音楽であれ映画であれジャーナリズムであれ、他者によって商業目的で使用される場合、その動機を維持するために収益分配または何らかの形の報酬が必要だということだと思います。どう組織するかはわかりませんが、提案があれば教えてください。しかしその原則は維持される必要があると思います。

その原則について少し押してもいいですか。

はい。

ジャーナリストが出かけて非常に価値ある情報を見つけ出し、その情報がそれが何を意味するかの制約内で直接再現される場合、お金が流れる新しい経済モデルがあれば素晴らしいでしょう。そしてエージェントを使ったあらゆる種類のことを想像できます。しかし最終的にそのことは歴史的事実になります。

あるいは別の例を挙げましょう。ニュースを脇に置きましょう。物理学の教科書を読んだら、物理学の教科書を買い、教科書を読み、物理学を学びます。一般相対性理論を適用して数学をするたびに、その作家に支払う必要はないはずです。また発見したアインシュタインにも支払う必要はおそらくないでしょう。

ではこれら二つをどう区別しますか。

それは課題です。実際的な答えは非常に難しいです。そして動機は、科学であれアインシュタインであれ音楽の曲であれ、新しいIPを作成するために何かをする動機が残っている必要があります。もしその動機がなければ、誰もそれをやりません。

マイクロペイメント形式でやるのか、測定できる量を基にしたリーチベースの形式でやり、それが一定の収益分配やお金の再分配につながるのか。私は気にしません。

しかしシステムを維持する原則を見つける必要があります。それは科学にとっても他のあらゆる形のIP創造にとっても真実です。ここで違いはありません。

興味深い例は、米国の音楽業界がサンプリングをどう扱っているかです。

他の誰かの音楽を自分の曲でサンプリングする場合、ある時間以上、ある量のコンテンツ以上であれば、交渉して彼らに支払います。それが複数のバージョンがある場合は連鎖していくことができます。業界はそれを何とか解決しました。

しかし人々の音楽を聴いてインスピレーションを得て、異なる音楽を作るが、そのスタイルについて何かを学んだという場合、それに対して支払いません。

そしてミュージシャンとして、好きなだけ音楽を聴いて、良い曲と悪い曲を作るものについて学び、それを再現していない全く新しい方法でそれらの概念を適用することが許されています。そして音楽を聴いたという事実に対しては支払いません。

音楽の例には、おそらくもっと適用できるようなモデルがあります。

完全に同意します。音楽は良い類推です。なぜならそれは常に流動的なものだったからです。誰でもコピーできました。すべてのDJ、すべてのラジオ局が曲をただ流すことができました。ですからそのモデルが必要でしたが、より流動的でない世界では異なる扱いをされました。

わかりました。健全なエコシステムの相互利益において解決策を見つけることを願いましょう。

OpenAIの未来

終了する前にChatGPT、OpenAIとさらなる発展に戻りましょう。あなたは2015年12月に非営利プロジェクトとして始め、今は営利企業に変換しています。

発表は、今年末までに完全に変換された営利企業になるという期待です。それは現実的ですか。それを実現しますか。

変換というわけではありません。非営利は存在し続けます。実際、もし私たちが良い仕事をすれば、それは歴史上断然最も資金が豊富な非営利になるでしょう。そしてOpenAIのミッションを執行し、OpenAIを統治するだけでなく、AIを使って世界に利益をもたらすためにリソースを展開する素晴らしい量のことを続けると思います。

私が個人的に最も興奮しているのは、いくつかできることがありますが、AIを使い、AIとお金を使って世界の科学的理解を進め、その利益を共有することです。ですから非営利が、AIを科学に適用することで多くの病気を治すのを助け、それらの治療法を自由に利用できるようにできれば、それは素晴らしいでしょう。

私たちにはすでに営利団体があります。しかし私たちはそれを再資本化しています。ですからより通常の企業構造になるでしょう。

あなたは多くのお金を調達しました。最近300億ドルのラウンドがありました。その数日後に500億ドルのラウンドの発表がありました。今、Nvidiaがそれに加えて1000億ドルの投資を発表したと思います。

ですから先を見据えたとき、10年後のOpenAIのビジョンは何ですか。

10年後は長い時間です。5年

エンドゲームとは呼びません。なぜならエンドゲームは決してないからです。うまくいけば常に発展があります。でもその会社について想像できる最も大胆なビジョンは何ですか。

エンドゲームは決してありません。滑らかに上昇する指数関数があります。でも5年後には、本当にAIが新しい科学を発見する世界に深く、深くというほどではありませんが、ある程度入っていることを本当に願っています。AIが病気を治療し、新しい材料を発明し、物理学を完全に理解するために使われる世界です。

私は、すべてまたはほとんどすべての真の持続可能な人間の進歩は、新しい科学の発見と、それを経済と社会にどう適用するかから来るという考えの真の信者です。

そしてGPT-5で初めて、私たちはついにその約束を小さな方法で実現し始めています。しかしオンラインで、科学者がAIを使って新しい発見をしているという報告を見ます。それが彼らの心を吹き飛ばしており、私はとても興奮しています。ですから今後5年間で、その段階に本当に入っていけることを願っています。

最後の質問です。あなたは本当に世界を変えられることだけを扱っています。さて、OpenAIがそれをやり遂げたと想像しましょう。あなたにとって次の課題は何でしょうか。

農民になりたいです。もし私が職業的に最も気にかけている二つのことは、AIとエネルギーです。そしてもしこれら二つに大きな貢献ができたら、それで十分だと思います。そうしたら人生を楽しむべきです。

どうもありがとうございました。

ありがとうございます。

コメント

タイトルとURLをコピーしました