イリヤ・サツケヴァーの衝撃的な人工超知能警告「極めて予測不可能で想像を絶する」

AGI・ASI
この記事は約9分で読めます。

この動画は、OpenAIの元主席科学者であるイリヤ・サツケヴァーが人工超知能の発展について発した警告と彼の経歴を紹介するものである。サツケヴァーは、AIの再帰的自己改善が始まりつつある現状を踏まえ、AIが「極めて予測不可能で想像を絶するもの」になると警告している。また、Meta社がScale AIやSSI(Safe Super Intelligence)の人材を積極的に獲得している状況について分析し、サツケヴァーがMeta社からの320億ドルのオファーを断った背景について考察している。

Ilya Sutskever's SHOCKING Superintelligence Warning "extremely unpredictable and unimaginable"
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

イリヤ・サツケヴァーの人工超知能への取り組み

ドクター・イリヤ・サツケヴァーは、人工超知能について静かに取り組んでいます。彼は非常に興味深い人物です。なぜなら、あまり公の場に姿を現さないにも関わらず、彼がすることのほぼ全てがミームになるからです。

私が見た中で大きなミームになったものは何でしたっけ。それは歌にもなり、アニメにもなり、その他色々なものになりました。

次にもちろん来たのは「AGIを感じろ」という、イリヤがOpenAIの人々にオフィスでやらせていたという唱和です。彼は彼らに「AGIを感じろ」と唱えさせたり、彼らのところに来て「AGIを感じているか」と尋ねたりしていました。

そして今、彼は再びスポットライトを浴び、AIが極めて予測不可能で想像を絶するものになると発言しています。

AIの自己改善と知能爆発の警告

このチャンネルを見ていて注意を払っているなら、これは驚くべきことではないはずです。しかし、彼が言っているのは、高度なAIシステムの開発が、AIが自分自身を改善し始める地点に到達する可能性があるということです。

そして私たちは、これが起こり始める方法について、最近いくつかの研究と例を非常に多く見てきました。私たちは再帰的自己改善の初期段階のようなものを見ています。サム・アルトマンが「穏やかな特異点」で述べたように、私たちは再帰的自己改善の初期段階に入っています。

そして覚えておいてください。私たちが見ているものは、これらのAI最先端研究所の内部で起こっている最高で最新のものではないかもしれません。

ここでイリヤが警告しているのは、これが急速で制御不能な進歩を引き起こし、人間が次に何が起こるかを理解したり管理したりすることを困難にする可能性があるということです。これが私たちの言う知能爆発です。

私たちが約1年前からこれについて話し始めたとき、おそらくアシェン・ブレナーの論文がそれをスポットライトに当てたときでしたが、多くの人がそれを軽く見て、AIハイプブロたちが物事を誇張しているだけだと言って、少し却下していました。

しかし今、私たちはGoogleのAlpha Valeや、Sakana AIが発表したDarwin Gödelマシンなど、同じことを示唆する多くの他の論文を見ています。繰り返しますが、誰もそれがここにあって指数関数的に自己改善していると言っているわけではありませんが、私たちは例を見ています。私たちはまさにそれがどのように行われるかのプロトタイプを見ており、その時代に入り始めています。

Metaの人材獲得戦略

一方、ザッカーバーグ氏は皆の才能を狙って積極的に動いています。彼はScale AI、アレックス・ワンの会社を獲得しました。明らかに、彼はイリヤにもアプローチしましたが、イリヤはMetaの320億ドルのスタートアップへの入札を拒否しました。

しかし、彼らは共同創設者CEOのダニエル・グロスを引き抜くことができたようです。つまり、Metaは成功してSSI、すなわちSafe Super Intelligence(イリヤの会社で、彼が設立した最近のスタートアップで、急速に320億ドルの価値まで成長した)を採用したのです。

そしてMetaは、SSIの共同創設者ダニエル・グロスと元GitHub CEOのナット・フリードマンを雇用しました。彼らは一緒に影響力のあるベンチャーファンドNFDGも運営しています。私はそれを知りませんでした。

これはもちろん、マーク・ザッカーバーグの人工超知能への押し込みとトップタレントを獲得して追いつこうとする試みの一部です。そしてその二人は、先週143億ドルの取引の一部としてMetaに参加したScaleの創設者アレクサンダー・ワンに報告することになります。この取引は会社にScaleの49%の株式を与えました。私たちは以前にそれをカバーしました。

320億ドルのオファーを断る理由

しかし興味深いことに、AIハイプだとか、AIは何もできないとか、全て詐欺だとか言う人々がいることを指摘したいと思います。そのような人々をオンラインで見たことがあるでしょう。彼らが講演をするのを見たことがあるでしょう。

もしあなたが、偽物だと知っているもの、どこにも繋がらないと知っているもの、あるいはおそらくお金は稼げるかもしれないが革新的ではないものを構築している会社を持っていて、誰かがやってきて「私の会社に参加して同じことに取り組むために320億ドルを与える」と言ったとします。

繰り返しますが、それに取り組むのをやめるためではなく、むしろ320億ドルをポケットに入れる、あるいはイリヤの株式のその部分が何であれ、そしてMetaという巨大テック企業の資本とリソースへのアクセスを得るためです。

私の質問は、あなたが「結構です」と言うのに何が必要でしょうか。そのオファーを断るために、あなたは何を持っている必要があるでしょうか。

覚えておいてください。Scale AIは、AIのためのデータ処理、データ準備により集中しています。私たちは合成データ生成で多くの成功を見ています。ですから、一部の人々はそれを指摘して、おそらくScale AIは、つまり彼らは人工超知能を開発していたわけではないと言うでしょう。

ですから、アレクサンダー・ワンにとって、これはホームランかもしれないと理解できます。彼はテーブルから数十億ドルのお金を取ることができ、Metaとチームを組むことができ、彼は正しい判断をしたのです。繰り返しますが、彼は人工超知能を開発していたわけではなく、データを提供していたからです。これはこれらのモデルの訓練を動かすもののようなものです。

そして今、そのデータを生産する代替的な方法がいくつかあります。ですから、彼が買収されることは理にかなっており、それは彼にとって良い動きです。

しかし、イリヤは何を持っているのでしょうか。イリヤは今何を見ているのでしょうか。それが彼に320億ドル、いや、大丈夫だと言わせるのです。言い換えれば、320億ドルにノーサンクスと言うために、どれだけの詐欺に座っている必要があるでしょうか

イリヤ・サツケヴァーのインタビュー

ここに、イリヤが行った最近のインタビューがあります。聞いてみましょう。

私はロシアで生まれ、5歳のときに両親がイスラエルに移住しました。私は学校に通っており、良い生徒でした。両親は私がもっと学べる環境を探していました。ある時、純粋に偶然に、私たちは公開大学に出会い、私は8年生でクラスを受講し始めました。

それは可能な限り最高の経験でした。私は本を手に入れました。ちなみに、公開大学の本は非常に明確に書かれています。私はただそれらの本を手に入れて読み、理解しました。その前と後があったことを覚えているほどです。もし何かを非常にゆっくりと読めば、最終的には理解できるという自信を持つようになりました。

それはとても役に立ちました。また、数学とコンピューターサイエンスを学びました。非常に強固な基盤を得ました。両親がトロントに引っ越したとき、私がしたことの一つは、高校をもう一度終了するのではなく、トロント公立図書館に行って機械学習の本を見つけようとすることでした。

私が試みたのは、トロント大学への編入生になることでした。トロントにいることの大きな幸運は、ジェフ・ヒントンがそこにいたことです。これは最適な場所でした。当時、世界で最も先進的なAIのアイデアがありました。そして私はトロント大学に編入生として参加することができました。

AIへの関心の始まり

2002年、コンピューターはコンピューターゲームを少しプレイでき、チェスとチェッカーをプレイできましたが、それだけでした。そして私は、非常に大きなコンピューターがチェスをプレイするのは問題ないと思っていたことを覚えています。しかし、どうやって学ぶことができるのでしょうか。学習はそもそもどうやって可能なのでしょうか。コンピューターは学ぶことができるのでしょうか。

なんとなく、もし学習の問題への答えを持っていれば、他のすべてが続くだろうと感じていました。

大学院で書いたAlexNet論文の結果として、いくつかの会社が存在しない私たちの会社を買収したいという意欲を表明しました。ですから、私たちは会社を作る必要があり、最終的にGoogleが私たちを買収したので、私はGoogleに参加しました。

大規模なニューラルネットワークが何でもできるというアイデアは、Googleで行った研究のいくつかによってさらに支持されました。

そしてOpenAIを始める機会が現れました。私はベイエリアにいました。ここにいて、一緒になったこれらすべての著名な人々との本当に真剣なスタートアップを本当に試さないなんて、どうしてできるでしょうかと感じました。ですから、私はそれを実行することにしました。

私たちはOpenAIで働き続けました。ディープラーニングは大きなアイデアであり、かなり多くの人々がそれに貢献しました。私もそれに貢献できて嬉しいです。

AIの未来への警告

しかし、AIについては、残念ながら未来はそれほど単純ではありません。AIが刺激的なのは、それが強力だからです。物事を行う力があります。AIが十分に強力になったら、どのようなことをAIがすると想像しますか。

AIが十分に有能になったら、私たちは信じられないほどのヘルスケアを持つでしょう。AIが医学研究をしていたらどうでしょうか。それは素晴らしいでしょう。はるかに多くのことができるでしょう。非常に多くの病気を治し、おそらく寿命を延ばすことができるでしょう。それらは本当に素晴らしいことだと思います。

しかし、AIがこれができるなら、他に何ができるでしょうか。そして最終的に、答えはすべてになるでしょう。

課題の一つは、AIが極めて予測不可能で想像を絶するものになるということです。どうやって準備できるでしょうか。私たちは準備する必要があります。どうやってかは明確ではありません。

そして最終的に、AIの力は非常に巨大になるでしょう。AIが次世代のAIを構築できるというアイデア、知能爆発。なんてこった。それについて何をしますか。

AIの問題は、それが非常に影響力があり、非常に強力で、すべてを解決できるが、すべてを行うこともできるということです。そして、これらすべての質問には現在答えがありません。

公開大学がこの名誉学位を私に与えてくれたことに、最も深い感謝を表明したいと思います。私にとってそれが非常に意味深いのは、かなりの間、公開大学が私にとってすべての学術界とすべての興味深い学習を表していたからです。それは非常に意味深い方法で輪を閉じているのです。

コメント

タイトルとURLをコピーしました