S6E12 なぜOpenAIはAGIにこれほど執着するのか?

AGI・ASI
この記事は約34分で読めます。

この動画では、ベストセラー『Empire of AI』の著者であるカレン・ハウが、OpenAIの劇的な成長とAGI(汎用人工知能)への執着について詳しく語る。OpenAIが当初の研究公開の約束を放棄した理由や、AGIの明確な定義の欠如が同社の目標を損なっている実情を探る。また、AIツールの人間化が実際には効率性を下げ、危険性を高めている可能性についても議論される。対照的に、ニュージーランドの小さな非営利団体がマオリ語の保存にAIを活用した事例を通じて、より焦点を絞ったAI統合アプローチの有効性が示される。

S6E12 Why is OpenAI So Obsessed with AGI?
In her instant New York Times bestseller, Empire of AI, journalist Karen Hao distills more than a decade of in-depth res...

OpenAIのAGI執着の謎

やあ、Invisible Machinesへようこそ。僕はジョッシュ・タイソンで、UXマガジンの寄稿編集者や。そして我らがAIの先見者、OneReach.aiのCEO兼共同創設者のロブ・ウィルソンと一緒におる。ロブと僕はベストセラー『Age of Invisible Machines』を共著したんや。そしてこのポッドキャストは、我々がエージェント型AIの探求を続ける場所なんや。

今日は、有名なテック・ジャーナリストで、ニューヨーク・タイムズのベストセラー『Empire of AI』の著者カレン・ハウを迎えることができて、めちゃくちゃ興奮しとる。彼女の本では、10年以上にわたる詳細な取材を基に、OpenAIの劇的な権力掌握を詳細で読みやすい形でまとめ、なぜ同社のリーダーシップが研究を公開し続けるという約束を放棄したのかを探っとる。

我々はまた、汎用人工知能が何なのかという明確な定義の欠如によって、AGIを最初に達成する企業になるという彼らの断固とした目標がいかに深刻に損なわれているかについても話す。これもまた擬人化が問題となる会話で、これらのツールをより人間らしく振る舞わせることが、実際にはそれらをより効果的でなく、潜在的により危険にしている理由について話すつもりや。

ロブと僕はまた、ニュージーランドの小さな非営利団体がマオリ語を保存するためにAIを使った件についてのカレンの報道にも興味をそそられた。プロジェクトの開始時に明確な目標を設定し、責任を持ってデータをキュレーションすることで、彼らはより焦点を絞ったAI統合アプローチが大規模言語モデルの暴力的な力に勝る可能性があることを見事に実証したんや。

よし、これは素晴らしいエピソードになるから、本物のカレン・ハウとの魅力的な議論に備えてくれ。このエピソードはOneReach.aiとのパートナーシップを通じて支援されとる。彼らのGenerative Studio Xプラットフォームは、企業グレードのエージェント型ソリューションを構築するためのターンキー・プライベート・アーキテクチャとツールを提供しとる。

組織がどんなAIモデルでも使用でき、カスタマイズされたガードレールを作成し、ベンダーロックインを回避できるAIエージェント用のランタイムを設定できる。すべて企業グレードのセキュリティ付きや。OneReach.aiの受賞歴のあるGSXオーケストレーション・プラットフォームは、この重要な瞬間に強力な新技術を活用するために必要な多くの要件を満たしとる。詳しくはonereach.aiで学んでくれ。

業界への波及効果

この本は、AI研究開発の最高レベルで起こっている問題のある慣行や決定を探る素晴らしい仕事をしとるな。本の成功で、あなたがこの本で書いている人たちがそれを読んで、うまくいけば好意的な方法で反応しているか、つまり彼らのやっていることを少し見直しているかもしれないという感覚があるかどうか疑問に思ってたんや。そういうことが起こっていることを示すやり取りがあったかどうか。

すごく興味深いフィードバックをもらったんや。OpenAIで働いている人から直接ではなく、我々が知っている共通の人を通してやけど、この本が多くの思考を促す議論を引き起こし、動揺する感情を生み出したということや。うん、間違いなく一部の人々に、自分が正しい場所にいるか、正しいことに取り組んでいるか、正しい決定を下しているかを再考させたんや。

でももちろん、正反対の効果もあって、一部の人々は本や、その前提、すべてを完全に拒絶する気持ちになった。そして彼らはさらに頑固になっただけや。だから、企業内の人々がそれをどう受け取るかについて、多分両極化する効果があったと思う。

そうやな、それは本に込められた報道でもテーマだったみたいやな。あなたはOpenAIへのある程度のアクセスを与えられて、多くの人と話し、あなたが発見したことを共有して、多分一部の人々は聞いたことに困惑し、他の人々はさらに深く入り込んでいったという感じやったんやろな。

そうや。実際、私が2020年にMIT Tech ReviewでOpenAIについて初めて書いたプロフィール記事が、まさにその両極化効果を持っていたんや。だから、私のプロフィール記事に極めて怒った人々がいて、それが会社を批判的に書いていたからやった。そして私が後に学んだのは、何年も後、本の報道を始めた時に、そのプロフィール記事を愛していた他の人々がいたということや。でも私は、彼らと話してインタビューするまで、そのことを学ばなかった。

そして彼らが最初に私と話してくれる理由の一部は、「ああ、そうや。あなたは私が本当に正確で公正だと思ったあのプロフィール記事を書いた人やな」ということやった。だから、そうや、私の報道は一般的に、私が書く人々に両極化効果を持っていると思う。この本だけやない。私はしばしば本当に厳しい目で物事や人々や決定を精査し、一部の人々を不快にさせ、他の人々に反省を始めさせ、考えを変えさせる程度にまでするんや。

私は非常に長い間発展させてきたソース関係があって、私が彼らについて書いた後、当初は私に本当に腹を立てていたのに、6ヶ月後、1年後に戻ってきて、「実際にあなたは正しかったと思う」と言うんや。そして今、それから少し離れてみると、それが私の視点を変えさせた。私の世界観を広げてくれたということに気づいたんや。私はバレー内での私の仕事に対するそういう二分的な反応にある程度慣れてしまったんや。

金銭的動機の隠れた影響

ある意味で、あなたは軽くやったような気がするな、特にお金のことについて。どれだけお金が多くの人々の一部だったかについて。なぜなら真実は、真実には異なるレンズがある。真実には異なる視点があるからや。物事は真実でありながら、イエスでもノーでもありうるやろ?そして、お金は人々を真実の一つのバージョンに引きずり込む傾向があるんや。そして多分彼らはそれを意識してさえいないかもしれない。

私がOpenAI内の人々について本を読んでいる間の私の認識では、サム・アルトマンが去ることで危険にさらされた彼らの経済的成功について、あなたはちょっと軽くやっていたような気がしたんや。でも分からん、つまり、それは正確か?あなたはそこで少し軽くやっていたのか?つまり、彼は良い人で正しいことをするだろうと思っているという感じではなく、ベイエリアで新しい家を買う予定で、以前は買えなかったような感じではなく。

それは本当に、あなたがそれを拾い上げてくれて感謝するんや。なぜなら私が多くの時間をかけて考えていたことだからや。人々があなたに正確に言うことを報道することと、表面の下に隠された嗜好があるかどうかを理解しようとすることの間には、常にバランスを取る行為があるんや。

だから多くの人々は、彼らの意思決定の計算について私と話している時にお金のことを持ち出さなかったり、自分のことは持ち出さないけど、「お金が人生で本当に大きな役割を果たしている同僚がいる」と言ったりするんや。だから本の詳細の多くについて、私はある時点で判断を下さなければならなかった。彼らが私に言ったことを文字通り書き写すか、私が考える他の要因についての私自身の分析を少し加えるかや。

特にOpenAIでは、これはちょっと厄介なことやと思う。なぜならリーダーシップが組織内でミッションと高い目的を培うのに非常に成功した仕事をしているからや。みんなが暗号化された言語で話すんや。人々は実用的な理由、経済的理由、その他の理由で会社で働いていることを容易に認めない。彼らは常に、私はAGIを構築し、それを全人類に届けることに本当に興奮していて、サム・アルトマンがそれを行う最高のリーダーだったという言語で話すんや。

だから私は少し掘り下げなければならなかったし、時には行間を読まなければならなかった。だから最終的に金銭的要素については、私はそれを強調したが、人々が私に言ったことと、私が一般的な力学から推測していたこと、そしてテック業界で自分自身働いたことから人々がどのように影響を受けるかを知っていることとのバランスを尊重しようとして、それほど強調しなかったんや。だから私が言ったことと私が分析したことの間のバランスを取ることがたくさんあったんや。

ミッションの複雑な罠

つまり、ミッションの諸刃の剣やと思うんや。ミッションを持つのは素晴らしいことで、ミッションを持つべきだと言うビジネス書を読んだりするけど、もしそれを本気で思ってないなら、ミッションを持つべきだと聞いたり読んだりしただけでそのミッションが大胆で人類を自分自身から救うものだったら素晴らしいけど、それは本当のことについて話すことを許さなくなるんや。そして多分お金について話すことさえできなくなる。なぜならそれが重要でないふりをしているからや。

そうや、興味深いな。OpenAIがそのミッションを信じていない間にそれについて話しているとは言わないやろな。実際にはそれよりも複雑やと思うし、彼らは本当にそれを信じているからこそ、実際に物事をする理由についての自分たちの真の動機に対して盲目になるんや。そして彼らは常に多くの行動を包み込んでしまう。でも私は最終的にミッションのためにそれをやっているんやと。

OpenAIのミッションの特別な課題は、それが非常に曖昧に定義されていることや。Googleのミッション「世界の情報を整理する」、それは非常に具体的に感じられる。人々は一般的に整理することが何を意味するかについてコンセンサスを持っているし、情報が何であるかについてもそうや。でもAGIが何であるかについてコンセンサスはないし、全人類に利益をもたらすものが何であるかについてもそうやない。だから全体を通して曖昧さがあり、したがって毎日解釈に対して非常に脆弱なんや。

それはまた、世界を救うつもりやというような感じとは違うな。我々は世界の救世主やとか。情報を整理するのは司書やからな。我々は通常、あまりにも多くのスーパーヒーロー司書を見ることはない。そして世界を救うつもりやという感じがある。我々は人類のために素晴らしいものを構築するつもりやということや。

面白いことに、我々はポッドキャストでNvidiaの人々を迎えたことがあって、彼らは「いや、いや、我々が人類を救うつもりやねん。我々がAIを作ったんや」みたいな感じやった。「ああ、あなたたちがそうやねんな」「そうや。彼らは我々のチップを使っただけや。もし我々がいなかったら、あなたたちはスーパーヒーローやと知っている」。だから「ああ、あなたがこの全体の中でスーパーヒーローやねんな」という感じがある。

でも私がニュージーランドの話を見た時、私は本の中でその部分を最も評価したんや。それはただ正しく感じられたからや。私は何かが間違っていることを知っていたけど、あなたがその話をするまで、それが正しく見えるものやということに気づかなかった。そして彼らは「我々は世界を救うつもりや」とは言わなかった。我々は愛しているこの小さな言語を保存するのを助けるつもりやという感じやった。そしてこれはそれを助けるツールで、我々はたくさんお金を稼がない。実際、彼らはプロジェクトから全くお金を稼がない。

そうや。彼らはそれをスケールしようとしていなかった。彼らはそれをスケールしようとしていなかった。私が初めてその話を見つけた時に非常に印象的だったのは、彼らがAIツールを構築する前にコミュニティに「このAIツールが欲しいか?」と尋ねたことがいかに急進的に感じられたかということや。そしてそれが急進的だと感じたことが私を本当に悲しくさせた。

我々がもはや同意について最初の基本的な基盤として全く考えていないことを本当に示していたからや。彼らがそれをやったという事実、そして私がこの話を人々と共有する時、私が言う最初のことは、彼らがやった最初のことは人々がそれを望むかどうか尋ねることだったということで、いつも聞こえるガスプや笑い、認識、驚きがある。

それがこれらの企業が運営する方法について、テクノロジーをどのように開発すべきか、テクノロジーはどんな目的を果たすべきかについての問題のあるアイデアのいくつかが、いかに水の中に組み込まれているかの例証なんや。

AGIの曖昧な定義

興味深いのは、彼らが何を構築したいかを知っていたということや。彼らは構築したいもののアイデアを持っていて、あなたが本で指摘するその素晴らしいポイント。中国のAI研究者と話していると思うけど、「これはここでは決して起こらなかっただろう」と言っている。何を作るつもりかさえ言わない人に10億ドルを与えるのは、非常にシリコンバレー的なことやと。

だから我々が本について考えていた時に持った別の質問やったんや。時間が経つにつれて、誰かがAGIが何であるか、または彼らが構築するつもりだったもの、またはそれがどんな形を取るかもしれないかについて、より具体的な定義に近づいているように感じたかどうか。なぜなら我々は、それが人類を救うか破壊するかのどちらかやと言われているこの瞬間にいるからや。

でも我々はまた、それがどのように起こるか、またはそれがどのように見えるかを本当に知らない。原子爆弾では、明らかにそれはかなり内臓的で現実的で有形やった。でもこれは非常に曖昧で、そんなにぼやけた縁を持っている感じがするんや。

つまり、OpenAI内と、より広い業界の中で、AGIが何であるかの非常に多くの異なる結晶化や定義が今浮遊しているけど、それらはすべて互いに矛盾したり、特徴を共有していないんや。だからOpenAIは正式なミッション・ステートメントで、AGIは経済的に価値のある仕事のほとんどで人間を上回る高度に自律的なシステムとして定義されると書いている。

だからそれは測定できる非常に特徴的な定義で、経済的価値に結びついている。でもその後、The Informationが報告したところによると、MicrosoftとOpenAIの合意では、AGIは1000億ドルを成功裏に稼ぐAIシステムだということで合意したということや。それは全く異なる、少なくともお金についてより正直な、いくらかの重複があるものや。

そうや。でもそれから、アルトマンが議会で話したり公衆に話したりする時は、「ああ、AGIは癌を治し、気候変動を解決するつもりや」と言っている。そしてそれはまた全く異なるAGIが何であるか、それがどんな目的を持つべきかのベンチマークなんや。

だからそれが問題の一部やと思う。私が本で書いているように、OpenAIは望むものは何でもAGIを決めることができ、それは時間が経つにつれて、そしてチーム間で変化するんや。だからしばしばOpenAIには長い間ジョークがあって、会社内の13人にAGIが何かを尋ねれば、16の定義を得るだろうということや。だから彼ら自身、これが本当にどんな種類のコンセンサスや明確さも持たないものやということを知っているんや。

人間中心の思考の落とし穴

それはただ、未来のより良くなるという何かの約束なんや。我々により良くなるだろうから我々に投資しろ、我々はより良くなって、それは今よりもより素晴らしくなるだろうという感じや。でも現実には、それは既に多くの方法で超知能的で、他の方法ではそうでない。そしてそれは異なるタイプの知能やねん。

私に言わせれば、それはダメな指標やねん。なぜならそれは人間と比較し、我々が陥っているその擬人的なモード、または形態模倣的、何と呼びたくても、我々がそれを常に我々と比較している。それは仕事が我々のために設計されているから一時的には意味があるんや。だからそれが人間のシミュレーションであることは少しの間意味がある。ロボット工学が人間の形態因子を持つのと同じ方法で、道具と仕事が作られたから意味があるんや。

でもある時点で我々は、なぜこれをやっているのか、どのようにこれらのものに対して仕事を再形成し、人間のためでなくするのかという感じになる。だからAGIは人工知能よりも曖昧に感じるだけや。人工知能が十分に曖昧でなかったかのように。我々はより曖昧な何かを思いつく必要があった。

だから、そうや、絶対に。それは意図的に混乱を招くもので、有用にそうなんや。我々は以前このポッドキャストでAGIを探求している時に、この考えについて話したことがある。それが人間が地球全体のすべてのこれらの厳しい条件で繁栄できるのに必要な一般知能のレベルを表しているという考えについてや。

でも私がその定義について考えて、あなたの本を読んでいる時、それが本当に起こっていることではないということに気づくんや。特に、あなたがデジタル植民地主義と呼んでいるものが行われているためや。つまり、本当にこの知能が、十分に代表されていない言語に埋もれているものさえ、多くの知識を除外しているなら、それは偏っているし、本当にそのような知能ではない。それは本当にそれが装っているほど広くない。狭い範囲とデータセットを持っているなら。

そうや。これは、AI世界が多くの言語的トリックで動いているとを感じることやと思う。彼らは実際にあるものよりも多くあるように見せるために、これらすべての用語を作り出すんや。だから100%同意する。これらのツール内で何らかの一般化が起こっているという考えは、実際には証拠によって裏付けられていない。

なぜなら英語から離れて、スペイン語のような他の支配的な言語に移っても、ツールは既に壊れ始めるからや。それは一般性ではない。そしてそれが特定の文化、特定の歴史を理解しないという事実。ジュリア・アングィンによって設立されたアウトレットのProof Newsが行ったテストがあって、彼らは歴史の教師にChat GPTを黒人史についてクイズさせたら、黒人史の基本的な事実と数字で完全に失敗したんや。

だから、そうや、我々は実際に真の一般性を持つシステムについて話しているのではなく、おそらく真の一般性に到達することもないだろう。なぜなら業界が現在これらのツール、またはこれらのシステムを開発するアプローチは、異常な量のデータを使用することだからや。そして実際に、そのデータ要請に到達する言語、一般的なコミュニティは非常に少ないんや。

そのデータ要請に到達する産業さえそうや。それだけの量のデータを持っているのは、実際にはインターネット巨人だけなんや。製造業にはそれだけのデータ量はない。ヘルスケア業界にはそれだけのデータ量はない。

他のほとんどすべてのセクターは、データが少ない環境を扱っている。だから実際に世界のほとんどとほとんどのビジネスがそのパラダイムで運営されていない時に、より多く、より多く、より多く、より多くのデータアプローチの力技でどのように一般性に到達するつもりなんや?

擬人化の危険性

そうや。私は分からんけど、何らかの理由でこの会話で、我々がいかに愚かかということに頭が戻り続けるんや。我々はただ、これらが偽の人間やと思い続けている。彼らは人間のようや。私はこの話をしたような気がする。公園のベンチに座っている二人の人を想像してくれ、そして木の中で二羽の鳥が互いにさえずっている。そしてあなたは二羽の鳥を見て、彼らが何について話しているのか疑問に思っている。

そして誰かが一羽の鳥をスピーカーに置き換える。たださえずっているスピーカーと別の鳥や。そして人々が「すごい、それは自分が鳥だと思ってる」と言う。そして一人の人がパークベンチを離れてChat GPTと話し始めて、鳥は「すごい、それは自分が人間だと思ってる」と言うんや。

それは人間やない。そして我々がこの技術と話しているから、我々はそれを擬人化し始めて、それが人間やと思い始めるんや。そしてそれは危険を混乱させる可能性があるし、実際にヘルプに使える方法も混乱させる可能性がある。このニュージーランドの例のように、彼らは部族の別のネイティブメンバーを作ろうとしていたわけやない。

彼らの部族の。彼らは「ああ、我々には十分なメンバーがいない。だからAIメンバーを何人か得て数を増やそう」という感じやなかった。彼らはマーク・ザッカーバーグと話して「すごい、AI友達。我々のFacebookページの数字が伸びているのを見て」という感じやなかった。彼らは言語を保存しようとしていて、これはこのものが本当に得意とすることや。言語として。それはその目的について非常に明確やったし、それは本当にツールなんや。

そして私は疑問に思うんや。デザイナーとして、我々はiPhoneで計算機にドロップシャドウを付けて、本物のボタンのように見せなければならなかった。人々がそれを押すべきだと分からなかったからや。でも最終的には、なぜ本物の計算機のように見せるためにこれらすべてをやっているのかというフラットデザインに移行する。そしてフラットデザインに移行して、それはもはや計算機というよりもスプレッドシートのように見える。

そして私は疑問に思うんや、我々がそれを本当にツールとして見始めて、知能と人工人間という観点から話すのをやめて、これは機械やと言い始める段階をすぐに通り過ぎるのだろうかと。グラフィカルインターフェースの代わりに言語を使うことができるユーザーインターフェース、インターフェースなんや。

それはコンピューターの前にインターフェースを置く別の方法で、まだ多くの決定論的コンポーネントを持っている。それらの決定論的コンポーネントがその場で起こっているとしても、そのコードがリアルタイムで書かれているとしても、それはまだ書かれているコードなんや。それはまだ論理で、まだマシンとソフトウェアを操作している。それは人間でも思考でもないし、一つのものでもない。思考して話すことができる一つのものではないんや。分からん。ここで穴に落ちてるけど、私はいつもOpenAIがこんなに擬人的やということに驚かされるんや。彼らが内部でこんなに擬人的やということがいつも私を衝撃的にさせる。

そして彼らもそれに寄りかかっている。このデザインの考えに戻るけど、あなたはこれらのシステムを高度に擬人化するように設計することもできるし、それらをツールに変えるように設計することもできるやろ?そしてOpenAIはその歴史を通して、それをより擬人的に感じさせるための特定のデザイン決定を選択してきたんや。だから彼らが最初にGPT-2をリリースした時、彼らはテキストがどのように生成されて出てくるべきかについて非常に考えたと思う。

だから彼らはすべてのこれらの異なることをテストした。テキストのブロックが突然あなたのスクリーンに現れるか、それとも一つずつ一つずつ出てくるかという感じや。そして彼らは後者がマシンが考えているように感じさせることに気づいたんや。だから彼らはそれを選択した。

そしてChat GPTでは、もちろん彼らはチャットインターフェースを選択した。AIの歴史において、チャットインターフェースはユーザーにとって最も魅力的で、擬人化の罠に陥らせるものなんや。そして彼らはもちろんChat GPTに非常に小さな免責事項テキストを小さなフォントで追加した。答えは常に正しくないかもしれないという感じや。

すべて非常に、非常に意図的なデザイン決定で、彼らが時間をかけて考え、時にはA/Bテストし、ユーザーテストしてその種の擬人化を磨いて、そして多分我々はやりすぎたと言った。免責事項を入れよう。でも後退はしないでおこう。

そうや、免責事項を入れて問題に巻き込まれないようにしよう。そして最高の声を得る。それは非常にリアリスティックで笑って、褒めて。そして私にとって偽善的な部分がやってくるのは、もしあなたのミッションが本当にあなたのミッションなら、ただマシンであれ。正直であれ。

人々に正直であって、「私はマシンやけど、話すのがめちゃくちゃ上手やねん」と言え。でもあなたはそれをオンにしなければならない。それを求めなければならない。そしてもしあなたがユーザーとして、私は多くの法律がマシンが人間を真似しようとしたり、人間のふりをしようとする行為について設計されていることを考えるんや。それが間違っていることやねん。

もし誰かが電話をかけてきて、ロボコールがあなたに電話をかけて人間のふりをするなら、それが我々が反対する法律を作ることや。それが我々が線を引く場所やねん。そして私は疑問に思うんや、それが倫理的な線であるべきかどうかを。それが公然としたものであろうと、あなたが言ったように、人々の脳を人間やと思わせるように微妙にだまそうとすることであろうと、それを言わずに。私はそれが一つの観点で線がある場所なのかどうか疑問に思うんや。

映画『her』の影響

時々、OpenAI内の人々が一般知能が可能やと本当に信じているという挑戦の一部やと感じるんや。だから彼らは本当にいつか人工人間が存在するようになると信じていて、彼らがそれを構築する道筋にあると信じているんや。だから時々決定は、彼らが自分たちがやっていると思うことの世界観と信念と一致しているんや。

でも問題は、彼らが潜在的に有害な方法で人間とコンピューターの相互作用をどのように変えるかについて考えていないことや。彼らはただ、この組織内で我々が集合的に共有するこの夢を現実化する最良の方法は何かという感じで考えているんや。

そして本で話していることの一つは、彼らが映画『her』について、それを目指そうという具体的な指標として常に話していることや。そしてそれも多くのデザイン決定を方向づけている。彼らは遊び心があって、いちゃつくような、喚起的で、感情的な感じにしようとするんや。彼らの心の中では、一般知能についての彼らのアイデアがその映画に固定されているからや。

我々は少なくともこれらのシステムが人々から少し疎外感を与えるために三人称で自分自身に言及することができるとジョークを言った。それは傾向として人々を不快にさせるからや。つまり、ジョッシュはこの会話を楽しんでいる。そうや、ジョッシュは良い時間を過ごしている。

そうや、我々は人々に思い出させるために少しのその不気味の谷感を加える多くの異なるデザイン決定を選択することができるとの感じやった。ああ、そうや。これはマシンや、ツールやと。でも明らかに彼らはそれをやるインセンティブが本当にないんや。

AIの中毒性

そして我々はアン・リンベイと話してたんや。彼女はあなたのようなベストセラー作家で、中毒とドーパミンについての専門家なんや。そして彼女はAIが次の大きな中毒やと話している。そして私は感じるんや、それは多くの意味があると感じる。なぜならこの擬人化のレベルは本当にドーパミンやからや。

それはドーパミン作動性やねん。我々はこのものに中毒になることができる。そしてそれはある程度でドゥームスクロールのような別のものやねん。人々をこの技術に中毒にさせて、彼らがそれともっと話し、会話がより長く続くようにする。そしてあなたは、それはちょっと奇妙な目的やねんという感じや。ただ有用であることの代わりに。

そして私はそれがゲームでは意味があると思う。だからUXでは、あなたがエンターテインメントのためにデザインしているか、実用性のためにデザインしているかという明確な線がある。でも鍵は、我々がどのモードにいるかを知る傾向があることや。そしてあなたがゲームをデザインしていて、誰かがコントローラーを部屋中に投げる時、それは成功なんや。あなたが生産性レベルから何かをデザインしている時、それは失敗なんや。

そして人々は一つの観点で関与するためにサインアップしているんや。だから、そうや、私はショックを受け続けることに戻り続ける。そして私はみんながいる場所やと思う。これはそれほど計画された発見やなかった。まあ、ほとんどはそうやないけど、でも我々は準備する時間がそれほどなかった。そして我々はこの擬人的段階にいるんや。

そして、そうや、私はそれから抜け出す方法を得ることがパズルの一部やと疑問に思う。これらのツールをツールのように見えるようにデザインすることや。私はそう思う。それがそれの本当に大きな部分になると思う。そしてそれはユーザーインターフェースだけやない。ユーザーインターフェースの詳細だけでなく、モデル自体なんや。

まず最初に音声機能を持つモデルを追求しようとすることや。OpenAIが一般知能に到達していると言い続けることや。あなたのポイントに、ニュージーランドのマオリの人々は、部族メンバーを再現するAIを構築しようと一度も言わなかった。彼らは音声認識ツールを作ろうという感じやった。だから彼らは追求する全く異なるAIモデルを選択したんや。

そしてそれ自体が変わる必要があると思う。なぜなら様々な理由で一般知能を追求しようとすることについて本質的に問題があると思うからや。一つは、我々は既に人間を持っている。なぜ我々は彼らを置き換えようとしているのか?我々は長い間、コンピューター、計算技術との関係を持っていて、コンピューターは我々が得意でないことをするんや。

だからなぜ我々は今、我々が得意なことをするために彼らを使おうとしているのか。彼らが得意なことをし続けさせて、そして我々は我々が得意なことをするだけではどうか。でもまた私が言及した通り、一般性は実際に起こっていない。それは実際に達成されていることではないんや。だから人々がこれらのツールが実際に何ができるかについての理解に緩さがある。

そしてその上に、さらに混乱を加えるすべての他のユーザーインターフェース、ユーザーエクスペリエンス的なものを重ねるんや。

専門化 vs 汎用化

そうや。そして本でのあなたのポイントは、一般性を追求する性質は多くの無駄、電気の無駄やということや。多くのことに対してこの大きなモデルは必要ないんや。でも一般知能は、多くのお金を稼ぎたいモデルで単純化したい会社にとって意味があるんや。

なぜこんなに多くのことに使えるハンマーを持たないのか?それは理にかなってる。そして彼らはそれを多くの人に売りたくて、ユースケースについて考える必要がないんや。それはすべてに良いんや。万能薬のようなものや。それはすべてを治すんや。私は商業的になぜそれが意味があるかを理解できるけど、でもあなたのポイントに、本当により多く。

もしあなたがその例のように、そのものを何に必要かを知っているなら、すべてのその電気を無駄にする必要はないんや。それは一般的に知能である必要はない。ただこの言語を保存する必要があるだけや。

そうや。そして興味深いことに、企業向けユースケースのためのより特定のAIモデルを開発する市場にかなり大きなギャップがあることに気づいたスタートアップと話したことがある。なぜなら誇大宣伝が落ち着いた後、医療会社は彼らがすべてマシンを必要としないことに気づくだろうからや。彼らは医療を本当に、本当によくやるAIツールが必要なだけや。

そしてなぜ彼らは他の90%のがらくたに対してお金を払っているのか?だから私は、医療には医療だけが必要で、教育には教育だけが必要で、製造には製造だけが必要だから、我々は10%ツールを開発するつもりやと既に動いているスタートアップと話したことがある。そして我々はすべての脂肪を削って、はるかに厳密なテスト、信頼性、すべてのこれらのことでより高品質のデータでより安くテクノロジーを売るつもりやと。

そしてそれが、私は思うけど、最終的に企業がAIが何であるか、それが持ちうる欠陥により慣れ親しんで、実際にいつこのテクノロジーが必要かを実際にスコープアウトし始める時に我々がシフトしていく場所やと思う。でも中間的に、みんながただ、すごい、私にはAI戦略が必要やという狂乱の中にいる間は、すべてマシンを買うのはかなり良く聞こえるんや。

オープンソースの可能性

エッフェル塔と結婚した女性の話があって、だから目覚まし時計と結婚したような人々がいると思うんや。オブジェクトと結婚したい人、ものとの関係を持ちたい人のための場所は常にあるやろと思う。彼らは今、ものとより深い関係を持つことができる。それをユースケースにさせればいいんや。

AGIのアイデア、AGIでも、本当に初歩的なAGIのバージョンでさえ、おそらくかなり迅速に、人間がすべてのこれらの複雑な問題を解決することの邪魔になっている主要な問題を診断することができるだろうという感じがするんや。そして私にとってそれは貪欲やと思える。

そしてそれは権力への渇きと一緒に来る腐敗のようなものや。つまり、我々がこの本を読んでいる時、我々は『ロード・オブ・ザ・リング』について、すべてを支配する一つの指輪について話していて、それがどんな一人の人にとっても保持するには強力すぎるような感じなんや。そしてそれがここで展開されていることのように感じる。

なぜならすべてのこれらの巨大な競合モデルがエネルギーと水を燃やし尽くしているのは恐ろしく非効率的やからや。それがより協力的に行われる可能性がある時に。それが起こらなければならないことか?誰かがこれを火に投げ込むか、人々がすべてのこのAIを我々に対してではなく我々のために働かせることができるようになるかもしれないか?

まあ、それがオープンソースムーブメントがすべてについてやと思うんや。一つのモデルを作って、それをみんなに与えるんや。そしてクローズドソースアプローチでこんなに多くの非効率性を持つことになる理由は、それらの人々があなたが望む方法で修正するために彼らのモデルをあなたに与えるつもりがないからや。だからあなたができる唯一のことは、ただ別のモデルを訓練することや。

一方でオープンソースでは、あなたは誰かがすでにすべてのそのエネルギーを使ったものをダウンロードする。彼らはすべてのその水を使った。彼らはそのものを開発して、今あなたは本当にいくつかの調整が必要なだけや。あなたはモデルをダウンロードしてそれを修正する。そしてそれは既に非効率の巨大な量を節約したんや。

だから私は思うけど、この悪循環から抜け出す方法の多くの解決策の中の一つは、オープンソース開発により寄りかかって、人々が左右で互いを複製することなく、互いの仕事を基に構築するそのコラボレーティブなコミュニティベースのアプローチを持つことやと思う。

そうや、資本の間のその厳しい緊張なんや。彼らがAGIと呼んでいるものを追求するには資本集約的やねん。そしてこのアイデア、我々はそれをオープンソースにして共有したいということや。

そして私はそれが国々でさえ一緒になってやる可能性があるものの完璧な例やと思うけど、科学で多くの例を持っている。我々はただどういうわけかこの場合それを適用しないんや。それがどのように出現したかのためやと思う。そして本でのあなたのポイントは、それは二つの方法に行くことができたということや。

それはオープンAIの元の意図に寄りかかって、それをオープンにして、物理学の人々がやったことをやろうとして、政府レベルでお金を集めて、すべての人類に奉仕する何かを作ることができた。そしてそれはお金を稼ぐ方向に寄りかかることもできた。

私が持っている質問の一つは、つまり、彼らは選択をしたやろ?これが我々が資本を得る唯一の方法やと。他の人々がそれをやっている例にもかかわらず、彼らはそれが唯一の方法やと言った。オーケー、いいや。でも今、今はオープンソースの一部、Facebookが今オープンソースにしている。今なぜやないんや?

なぜ猫が袋から出た後それを閉じないんや?彼らが信じている彼らのものがそんなに他のものより強力やというのは何を保護しているんや?それが本質的にそれがある場所か?

そうや、つまり、彼らがそれを閉じ続ける主な二つの駆動動機がある。一つは、会社内に、彼らが暴走する可能性のある一般知能への道筋にあると未だに信じている派閥があることや。したがって、インターネット上で暴走するAIをオープンソースにすることは壊滅的で、潜在的に壊滅的な効果を持つ可能性があるということや。

そしてその特定の思考の陣営には多くの批判がある。その一つは、クローズドソースモデルのほとんどの機能を基本的に複製した非常に多くのオープンソースモデルがあって、それは起こらなかったということや。だからあなたはそれがもはや本当に有効な議論ではないと思うだろう。

でも他の一つは、彼らがそれを開発するのに沈没させたすべてのコストを回収できるように、彼らのモデルが支払う価値があるという認識を作り続ける必要があるということや。だからもしあなたがそれをオープンソースにするなら、突然研究者がモデルの限界を研究し始めることができるので、モデルがそれほど印象的でないことに気づく。

彼らはそれをいじり始めることができ、人々はそれを修正し始めることができる。そうすると突然会社の価値が大幅に下がるので、モデルが実際に何であり、何ができるかの神秘性を維持し続ける動機もあるんや。

AIの発見過程

この会話で突然私に起こっていることやけど、これほど時間がかかったのが奇妙やけど、我々が前に言及したようにNvidiaと話していた時、ジェンセン・ホアンとNvidiaの人々のように、彼らは常に何と呼ばれるようなものを見つけてたんや?異端者、オタク、ゲーマーのようなものを。彼らはゲーマーにチップを売って、そして私は彼らがある日AIを指摘したと思う。

だからもしあなたがショーに出た人々の一部を見て、私のキャリアを振り返ると、AIは少し奇妙なコミュニティやった。それは主流の物理学やなかった。それは制度的と見なされるようなものやなかった。そしてNvidiaチップが動作することを理解することさえ、一群のハッカーがやっていたことのようなものやった。

そして彼らはAIがハッカーの発見のようなものやと指摘している。それは大学からの主流の発見やない。そして多分私は思うけど、今それが私に起こっているのは、AIでの一群の不適合者であることのその道筋が、より伝統的な科学の方法で資金を得る挑戦の種類やったということや。

あなたは知っている、多分それが本当の科学として、重要なこととしてそれを無視することや。我々はNASAのような科学投資のすべてのこれらの主要な例を持っている。重要な何かにお金を得ることができない方法はないんや。でも多分それは単にそのハッカー性に帰着するんや。私は分からん。それはただ私に起こった。そうや、私は一群の不適合者に10億ドルを与えたくない人がいるのを推測する。

まあ、当時10億ドルはまだ並外れた金額と考えられていたと思う。今では日々ますます、人々が今調達している金額の一部と比較して少額のお金のように感じられる。でも当時は、誰にとっても奇妙やっただろう何のためにでも10億ドルやった。

でもOpenAIは部分的に成功した。なぜなら彼らは最初にイーロン・マスクを持っていて、それからサム・アルトマンがいたからや。彼は本当に、本当に資金調達を続けるのが得意やった。それがただ彼の得意分野やった。マスク自身は投げ回すお金をたくさん持っていて、それからアルトマンは資金調達を続けるのが本当に、本当に得意やった。それがただ彼の得意分野、彼の快適地帯やった。

彼は物理学のノーベル賞受賞者のような、研究のためにお金を調達できるような人やなかった。だから私はその選択が、それをその道筋に設定したと思う。それは確実に選択やった。つまり、彼は資金調達で自分の才能を見つけて、彼の強みに寄りかかったキャリアパスを取ったんや。

つまり、それはみんなが自分のキャリアで得るアドバイスや。早めに自分の強みを特定して、それからそれらを活用する。そして彼はそれを非常に効果的にやった。彼は投資家になって、たくさん資金調達できることと幅広いポートフォリオを持つことは、もちろん投資家として間違いなく巨大な強みや。そして彼は持っているお金の量に基づいて名を上げた一つのAI会社のCEOになった。

だから彼はまたその点で自分の強みを活用することになったんや。私はあなたを失う前に本の中の一つのことについて話すのを失いたくないんや。それは私により印象的やった。つまり、私はそれを聞いたことがあったけど、それが本当に家に打撃を与えたのは、彼らが採用にどれだけ投入したかということや。採用がただの主要な部分やった。

それは、あなたが知っている、研究室のコートを着たサム・アルトマンがAIを発見するということやなかった。多分一部の人々が思うような。それは彼らがナパに行くバスに乗ることやった。そして採用が本当にこれの大きな部分やったんやろ?

そうや。そしてそれは一巡している。なぜなら今、人材戦争で、マーク・ザッカーバーグが全体の採用ゲームをやって、個人的に彼らにソーシャルメールすることによってこれらすべてのAI研究者を引き抜いているからや。

でもAI世界内では、資本の前に、まず人材が必要やという理解が常にあったと思う。そしてもし人材がなければ、どれだけお金をそのものに投げても関係ない、それは使える何らかのAIモデルに現実化するつもりがないんや。私はそれがますます多分そうやないようになり始めていると思うけど、でも企業が取ったその特定のアプローチ、既存の技術をスケールするだけということでそれが感じ始めているんや。

そのように元々OpenAIが採用していた時、彼らは基本的研究をやって研究のブレークスルーが必要である可能性があると考えていたんや。だからその視点から、彼らは極めて良い科学的人材が必要やった。そしてその時点で博士号を持っていて、これを非常に長い間やっていて、ブレークスルーの実績を持っているAI研究者はそれほど多くなかった。

そして彼らは基本的にすべての彼らを追いかけて、最も重要な一人がイリヤ・サツケヴァーやった。彼はその時点で既にAI研究者として非常に、非常に有名で、OpenAIがGoogleから彼を引き抜きに行った時点で既に少なくとも3つの主要なブレークスルーを持っていたんや。

そしてそれはNvidiaのアプローチでもあったと思う。彼らはそれを脳の抽出と呼んだ。それが彼らが市場で自分たちのスペースを切り開いた方法のようなものや。彼らはすべての競合他社から上位3人を取って、彼らを奪い去って、それからそれらの競合他社が枯れて死ぬのを見るだろう。

それは面白い。AIを発明した他のすべての人たち。そうや。ハードウェア。そうや。私はそれが非常に効果的な戦略やと思う。なぜなら良い人々は他の良い人々と働きたがるからや。もし最初から人材密度の高いチームを形成するなら、それは自己永続的になる種類があるんや。

そしてそれは、マーク・ザッカーバーグがMetaで今やろうとしていることの一つや。彼は単一の人々を引き抜いているだけやない。彼は異なる会社から人々をクラスターで引き抜いているんや。

そしてこれは、市場でホットな人材である、非常にシニアなAI研究者たちが引き抜かれている人々、彼らの忠誠心は実際にどんな会社に対してでもなく、互いに対してやということについて話していたウォール・ストリート・ジャーナルの本当に良い記事があったんや。だから彼らの交渉戦術はすべて、彼らがパッケージとして来ることを確実にすることを中心に回っている。

そして突然あなたの側にトンの人材を得ることと、あなたの競合他社の人材の束を削り取ることによって彼らを不具にすることの両方で非常に効果的なんや。

未来のAI生態系

まあ、あなたがスタートアップについて言っていたことを考えていたんや。この10%ツールアプローチに焦点を当てているということ、そしてそれがもしそれが企業や会社がAIを使い始める方法になるなら、それは本質的により多くのツールにするけど、より堅牢なタイプの汎用知能のための舞台を設定することもできると私に起こったんや。

もしあなたが特定の産業の専門家であるすべてのこれらのAIツールを持っていて、そしてマオリの人々のように、言語を保存した専門化されたAIを作ることができたなら。もしあなたがすべてのこれらの小さな焦点を絞ったツールを持っていて、明らかに自然言語を通して互いと協力することができるなら、そうすると多分本当の有用な種類のAGIにより近い何かを持っているのかもしれない。

それは我々が本で話すことに合致する。会社を運営するのに必要な汎用知能の量は、人々ができるすべてのことをする何らかのシステムを作ろうとするよりもはるかに、はるかに管理しやすいという組織的汎用人工知能のアイデアのように。

そうや、それは本当に興味深い。AI研究世界内に実際に同等のものがある。それは専門家の混合と呼ばれる。専門家の混合モデルのようなものは、通常すべてのニューロンが一緒に接続されるようにモデルを訓練しないモデルや。だからそれは非常に密に接続されたニューラルネットワークのようなもので、専門家の混合では、実際にネットワークの異なる部分を異なることに特化するように訓練するんや。

そして最終的に合計として、それははるかに能力があるけど、ニューラルネットワークのすべてのニューロンがすべての単一のクエリで点灯しているわけやない。それは答えるのに必要な部分だけなんや。

だから、そうや、私はあなたが何かをつかんでいると思う。それが実際により堅牢な汎用知能になるかもしれないという意味で。私はまだその時点でなぜ我々が本当に汎用知能が必要なのかという感じで尋ねるやろうけど。多分我々は我々が実行する必要があるより複雑な問題やタスクに基づいて、異なるモデルの集合体を持ち続けたいんや。

でも最終的に、私は全世界が皆のための何らかの万能解決策を作ろうとするよりも、異なるコミュニティが異なるモデルを持つというアイデアが好きや。

そうや、我々はただAGIを乗っ取って、狭くやろうかまたはそこに到達しようと言っているんや。NASAでデジタルツインというものがあって、あなたのデジタルツインの忠実度はユースケースに対してのみ相対的であるべきで、十分なだけであるべきやということや。デジタルツインを構築しようとすべきやない…だから我々は、OAGIはできるだけ多くの知能ではなく、十分な知能のようなものやと言おうとしているんや。

それが我々が必要とするすべての知能や。それがまさに我々が必要とするものや。まあ、クール。私はあなたを起こし続けたくない。

そうや。そうや。再び我々とここでInvisible Machinesで過ごしてくれてありがとう。ポッドキャストを得るどこでも「いいね」と購読することを忘れないでくれ。あなたがこのポッドキャストをInvisible Machines YouTubeチャンネルでも見ることができることを常に覚えておいてくれ。

uxmag.comに向かってくれ。我々はそこにポッドキャストページがあって、バックカタログを探索することができ、人気のあるトピックを中心にしたエピソードを見ることができる。

アメリカとウクライナの我々の信じられない制作チームに多くの感謝を。イライアス・パーカー、マイケル・リペノフ、アリソン・ハーシュバーガー、アラ・クレサレノ、ヴェラ・パコドコフ、そしてダリナ・ムスコビチューク。来週まで、OAGI。

コメント

タイトルとURLをコピーしました