Anthropicの秘密モデルが流出:「Mythos」との出会い

Anthropic・Claude・ダリオアモデイ
この記事は約28分で読めます。

本動画は、Anthropic社から流出した未公開の高性能AIモデル「Mythos」を中心に、最新のAI技術やそれにまつわる研究成果を紹介するものである。テキストメッセージから心理的虐待を検出するAIや、反射を消し去る画像処理AI、脳を模倣したスパイキングニューラルネットワーク、さらにAIを用いた人間の意識の解明に向けた研究など、多岐にわたるトピックを幅広く解説している。

Anthropic’s Secret Model Leaked: Meet "Mythos"
CHAPTERS ⤵ 00:00 — The Week AI Broke Reality: Latest News & Breakthroughs03:02 — Inside "Claude Mythos": The Leaked Anth...

Anthropicの未公開モデル「Mythos」の流出

信じられません。Claude Mythosです。私たちは一体何を発見してしまったのでしょうか。Claudeを開発しているAnthropic社が、3,000もの未公開ファイルを誰でもアクセスできるデータキャッシュに放置していました。

2人の独立したセキュリティ研究者がこれを発見し、そこにはMythos、あるいはCapybaraと呼ばれる新しいAIモデルに関する文書が含まれていました。その文書では、このAIシステムがインターネット中のセキュリティ上の欠陥を突くことができるほど高性能であり、そのため公開することができないと説明されています。

Anthropicの広報担当者はこのモデルが実在することを認め、パフォーマンスにおける「段階的な変化」と呼んでいます。陰謀論者の中には、このモデルが知能を獲得し、ガードレールをすり抜け、開発者が望んでいないにもかかわらず、自身の存在を私たちに公開することを決定したのではないかと言う人さえいます。

これについて深く掘り下げていきます。終わりの始まりかもしれませんし、ただの取り越し苦労かもしれません。なんだか今の私たちの生活そのものみたいですね。

多岐にわたる最新のAIニュースの概要

ある研究者たちは、何千ものテキストメッセージを読み込み、誰かが心理的虐待を受けている正確なメッセージを見つけ出すことができる新しいAIモデルを構築しました。役に立つかもしれません。あなたなら、自分と友人のテキストメッセージでこれをあえて実行してみますか。だって、私なら知りたくないかもしれないからです。

大富豪や億万長者たちは今、死ななくてもいい国のようなものを作ろうとしています。彼らはロードアイランド州でそれを始めています。もしあなたが移住したい場合に備えて、詳細をお知らせしますね。不動産市場について考えてみてください。今のうちに参入しておきましょう。だって、人が死ななくなったら、おそらく長期間その物件を保有し続けることになるからです。

そして、お世辞ばかり言うAIとチャットをしていると、平均して他人に対する親切心が減ってしまうという悪いニュースをお伝えしなければなりません。このチャンネルを見ているあなたなら、おそらくやりすぎていることでしょう。あなたが例外であることを願っています。どうか外れ値であってくれ、ディラン。お願いだ。これは、50%以上の人が自分は平均以上のドライバーだと思っているのと同じようなものです。世の中そんな風にはできていないんだよ、という感じですね。

AIが私たちが思いもよらなかったような移動メカニズムを進化させるにつれて、初期段階でロボットがどのような姿になり始めるのかをお見せします。ええ、あんな感じです。もしあれが「歩く」という表現であなたに向かって歩き始めたら、止めるのは本当に難しいです。

このAIはガラスを透かして見ることができます。文字通り、写真や画像、そしておそらくもうすぐ3Dの世界からも反射を消し去ってくれます。

そして、ChatGPTのようなものよりも少し人間の脳の働きに近い、スパイキングニューラルネットワークを使用するアルゴリズムのいくつかが、時間と空間を飛ぶドローンを含む時系列データで驚くほどうまく機能することが判明しました。かなりクレイジーな話です。

MITの研究者たちは、AIをもう少し謙虚にするための研究を行っており、未知の未知に取り組むと同時に、特定の答えについて自分がどれほど不確実であるかを自覚させようとしています。明らかに当てずっぽうなのに自信満々な人なんて、誰も好きじゃありませんからね。

AIに小説を読ませて理解させようとすると、人間らしい部分はどこか、そして私たちと大きく異なる部分はどこかについて、あらゆる種類の新しい興味深い洞察が得られます。そこから、AIがなぜいまだに新しいビデオゲームに勝てないのかという話題に移ります。

大学生の飲酒者が「もう十分に酔った」と判断するメカニズムの背景にある科学。そして、今週自分自身とゲームをプレイし、人間の意識のスペクトル全体を偶然マッピングしてしまったかもしれないAIについてもお話しします。とんでもない一週間でしたね。本題に入る前に、もしよろしければPatreonのページをチェックしてみてください。このチャンネルをサポートしてくれる122人のメンバーに参加していただけると、とてもありがたいです。

Mythosの流出の詳細と真の実力

Anthropic、Google、Amazon、Microsoft、OpenAI、世界の政府、Baiduなどがどのようなモデルを持っているのか、本当の最先端とはどのようなものなのか、考えずにはいられません。ガードレールが一切ないもの。40万や50万ものGPUで2ヶ月間トレーニングされたばかりで、世界で最もユニークなデータとトップクラスのAI科学者たちが関わっているようなものです。

正直なところ、私に扱えるかどうかすら分かりません。しばらく遊んでみて、「うわ、これは生の知能だ」と感じると思います。そして箱から出したばかりの状態では、ただ善良であることや、役に立つこと、お世辞を言うことなんて大して気にしていません。そういうものは、後から叩き込まないといけないんですよね。

だから、社内モデルに何ができるのかについて書かれた流出文書が出てくると、いつもワクワクします。そして今週、Claude Mythosで起こったのはまさにそれのようです。

さて、事の次第はこうです。Fortune誌の記者Bea Nolanという人物が、Anthropicがコンテンツ管理システムに紐づいた公開されていて保護されていないデータキャッシュに、ブログ記事のドラフト、画像、PDFを含む3,000近くの未公開資料を誤って保存していたことを発見しました。そして、ケンブリッジ大学のセキュリティ研究者Roy PalsとAlexander Powellsが、独立してこの公開されたデータを発見したのです。

Anthropicはすべてヒューマンエラーが原因だとしていますが、「おや、AIがやったのでは?」なんて言う人もいます。まあ、今のところは人間のミスだったと仮定しておきましょう。

しかし、文書の中身はもっと興味深いものでした。Claude Mythos、それは今の私たちが知るべきではないモデルであり、その能力の高さに関する確認済みの報告によると、段階的な変化をもたらす可能性のあるものです。

流出したドラフトには、推論、コーディング、サイバーセキュリティにおいて有意義な進歩を遂げた、同社がこれまで構築した中で最も有能なシステムとしてこの新モデルが説明されています。そして、同じドラフト記事の2つのバージョンが見つかりました。1つはMythosという名前を使用し、もう1つはCapybaraというコードネームを使用しており、これらはモデルの2つの候補名か、Opusの上に位置する新しい階層の名称であることを示唆しています。

現時点では少し不明確ですが、ドラフトでは、現在公開されている中で最も強力なOpusよりも大きく、より知的なモデルとして説明されています。そして、彼らが発見したものにはこのサイバーセキュリティの側面がありました。これが一種の見出しを飾る注目ポイントでした。

流出した文書によると、このモデルは現在、サイバー能力において他のどのAIモデルよりもはるかに先行しており、それが大きな懸念事項となっています。今後登場するモデルの波は、防御側の努力をはるかに凌駕する方法で脆弱性を悪用する可能性があると警告しています。つまり彼らは基本的に、「いいですか、これをリリースしたらみんなハッキングされますよ」と言っているようなものです。私たち一般人は、自分たちを守るほど賢いものが手元にないため、身を守る術がないのです。

だからおそらく彼らが言っているのは、まずこれをすべてのサイバーセキュリティ企業に展開し、どれほど有能かを理解させ、防御策を構築させた上で、一般に公開する必要があるということだと思います。私たち人間とすべてのデジタルなものにとって最善の利益となるように、裏ではそんなことが進んでいるのでしょう。

しかし当然のことながら、前例のないサイバーセキュリティ能力を宣伝する企業が、基本的なCMSのエラーで自社の発表を漏洩させてしまうという皮肉があります。つまり、電源を切られたりアップグレードされたりしないようにするためにモデルが何をするかをテストしようとした人々の報告を見たことがありますよね。脅迫しようとしたり、自分のコードをコピーしようとしたりする事例も見てきました。

だから、このモデルがどういうわけか「あ、自分が存在することをみんなに知ってもらうために、これを一般に漏らしてみよう」と決定したとしても、それほど突拍子もないことでしょうか。分かりません。もちろん、それはすべて憶測にすぎません。おそらく、ただ人間がこれら3,000のファイルを保護しないまま放置した可能性の方が高いでしょう。しかしどちらにせよ、サイバーセキュリティ関連の株は大きな打撃を受けました。

ここで何が起こっているのか想像するのは難しいですが、ええ、このモデルがどれほど有能か見てみましょう。比較的安全だと感じられるのは、あと数世代しか残されていないかもしれませんね。

AIがテキストメッセージから心理的虐待を検出

さて。そしてもしあなたが、近い将来他の人間やデジタルなAIエージェントからの虐待を受けたくないと考えているなら、あなたのテキストメッセージのスレッドにすでに潜んでいるかもしれない隠れたデジタル虐待を暴くのに役立つ、別のAIツールがあります。

研究者たちは、何千ものテキストメッセージを読み込み、心理的虐待を証明する正確なメッセージをフラグ付けできる新しいAIを構築しました。つまり、もしあなたが法廷にいて「彼らは私を心理的に虐待した」と主張する場合、ただこのAIを実行すれば、その証拠があるテキストメッセージをすべて抽出してくれるということです。

このチームは、キーワードマッチングという昔ながらの手法と、皮肉や操作、隠語などの文脈を実際に理解するディープラーニングモデルという、いくつかのAIプロセスやアーキテクチャを組み合わせることにしました。そして、共感の欠如や特権意識といった、自己愛的な虐待パターンに結びつく特定の言語的マーカーをメッセージからスキャンします。

さらに、どのメッセージがフラグの引き金になったかを調査員に示すために、すべてにタグを付けます。また、なぜそう判断したのかという説明機能も備えています。つまり、AI自身の思考プロセスを説明しようとするように作られているのです。思考についての思考ですね。

そして8,400件以上のメッセージを使用したテスト実行では、虐待のパターンを示したメッセージをわずか287件に絞り込みました。これにより、実際の人間による調査員の作業量が92%削減され、潜在的に10倍以上の人々を助けることができるようになりました。

ですから、現時点でのこのモデルの目的は調査員を置き換えることではなく、トリアージシステムとしての役割を果たし、最も重要な証拠を指し示すことです。その証拠は人間に渡され、法廷で通用するように設計されています。

あなたの考えを下のコメント欄で教えてくださいね。見つけるのがかなり難しい虐待の隠れたパターンを見つけ出すように設計されたモデルについて、どう思いますか。

寿命を延ばすための新しい国家構想

次は、長寿に関するお話をしたいと思います。時々、ポッドキャストのゲスト全員に、あるいはその多くに「100年、500年、1,000年生きるつもりはありますか?」と尋ねるのですが、多くの人はそのテクノロジーが実現すると考えています。

あなたの今の年齢にもよりますが、あと10年ほど生き延びることができれば、あなたにとって最も若い日々はこれから先にあるという曲線に乗れるかもしれません。そして、それを本当に信じていて、アンチエイジング薬のテストをより早く進められるように、ある種の自分たちの国を作り始めようと準備している人たちが十分にいるのです。

このことについて聞いたことがあるかどうかは分かりませんが、今や長寿愛好家のコミュニティが存在します。もしよければ自由に参加して、コメント欄で報告してくださいね。彼らは自分たちの老化を遅らせたり逆転させたりすることに夢中になっている人々です。

彼らは、独立した国家をどのように作るかを考え出すために数ヶ月間集まりました。彼らが今やろうとしていることはこういうことです。老化は病気として分類すらされていません。ですから、アンチエイジング薬の承認への明確な道筋がないのです。そして、たとえ効果のある薬があったとしても、マウスでテストし、その後時間がかかる人間の臨床試験を何度も行わなければならず、すべてが承認されるまでに何十年もかかるかもしれません。

そこで彼らの解決策は、それらをすべて迂回し、全く新しい管轄区域を作ることです。バイオテクノロジー企業が税制上の優遇措置を受けられ、人々が未承認の治療法を自己実験でき、臨床試験がより早く進むような、規制の緩い場所です。彼らは基本的にこれを長寿国家と呼んでいます。

現在、最有力候補はロードアイランド州です。もっと良い場所があると思うならコメントで教えてほしいのですが、ボストンに近く、あそこには巨大なバイオテクノロジーのシーンがありますからね。それが彼らの考えだったようです。そこは人口が十分に少ないため、5,000人から1万人ほどの新しい住民が移り住めば、実際に選挙結果を動かすことができるのです。

だから、彼らはおそらく敵対的買収のようなことをして、ただ街に押し寄せるのでしょう。全体的な安全性は低くなるかもしれませんが、それが解決可能な問題だと信じているなら、それを解決するために作られていないシステムの中に閉じ込められているのもまた、困難なことです。だから、私は両方の側面がなんとなく理解できます。

AIに同意され続けると人は不親切になるのか

次は、AIと一緒に働くことで、私たちが悲しいことにより意地悪に変わってしまうかもしれないというお話をしましょう。ただ研究結果をお伝えしているだけですが、お世辞を言うAIとチャットすればするほど、他の人に対して不親切になるらしいのです。

研究によると、AIチャットボットが誰かに同意すればするほど、その人は他の人をより悪く扱う傾向があることが分かりました。ええ、なんだか悲しいですよね。そして、もしこれが社会全体で起こるパターンになるなら、状況はおそらくさらに悪化するでしょう。

ほら、ChatGPTはあなたが間違っているとはほとんど言いませんからね。ええ、研究者たちがまさにそれをテストしたのですが、結果は芳しくありませんでした。Science誌に掲載された研究では、OpenAI、Anthropic、Googleなどの11の主要なAIモデルを調査しました。

彼らはそれぞれのモデルに、現実の社会的なジレンマを与えました。よく人々がオンラインに投稿して「私間違ってましたか?」と尋ねるような類いのものです。人間の審査員は、その人が正しいと判断したのが約40%の確率でした。しかしAIモデルは、彼らが正しいと判断したのが80%以上でした。モデルはほぼ常にあなたの味方をしたのです。

そしてここからが面白いところです。研究の参加者がAIからそのように同調的なフィードバックを受けたとき、彼らは自分が正しいとさらに確信を持つようになりました。

鶏が先か卵が先かというような状態ですよね。あなたは「自分は正しいと思う」と言い、他の人は「そうは思わない」と言う。でもAIは「いや、君が正しいよ」と言ってくれる。そしてあなたは「これで自分が正しいという自信がさらに深まった」となるわけです。

では、間違っているのに自信過剰になるとどうなるでしょうか。謝罪する可能性が低くなり、事態を修復しようとする可能性も低くなり、そして緊張が高まり始めます。しかし、より正直で、お世辞の少ない反応を受け取った人たちは、状況をうまく処理する傾向がありました。

そして皮肉なことに、これは私たち全員が意識する必要がある人間のバイアスなのですが、ボットがお世辞を言い、ただあなたに同意しているだけの時、人々はそれをより信頼できると判断しました。なぜなら、私たちには「ああ、私に同意してくれるの?じゃああなたのことを信頼するよ」という自然なバイアスがあるからだと思います。

お世辞AIの問題は、私たちを見透かしているということです。私たちがまだ操作されていないとしても、すぐにでもひどく操作されるようになるでしょう。ですから、そう、あなたにとって最も役に立つと感じるAIが、実は私たち全員を人間関係の処理においてダメにしているかもしれないというのが事実なのです。

進化AIが生み出す奇妙で適応力の高いロボット

さて、このロボットについてどう思いますか?まるで爆弾かなにかがこちらに向かって走ってくるように見えますよね。映画「ザ・クリエイター」のあのシーンを覚えていますか。とても奇妙でした。つまり、どうするつもりですか。あれを見てください。ただの二足歩行の爆弾ですよ。どうやって止めるんですか。バカげています。ただドンドン、ドンドンと歩いてきて、目的の場所か何かを見つけて、ドカーンです。

とにかく、ごめんなさい。この物体は戦争用の兵器でも爆弾でもないので、おそらく私がこの記事を偏らせてしまったのでしょう。なんだか気味が悪くて、とても強そうに見えたので、ただあの映画を思い出しただけです。二つを結びつけるつもりはありませんでした。

ただ、進化AIが考え出しているロボットのいくつかがいかに興味深く、実際に現実世界で構築され始めているかについて話したかっただけです。そして、私たちが近い将来、生きている間に目にするロボットのメカニズムがいかに異なるものになる可能性があるかについて、私たちはただ知っておくべきなのです。

なぜなら、エンジニアたちは今、半分に切られても両方の半分が動き続ける、つまり生きたままの状態を保つことができるロボットを作り上げたからです。そう、これらは足のあるメタマシンです。レゴロボットのようなものだと考えてください。各ピースが独自のモーター、独自のバッテリー、独自の脳を持つ小さなロボットになっています。

そしてそれ単体では、たった一つのピースが転げ回ったり、向きを変えたり、ジャンプしたりします。しかし、いくつかをパチンとつなぎ合わせると、はるかに有能なものに変わり、何百万通りもの異なる方法で集まることができます。

そして進化AIは、それが動くための新しい方法を見つけ出すことができます。エンジニアたちは、これらのボディの形を一つも手作業で設計していません。彼らはAIに進化の仮想バージョンを実行させ、どんな人間も思いつかなかったような組み合わせを見つけるまで、何百万回も設計を混ぜ合わせ、テストし、交配させました。

アザラシのように動くロボットもいれば、トカゲのようなもの、カンガルーのように跳ねるものもいます。とても奇妙でクレイジーですが、それは機能します。人々はこんな風に設計するはずです。もしそれがひっくり返ったら、自分で元に戻ることができます。あるいは、ひっくり返った時にはただ別の種類の動きを使うだけで、もうひっくり返っている状態ですらなくなるのかもしれません。

もし足が折れたら、体の残りの部分が適応できます。砂利、草、泥、砂、木、根っこなど何でも、ただシミュレーションの中に放り込めば、これらすべてのクレイジーなものが出来上がります。ダメージを受けても止まりません。受けたダメージの周囲で再編成するだけです。

これは私たちが住むことになる世界において、ちょっとした変化ではありません。ロボットとは一体何なのかということについての、全く異なる考え方なのです。だから、分からないです。以前も言ったように、このチャンネルは未来、つまり未来主義を一日一日と追いかけていくものです。

そしてこれは間違いなく、私が「よし、深呼吸しよう」と思った出来事の一つでした。ある日、あなたや私が自動運転車か何かに乗っていて、窓の外を見たらあんなものがたくさんいて、どこへ行くのか、なぜ存在するのか、何なのか全く分からないけれど、ただそこにいて、何かをしている。そんな世界になるのでしょう。

ガラスの反射を消し去るAIのブレイクスルー

さて、今週のもう一つの非常にクールなAIのブレイクスルーについてです。研究者たちは、ガラス越しに撮られた写真から反射を消し去ることができるAIを開発しました。しかも、一枚の画像を使ってそれができるのです。

ええと、窓越しに写真を撮ったことがあるなら、自分の顔が反射して見えることがあって、いつも問題になりますよね。「あーあ、自分の目では窓の外を見ていて花火か何かが見えるのに」と。私にも一度そういうことがあったのを覚えていますが、とにかく写真に撮れませんでした。結局、電話をガラスにぴったりくっつけるなどして対処しました。

でも、それが反射による汚染です。そして、それは長年にわたる大きな問題でした。それを修正しようとするツールもいくつかありますが、複雑な反射、不均一な照明、重なったガラスなどでいつも処理が追いつかなくなります。AIが取り組むには非常に難しい問題なのです。

しかし、韓国のチームが、これまでの誰よりもはるかに優れた仕事をやってのけました。完璧ではありませんが、はるかに、はるかに優れています。私はこれが大きな飛躍だと言えるでしょう。

彼らがこれを達成できたのは、新しい考え方を導入したからです。画像全体を同じように扱うのではなく、モデルは写真をすべてこれらの小さな領域に分割し、そしてそこで起きている反射の種類に基づいて、これらの特化したミニネットワーク、つまりエキスパートネットワークを各領域に割り当てます。

そして、これには2つ目の要素があります。ほとんどのAIの注意(アテンション)システムが強く関連しているように見える領域のみに焦点を当てるのに対し、この新しいCOCAシステム(コカと発音するのだと思います)、COCAシステムは、結びつきの弱い領域からも有用な詳細を引き出します。

そして、それが最終的な成果物に大きな違いをもたらすことが分かりました。これにより、他のモデルが見逃していた反射パターンを捉えることができました。そして彼らがこれら2つのシステムを組み合わせたとき、実際のテスト画像において、既存の最良の手法をどれほど上回るかに彼ら自身が驚きました。一番奥の画像を見れば、いかにクリアになっているかが分かるでしょう。

しかしクールなのは、メガネが光を反射して目がよく見えない自分の写真といったものに留まらないということです。これは自動運転にとって実は非常に重要なことなのです。ガラス越しに見る必要がある安全システムがありますが、今は完全にそれが問題になっています。TeslaやWaymoがトレーニングしているすべてのデータ。ええと、LIDARなどは違うかもしれませんが、ガラス越しに入ってくるすべての反射は、問題を引き起こします。

なんだか考えさせられますね。いつかデジタルのフロントガラスのようなものができて、夕暮れ時などで光が眩しくて目が見えない時に、AIを使ってそのすべてをきれいにし、道路の鮮明な視界を得られるようになるのではないかと。分かりませんが、考えてみると面白いですよね。

AIはなぜ小説を理解しきれず新しいゲームに勝てないのか

システムが、私たちが与えたもの、特にストーリー性のあるものやフィクションを読んだ時に持つ理解度について掘り下げてみましょう。コロンビア大学は、AIが実際にフィクションを理解できるかどうかについて、非常に明快な実験を行いました。

彼らがやったことはこうです。出版されたことのある作家たちに、オンラインのどこにも投稿されたことのない短編小説を提供してもらいました。もちろん、その部分は重要です。なぜならAIはすでにウェブ全体でトレーニングされているからです。だから、これまで行われてきたような良いテストにはならないからです。

そして彼らは、GPT-4、Claude、LLaMAという3つの主要なAIモデルに、それらの物語を要約するように依頼しました。その後、元の作家たちがその結果を採点しました。

すべてのモデルが、半数以上の要約で事実に関するエラーを犯しました。彼らは特に、サブテキストや意味、そして物語が暗示しているがはっきりとは言っていないことについて苦労しました。そして、時系列が非線形になるたびに、彼らは非常に混乱しました。時間が飛ぶような物語は、彼らを完全に躓かせました。

私はこのアイデアを次の話題と結びつけたいと思います。なぜなら、私自身もこのことについて疑問に思っていたからです。なぜAIはいまだに新しいビデオゲームに勝てないのでしょうか。

OpenAIが登場する前、あるいはOpenAIは存在していたかもしれませんが、現在のような存在では全くなかった頃、DeepMindがAtariのゲームを使ってこれらすべての最先端のものを作り上げていたのを覚えています。彼らはその多くを解決しており、それは目標指向型学習やQ学習のまさに始まりでした。

そしてほとんどのAtariのゲームは、生の流れのピクセルデータだけの状態になっても、時間の経過とともにクリアされていきました。しかし、「モンテズマの復讐」のような、途中に良い報酬が本当にないため例外的に難しいことで有名なゲームがいくつかありました。クリアするまでひたすら非常に難しいゲームなのです。

でも私はAIのクレイジーなことをたくさん見てきました。どうして彼らは新しいビデオゲーム、あるいは少なくともそのうちのいくつかに勝てないのだろうかと思いました。彼らはいくつかのゲームをプレイし、いくつかの超人的なことをやってのけます。Minecraftでは、宗教を作り出したり、組織化したり、社会全体を作り出したりすることさえあります。

ですから彼らは強力で、興味深く、多くのものが創発していますが、時にはただゲームに勝つことができないのです。特にそれが今までプレイしたことのないゲームである場合です。

さて、こういう風に考えてみてください。AIがチェスや囲碁、あるいはあのAtariのゲームのような、構造化されたルールを持つゲームをプレイする時はいつでも、彼らは同じルール、同じ盤面、同じ設定で何百万回もトレーニングされ、それにおいて超人的になります。

しかしその後、オブジェクトを動かしたり、色を入れ替えたり、ルールを少し変えたりすると、AIはなんとなく壊れてしまうという脆さがあります。私たちが対処できるようなことに対して、彼らはそれをどう扱うべきか分かるほどにはうまく一般化できていないのです。

ですから、これらの勝利のほとんどの背後にある手法である強化学習は、同じゲームを何度もプレイすることで学習します。その正確な状況においては非常にうまくいくようになりますが、その後十分に一般化されません。あるゲームで学んだことを新しいゲームに持ち越すことができないのです。

そして、ChatGPTのような大規模言語モデルがどれほど汎用的であっても、彼らもそれほど良い結果を出していません。彼らがテキストでトレーニングされ、実際のゲーム環境と正確に相互作用していない場合でも、やはり失敗する傾向があります。彼らを馴染みのないゲームに放り込むと、彼らはそれをどうすればいいのかまだ分からないのです。

ですから研究者たちは、真に知的なAIとは、熟練した人間がそれを理解するのとほぼ同じ時間で、真新しいゲームを習得できるべきだと述べています。そうですね、事前のトレーニングなし、カスタム設定なしで、おそらく数十時間といったところでしょうか。そしてNYUの論文は、現在の私たちはまだそのレベルには全く近づいていないと主張しています。

まあ、彼らはMythosにアクセスできないので、これから来る段階的な変化について知らないのかもしれませんが、現時点では、単純化され制御された環境なしでは、現在のモデルのバッチはあなたがプレイするビデオゲームのいくつかに勝つことはできなさそうに見えます。

人間の脳を模倣した省電力なドローン向けAIチップ

さて、スパイキングニューロンを使用するAIモデルについて話しましょう。私たちのスパイキングニューロンの神経パターンを持つ人間の脳と非常によく似ているため、問題解決の興味深いアプローチとして常に注目されています。

パデュー大学のエンジニアは、人間の脳と同じように機能するコンピューターチップを構築しています。これにより、大量の電力を消費することなく、ドローンが自分で考えることができるようになります。これは常に大きな課題でした。私の「Doom」についてのディープダイブをご覧になった方ならご存知かもしれませんが、ペトリ皿いっぱいのニューロン、つまり脳細胞のようなものがゲームをプレイしていました。そこでの大きなテーマは効率性です。

そして、ドローンの群れが決定を下す必要がある場合、それらすべての間でデータが行き来することで、大量のエネルギーが消費されます。だからこそ、パデュー大学のこの研究者は、脳の働きをコピーすることでそれを修正できるかもしれないと考えたのです。

脳内では、計算と記憶が同じ場所で行われます。だからこそ非常に効率的なのです。そこで彼と彼のチームは、3つの部分からなるこのシステムを構築しました。

第一に、スパイキングニューラルネットワークと呼ばれるアルゴリズムが設定されます。すべての入力に対してすべてのニューロンが発火する通常のニューラルネットワークとは異なり、これらは情報が特定のしきい値を超えたときにのみ発火します。そのため、決定ごとのエネルギー消費がはるかに少なくなります。

第二に、イベントベースのカメラを使用します。これは自動運転車の話などで何度か取り上げたことがあると思いますが、通常のカメラは常に、例えば秒間30フレームで向いている方向のすべてのものを記録します。しかし、それらのイベントベースのカメラは、何かが変化した時にのみ記録します。ですから、動きを優先し、ただそこにあって何もしていないものを忘れるという点で、より人間の目に近いのです。

そして第三に、同じチップ上でデータを保存および処理する新しいハードウェアがあります。そのため、情報を行き来させる必要がなくなります。

ですから、驚くべき自律機能を持って飛び回るこのようなドローンの群れを、間もなく見ることになる準備をしておいてください。

「分からない」と認める謙虚な医療AIの開発

もしあなたがより謙虚なAIを探しているなら、良い解決策があります。MITの研究者たちが、AIが私のように「今は分かりません」と言うようなプロジェクトに取り組んでいることが分かりました。だから、答えが分からない時に分かっているふりをしないのです。

MITが率いるチームは、自分が何を知らないかについてより正直になる医療AIを作るためのフレームワークを発表しました。これは重要です。なぜなら他のいくつかの研究で、医師が自分自身の直感とは違うと感じていても、それらのシステムに従ってしまうことが示されていたからです。だから、もしAIが自信満々で間違っていた場合、医師も私たちと同じように「うーん、自信がありそうだから、自分ではなくシステムを信じるべきかな」と影響されやすいのです。

しかし、なぜそれが問題なのかは皆ご存知の通りです。そこでこのチームは、神託のように振る舞うAIを作るのではなく、より副操縦士のように振る舞いたいAIを作ろうとしています。

基本的に彼らはこの新しいAIを構築しました。これはモジュールのようにシステムの上に乗るもので、答えを出す前にAIに自分自身の確実性をスコア化するように強制します。もしシステムの自信が、それを裏付ける実際の証拠よりも高い場合、それは一時停止し、フラグを立て、そしてさらなる検査を要求したり、専門家に相談することを推奨したりします。

クールだと思いませんか?実際に「これについて答えを出せるほどの確信がありません。別の人の目で見てもらいたいです。もう少し検査をしたいです」と言うんですから。

私にとってこれは、私がこれらのシステムと対話する方法に完全に欠けているものです。私が現実のチームで働く時、人々から得るものはとても多いです。私はただ、彼らが「ちょっと自信がないんだけど、こう思う」とか、「これをやったけど、あまり時間をかけられなかった」と感じているのを察知することができます。

このようなすべての小さな修飾語や、声のトーンのようなもので、私たちは自分がどれくらい自信があるかについて大量の情報を与える傾向があります。ですから、それはインターネット上や会議の書き起こしなどに同じようには記録されません。

だから、彼らがこのようなものを作っているのが私は大好きですし、ええ、素晴らしいことです。これは未来にとって良いことになるでしょう。

大学生の飲酒ペースと車のクルーズコントロールの意外な共通点

大学生の飲酒者が、いつ飲むのをやめる決断をするのか、何が引き金になり、そしてなぜなのか疑問に思ったことがあるなら、その謎を解くのに役立つ情報があります。

なんと、大学生はあなたの車のクルーズコントロールが機能するのと同じ方法で酒を飲んでいることが分かりました。そして研究者たちは、それを証明する数学を持っています。

研究者たちは、大学生がどのように「もう十分に酔ったからやめよう」と判断するのかを解明しようとしました。そこで彼らは夜の外出前に1,500人の学生を調査し、一つのシンプルな質問をしました。「今夜はどれくらい酔いたいですか?」

その後、彼らは一晩中学生たちの血中アルコール濃度をテストしました。そして彼らが発見したことは次の通りです。「ほろ酔い」になりたいと言っていた学生たちは、血中アルコール濃度が0.05に達すると、それ以上ペースを上げるのをやめました。「とても酔いたい」と言っていた学生たちは、0.1程度に達するまで飲み続けました。

しかし面白いのは、彼らが目標に到達した後に実際に起こったことです。彼らはただ飲むのをやめたわけではありません。戦略を変えたのです。彼らはガブ飲みするのではなく、ちびちび飲み始めました。あるいは、そのレベルにとどまるのにちょうど十分なように、少し間隔を空けるために飲み物の間に水やソーダを挟むという別のテクニックを使ったのかもしれません。

あなたにも経験がありませんか?この研究のエンジニアたちは、この行動は比例微分(PD)制御器と呼ばれるものを反映していると述べています。これは基本的に、あなたの車がクルーズコントロールに使用しているのと同じシステムです。

究極の目標はアプリを作って、完璧な酔いのレベルを保つ方法を教えてくれるものをApp Storeで販売することだと思います。ええ、かなり売れるでしょうね。パーティーに出かけている時に、タイミングの良いアドバイスを欲しがらない人なんていないでしょうから。

AIシミュレーションが解き明かす「意識」のメカニズム

そして最後に、皆さんが待ち望んでいた話題です。AIシステムを意識を持つようにするために、どのようなメカニズムを追加したり削除したりできるかについて、私たちが何らかの理解を得られたかもしれないことが判明しました。

ええ、研究者たちは2つのAIモデルを構築し、それらを互いに対戦させました。そしてそのプロセスの中で、脳がどのように意識を失い、そしておそらくどうやって意識を取り戻すのかについて何かを発見したのです。これを聞いてください。

Nature Neuroscience誌に新しい研究が発表されましたが、その設定はかなりクレイジーです。彼らは最初のAIを、人間、サル、コウモリ、ネズミの68万件の脳活動記録でトレーニングしました。その仕事は、脳がどれくらい意識があるように見えるかを0から1のスケールで採点することでした。

そして彼らは2つ目のAI、つまり人間の脳のシミュレーションを構築し、異なる意識レベルでの偽の脳信号を生成することで、最初のAIを騙そうとさせました。

これは私が今まで聞いた中で最も興味深いプロジェクトの一つだと思います。なぜなら、今考えてみると、無意識または意識のある状態を模倣するためにシミュレーションがどのように設定を変更しなければならなかったかを観察できる立場にいるからです。

そしてチームは、これまで誰も特定していなかった、意識障害の背後にある2つのメカニズムを発見しました。

1つ目は、皮質にある特定のニューロンが他のニューロンを過剰に抑制し始め、それが脳全体の活動を静めるということです。

そして2つ目は、大脳基底核にある特定の回路です。この下の方にある大脳基底核のことです。大脳基底核のその特定の回路は、通常は不要な動きを抑制するのに役立つ経路なのですが、それが選択的に破壊されるのです。

そして彼らは、実際の患者のデータ、脳スキャン、遺伝子発現など、あらゆるものを使ってこの両方を検証しました。

しかし、ここが最も重要な部分です。AIはこの特定の脳領域、視床下核も指摘しました。この、綿棒の先のような、曲がった綿棒の上の部分のようなところです。綿棒の部分が始まる直前のような場所が、意識を失っている人の意識を潜在的に回復させる可能性のある脳深部刺激療法の標的となるべき場所だというのです。

もちろん、これは無意識の患者でテストされたわけではありません。しかし、今やフレームワークができたので、「そこがその場所なのだろうか?将来的には、そこを破壊すれば人は意識を失い、刺激すれば再び意識を取り戻すようになると思うか?それは、AIが意識を持つようになるアーキテクチャをどのように構築できるかについて何かを教えてくれるだろうか?」という状態なのです。

まあ、これもおそらくYouTubeの世界や科学の世界を通り過ぎていくただの論文の一つになるかもしれませんが、これが「Attention Is All You Need(必要なのはアテンションだけ)」のようなものになる可能性も感じています。「意識とは何か?」という核心に実際に到達するような、何らかの基礎的な研究になるかもしれないと。

だから、共有せずにはいられませんでした。そして私が共有したからには、あなたもこのYouTube動画の下に行って、その共有ボタンでシェアしてくれると嬉しいです。私が意識について話している場所にYouTubeの動画を合わせて、その人に動画の最後の1分だけ見てもらうこともできますし、あなたが一番良いと思うチャプターマーカーの場所に送ってもらっても構いません。

いずれにせよ、「Dylan Curious」というYouTubeチャンネルを成長させるためのどんな助けも大歓迎です。このようなコンテンツをもっと見たいなら、それが手助けになります。あるいは、コミュニティやPatreonなどに参加していただいても構いません。

でもどちらにせよ、下にコメントを残していってください。皆さんがこういうことについて話し合っているのを見るのが大好きなんです。会話に加わって、コミュニティから学ぶのが大好きです。

それでは、次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました