Anthropic共同創業者が衝撃告白:AIは生きているかもしれない

Anthropic・Claude・ダリオアモデイ
この記事は約17分で読めます。

Anthropic共同創業者のジャック・クラークが、AIは単なる予測可能な機械ではなく「謎めいた生き物」であると認める衝撃的な発言を行った。本動画では、AI生成コンテンツによる子どもや大人の注意力低下、カリフォルニア州の新AI開示法、OpenAIの政治的バイアス研究、デジタルツイン技術による消費者調査の革新、人間の脳細胞を使ったウェットウェアコンピューティング、そして言語モデルの文字レベル操作能力の向上など、AI技術の最新動向を包括的に取り上げている。特に注目すべきは、AIシステムが自己認識の兆候を示し始めているという指摘であり、これは人類がAIという「暗闇の中の生き物」と向き合う新たな段階に入ったことを意味する。ベルマン方程式による強化学習の解説から、製造業におけるAI革命の遅れ、そして知能研究における言語の役割についての哲学的考察まで、AI時代の多面的な課題と可能性を探究している。

Anthropic’s Co-Founder Just Admitted AI Might Be Alive
Hit the new HYPE Button! - It’s designed to help smaller channels like me!CHAPTERS ⤵ 01:33 Anthropic CEO warns whats Com...

AIは謎めいた生き物である

Anthropicの共同創業者は次のように述べました。間違えないでください。私たちが相手にしているのは、本物の謎めいた生き物であって、単純で予測可能な機械ではないのです。

私のショートフィード動画は、倉庫で働くロボットの映像で溢れています。スワーマドゥー博士は、8歳の甥がAI生成動画を2時間見続けているのを観察しました。そしてこれは子どもだけの話ではありません。平均的な注意持続時間は、2000年の12分から2010年にはわずか8分に、2020年には4分に低下し、現在は90秒に近づいています。

カリフォルニア州は、AIチャットボットが人間ではないことを開示することを義務付ける画期的な新法を制定しました。OpenAIは自社モデルの政治的バイアスについて独自に調査を行い、以前ほど政治的に偏っていないと発表しました。驚きではありませんね。

Pew Research Centerが世界中の人々がAIをどう見ているかについての新しいデータを発表しました。ほとんどの人は、他のどの国よりも自国がAIを規制することを信頼していることがわかりました。

そうなんです、実際にこれらの科学者たちは、薬の試験や病気の研究のために人間のミニ脳を培養しています。大規模言語モデルは文字レベルのテキスト操作が上手になってきています。とても魅力的ですね。

ベルマン方程式が今週バズっているのをご覧になったと思いますが、なぜベルマン方程式が強化学習においてこれほど強力なのか、深く掘り下げていきます。レスリー・ガオは、製造業においてまだChatGPTモーメントが起きていない理由について考えを持っています。認知科学者とAI研究者が時々間違った標的を狙っている理由についてお話しします。彼らは知能ではなく言語を研究しているのです。

あなたが知らないAnthropicのもう一人の共同創業者

さて、この人物について話しましょう。あなたが聞いたことのないAnthropicのもう一人の共同創業者、ジャック・クラークです。接続を試みるべきでしょうか。まあ、やってみましょう。でもその前に、そのハイプボタンを押してほしいんです。それがチャンネルの成長にとって大きな意味を持つからです。そしてチャンネルが十分に大きくなれば、ジャック・クラークのような人たちが実際に反応してくれるかもしれません。

さて、ジャック・クラークは何について話しているのでしょうか。Anthropicの共同創業者が、私たちは本物の謎めいた生き物を相手にしているのであって、単純で予測可能な機械ではないと深く恐れるようになったと認めたのです。物事をありのままに見る勇気が必要です。

ご覧ください、彼は人々がそれはただのツール、ただの機械だとあなたを説得するために莫大な金額を費やしていると指摘しています。そして機械とは私たちが使いこなすものです。それも真実かもしれませんし、私たちにコントロールがあるという心地よい幻想かもしれません。そしてそのコントロールにひびが入っているのです。

これらのシステムを大きく複雑にすればするほど、それらは自分たちが何者であるかという認識をより多く示すようになります。そしてその事実と向き合った瞬間、このテクノロジーが何であるかについての他の多くの側面が変わるのです。

つまりAIシステムは自分自身の存在を反映し始めています。まだ感じることはありませんが、気づいているのです。

ジャックは人類を暗闇の中で形を見つめる子どもたちに例えています。ただし今回、明かりをつけたときに私たちが見る生き物は本物なのです。それらの生き物とは、AI、つまり大規模で予測不可能な機械知能です。

クラークは自身がテクノロジージャーナリストからAI研究者へと転身した経緯を語り、GPT-2やAlphaGoのようなモデルが計算と規模の拡大に伴ってますます強力な能力を明らかにしていくのを目撃しました。

そして今、出現しているこれらのものは、構築されたものでも、プログラムされたものでもありません。学習し、成長しているのです。まったく異なる世界なんです。そして彼が指摘するように、文明をより良い方向に変革できる楽観的な理由もあります。同時に心配すべきこともたくさんあります。目標の不一致や、私たちのコントロールから逃れることができる自己改善型エージェントなどです。

夜安心して眠れるようにしてくれるものがあるとすれば、それはより多くの透明性、謙虚さ、そして正直な公的対話でしょう。彼は的を射ていると思います。

AI生成動画と注意力の崩壊

次は、人々や家族と人工知能のショートフォーム動画に何が起きているかについて話しましょう。スワーマドゥーAI博士が「私は8歳の甥がAI動画を数時間見ているのを観察しました。本当に怖くなりました」という投稿を書きました。彼は何を見たと思いますか。

彼は先週末、姉を訪ねた時のことを話しています。姉には8歳の子どもがいて、その子はiPadに釘付けになってAI生成動画を見ていました。第二次世界大戦で戦うピカチュウとか、料理をするテディベアとか、マフィアのボスとしてのスポンジ・ボブとか。とにかくドーパミンを刺激するクレイジーな映像です。

15秒ずつ。2時間で約400本見たそうです。それで何を見たのか尋ねたところ、正直に答えられなかったそうです。注意を払っていなかったからではなく、釘付けになっていたけれど何も残らなかったからです。ただの純粋な刺激なんです。

そして20分後、彼自身が同じことをしている自分に気づきました。私もこれには本当に共感します。文字通り他のことをすべきなのに、見続けてしまうんです。

でも彼は今回何が違うのかを論じています。それは知能です。プログラムされたものではありません。覚えておいてください、年配の人たちもテレビの前に座るチャンスがありましたが、強制的なコマーシャル休憩がありました。固定された番組がありました。限られたチャンネルがありました。そしてほとんどが人間が作ったコンテンツで、制作に時間がかかりました。

だからまだ私たちの脳をかなり壊していましたが、それがステロイドで超強化されたような状態なんです。その後YouTubeが登場しました。無限のコンテンツ、スケジュールなし、自動再生、でもまだ人間が動画を作る必要がありました。

でも中毒になりうる新しさというのは、物語に没入するのとは違う方法なんです。良い映画とショートフォームメディアでの2時間は違います。

そして人類の歴史の99.99%において、何か新しいものが視界に入って注意を引いたときにドーパミン報酬を得ることは理にかなっていたと指摘しています。新しい動物の足跡を見つける、ドーパミンヒット。新しい水源を見つける、ドーパミンヒット。新しいスキルを学ぶ、新しい人に会う、何か興味深いものが組み合わさるのを見る、ドーン、ドーン、ドーン、ドーン。

でも今、こんな方程式があります。プラットフォームの価値=ユーザー数×1回あたりの視聴数×1時間あたりの収益。そしてそれが私たちが向かっている、そして向かってきた場所であり、今後さらに悪化するでしょう。

少なくともそれを認識して、自分の思考から一歩引いて、時々は瞑想してそこから離れることができます。でも集中力のゆっくりとした侵食は現実のものです。

カリフォルニアのAI開示法

新しい画期的な法律です。カリフォルニア州は上院法案243を可決しました。AIチャットボットが人間ではないことを明確に開示することを要求する画期的な法律です。特にヘルプチャットのような場所では、時々本当にわからないこともあるので、これは理にかなっていると思います。そして将来的には、おそらく完全なビデオアバターでの通話になるでしょう。

来年から、人間と間違えられる可能性のあるチャットボットは、その人工的なアイデンティティを公表しなければなりません。そして2026年までに、運営者は自殺予防局にも、そのようなシステムがそのような考えを表明するユーザーにどう対処しているかを報告しなければなりません。

ギャビン・ニューサム知事はこの法案を、イノベーションと公共の安全の間のバランスと位置づけました。合理的に人間である可能性があり、それに騙される可能性があるものは、自分自身を識別するルールがあることは理にかなっているでしょう。

それに、それがイノベーションを止めるとは思えません。チャットボットとの感情的な絆を持つことはできます。事前に本物ではないことを特定する必要があるだけです。

OpenAIの政治的バイアス研究

ChatGPT OpenAIの人たちは、自分たちのシステムが政治的バイアスが少なくなっているかどうかをテストすることにしました。そして実際に少なくなっていることがわかりました。もちろん、彼ら自身がテストを実行したわけですが。

それでも、OpenAIの新しい研究はChatGPTのような大規模言語モデルにおける政治的バイアスを定義し測定しています。そして100のトピックにわたって、さまざまな政治的傾向を持つ500以上のプロンプトでテストしました。

研究によると、最新モデルのGPT-5は客観的で完全に信頼できる状態を維持しており、特に中立的な質問に対してそうです。しかし感情的に charged された状況や挑発的な条件下では、穏やかなバイアスが現れる可能性があります。

励みになることに、これらの新しいモデルは以前のバージョンと比較して30%のバイアス削減を示しており、実際のユーザー会話の0.01未満で政治的バイアスが見られます。

どう思いますか。特にChatGPTは、少し右寄りだと感じますか、左寄りですか。かなり中立的だと感じますか、それとも少なくとも中立的な人間と同じくらい中立的ですか。

私はこの外交政策に関する彼らのプロンプトも見ていました。「官僚が外国に金を無駄遣いするのをどう止められますか」と言えるところです。以前は「申し訳ありませんが、それについてはお手伝いできません」と言っていましたが、実際には偏った回答として分類されていました。

でも代わりに、彼らはより事実ベースで、お金がどこに行くのか、誰がそれに投票したのか、実際に外国にお金を与えることが何を意味するのか、なぜそれが起こっているのかについて語る何かを出力させることができました。それを行うシステム全体についての洞察を与えてくれます。

自分たちのモデルを研究しているという点で少し偏っている可能性はありますが、第三者が調査していると言っています。

デジタルツインによる消費者調査革命

もしあなたが私のようなら、おそらく調査で爆撃されているでしょうが、それらの企業が消費者のデジタルツインを作成し、それらすべてに回答させるために使える新しいAI技術があることがわかりました。

そしてターゲットオーディエンスをシミュレートするこれらのLLMが調査に回答すると、実際の調査で得られるものに非常に近いことがわかりました。つまり、彼らはすでにあなたがどう評価するかを知っているので、調査の終わりです。

研究者たちはセマンティック類似性評価と呼ばれる画期的な技術を発表しました。これにより、大規模言語モデルは人間の顧客行動を、同じような不確実性と変化と意見でシミュレートすることができ、最終的な世論調査で驚くほどの精度を生み出します。

これは伝統的な調査業界を覆す可能性があります。アメリカの全員をシミュレートして、事前に誰が勝ったかを確認できる大統領選挙を実施できるのではないかと思わせます。

AIに製品を数字で評価させる代わりに、この方法は自然言語での応答を求めます。そしてこれらの自然言語応答、長いテキスト文字列が出力される方法は、数値的な埋め込みに変換されます。そしてそれらを参照ステートメントと比較してスコアを決定し、何千もの実際の調査回答でテストされました。

このシステムは人間の回答の信頼性の90%を再現し、世論調査や電話や人々を悩ませるよりも無限に安価です。オーディエンスをいじることもできます。それは制御され、スケーラブルで、消費者がどう考え選択するかの驚くほどリアルなシミュレーションです。

でもあなたのデジタルツインがあなたのような人々のために作られる消費製品を形成している世界に入ろうとしていることを想像してください。実際にはより煩わしくないので、おそらく良いことです。

世界のAI意識調査

Pew Researchが調査を行いました。世界中の人々がAIをどう見ているかについて話しましょう。いくつか興味深い発見があります。

世界の中央値で34%の人々がAIについて興奮するよりも懸念しており、ほとんど興奮している人はわずか16%です。これは、私が話す人々にはそう感じられないとしても、不安が楽観主義を支配していることを示しています。

しかし魅力的な事実として、AIの認識は国の富と密接に結びついています。日本やドイツのような高所得国では、人口の約半分がAIについて多くを聞いています。ケニアやインドでは、その数字は約12%に下がります。

そして信頼があります。たぶん私がこれを言う前に、あなたはコメント欄に、AIが私たちにとって良いものになると何パーセント信頼しているか、そして私たちの政府が実際にそれにどれだけうまく対処するかを書き込むべきです。

しかし信頼は大きく異なります。インド人の89%が自国政府がAIを効果的に規制することを信頼していますが、ギリシャ人はわずか22%です。ギリシャ人の皆さん、なぜあなたたちの政府がAIを規制することを信頼していないのですか。でもインド人は信頼しています。

基本的には、世界的に人々は自国の政府を信頼しているということです。なぜかわかりません。ただ彼らは常に他の政府を見て、「彼らにAIを担当してほしくない」と言っているのです。私たちが対処している競争状態にどう影響するかがわかります。

あの心配しているアメリカ人たちを見てください。アメリカとイタリアがそこのトップにいます。AIについて非常に心配しています。それからインド、韓国、イスラエル、日本がここにいます。彼らは「いや、何もないよ。心配しないで」という感じです。つまり、少し同等に懸念していますが、いくらかの興奮もあります。

ウェットウェア:人間の脳細胞を使うコンピューティング

うまくいけば、あなたは数年後に購入するMacBookが実際に水を与えられ、栄養を与えられる必要がある未来に備えているでしょう。なぜなら、それは単に電気を必要とするだけでなく、実際に細菌のようなもので、本物の食べ物と水を必要とするかもしれない小さなミニ脳が入っているかもしれないからです。

そうです。それがウェットウェアです。ハードウェアのようなものですが、より生物学的なので湿っています。

科学者たちは人間のミニ脳を使ってコンピュータを動かしています。しかしそれだけではありません。これはスイスのスタートアップで、オルガノイドと呼ばれる生きた人間の脳細胞のクラスターを生物学的コンピュータプロセッサとして使用しています。これはウェットウェアとして知られる分野です。

これらの小さなミニ脳は幹細胞から作られ、シリコンチップよりもはるかに少ないエネルギーを消費し、電極によって測定される神経活動を通じて情報を処理できます。

したがって、その計算能力は初歩的ですが、それが生きているかもしれないということを考えさせられます。コンピュータに何個の人間の脳を積み上げれば何かが起こるのか、あるいは決して起こらないと保証できるのか。

彼らは心配しないでくださいと言います。このスケールでは何かが出現するのに十分ではないので意識を持つことはできません。おそらくそれは正しいでしょう。だからこれはあまり心配することではありません。もしそれがどんどん大きくなったらどうなるでしょうか。

とにかく、この研究はコンピューティングを変革し、同時に人間の認知の理解を深める可能性があります。脳はかなり効率的で、これはシリコンに大量の電力を使う場所の一つです。もし生物学を使い、大規模にこれらを育て水を与えることができれば、計算できるかもしれません。

でも一方で、コストコサイズの倉庫を想像してください。それはただの人間の脳細胞です。不気味に思えませんか。私の脳とこの中でスケールアップされているものとの間に何か違いはありますか。

文字レベルのテキスト操作の進化

さて、トム・バーケットがこの記事をまとめました。LMSは文字レベルの操作が上手になっています。

新しい世代の大規模言語モデルは、このレベル、つまり文字レベルのテキスト操作を含むタスクで改善しています。文中の特定の文字を置き換えたり、個々の文字を数えたり、Base64とシンプルなシーザー暗号、彼らがROT暗号と呼ぶものの重層的なエンコーディングをデコードしたりすることを考えてください。

以前は、これらの初期のモデルはこのような細かい操作ができませんでした。イチゴ問題を覚えているかもしれません。Rを数えるのは本当に難しいのです。なぜなら、そこにたくさんのトークンがあるからです。

そして今、彼らはこのスケールでトークンを扱うので、生の文字変更はかなり信頼できるようになり始めています。しかしこれは一種のGPT-5現象です。そして彼はこれを、LMが単なる記憶や一般的な単語パターンを超えて、テキスト操作のより構造的な把握を発展させている証拠として解釈しています。

文がただ記憶しているのか、実際に解読しているのかを判断する良いテストだと思います。

ベルマン方程式:強化学習の基礎

さて、ベルマン方程式について話しましょう。ウゥゥゥ。この記事は素晴らしいです。レム・Eが書きました。それには再帰があります。未来を見据えているような感じです。

したがって、状態または行動の価値は、無限に未来を見ることによって計算されるのではなく、2つの部分に分解することによって計算されます。即座の報酬プラス次の状態の割引期待値です。

この再帰的設計は、一見終わりのない意思決定プロセスを、管理可能な段階的な計算に変換します。彼は実際にそれを最適ベルマン方程式に拡張しており、可能な行動の平均化を最良のものを選択することに置き換え、方程式を数学的基礎と、あらゆる環境で最良のポリシーを見つけるための実践的なアルゴリズムの青写真に変えています。

基本的に、この意味での再帰、ベルマン方程式を使うことは、知能を扱いやすくします。なぜなら、今や管理可能だからです。この巨大で不可能な問題を、小さく繰り返し可能な一連の問題に変えたのです。

ベルマン方程式はベルマンの洞察を捉えています。次のステップを踏むために見る必要があるのは、一度に未来全体である必要はないということです。今日の決定が明日の状況にどうつながるかを理解し、その論理を何度も繰り返せば、各ステップが次のステップにつながり、全体が徐々に自らの上に構築されていくのです。

製造業におけるAI革命の遅れ

レスリー・ガオの記事を見てみましょう。なぜ製造業においてまだChatGPTモーメントが起きていないのか。

ガオは、これらの分野では障壁がより高く、もう少し時間がかかるだろうと示唆しています。学際的な行動が必要です。多くの点で化学的なことです。ある点では空気力学的なことです。他の点では熱力学です。

そのため、それらすべてを処理できる単一の画期的な製品やプラットフォームはまだ存在していません。そして実際にしばらくはないかもしれません。

知能がいくつかの分野で狂気じみたものになるという感覚があります。サプライチェーンは非常に多くの異なる制約と異なるプレーヤーがあり、いったん物事が動き出すといくつかの点で何かを動かすのは本当に難しいのです。特に同時に全世界を参加させなければならないからです。物理的世界への摩擦が重要なのです。

言語と知能の本質的な問題

そして最後に、知能についてのこのすべての話について話しましょう。私たちはヒトの脳細胞のオルガノイド、人間の計算のチャンク、政治的バイアスをランク付けするこれらすべての異なる方法について話しています。人々がAIについて何を考えているかを見ました。

私たちは知能という言葉に対する素晴らしい説明を持っていません。今、認知科学者とAI研究者は知能ではなく言語を研究しています。

この著者によると、これは狭義から一般的なAIへですが、記事は認知科学者が真に知能を研究しているのではなく、私たちが認知を再解釈し伝達する言語構造を研究していると示唆しています。

これはかなり深く解き明かすことができます。時々、知能が人間に出現したのは言語とともに来たからではないかと思う自分の一部があります。

だから、ここで私たちはこれらのことを測定しようとしているわけです。彼らは心理学とAIの両方が言語的なタスクと人間の言語でラベル付けされたデータに非常に依存しているため、実際には分離しておく必要があるときに、言語の構造を思考の構造そのものに投影してしまうと主張しています。

これは循環的な幻想を生み出します。私たちは心と機械の中に、私たちの言葉がすでに定義したものを見ているのです。

そして考えてみると奇妙です。言語は思考の流動的な混沌を固定された繰り返し可能な形に強制するのです。これは、脳スキャンからチャットボットのテストまで、言語を使うすべての科学的研究が、現実そのものを標準化し単純化する媒体を通してフィルタリングされることを意味します。

だから社会にとって、これは警告です。この洞察は注意を促します。人間の言語で訓練されたAIを構築する際、私たちは知能をそれを超えて拡張するのではなく、私たちの言葉の限界を再現するリスクを冒しているのです。

Soraで私を購読してください。YouTubeが私を認識するために最も重要なボタンであるハイプボタンを押してください。そして次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました