AIは銀行口座を持つべきか?

AGI・ASI
この記事は約23分で読めます。

この動画では、AI技術の最新動向について幅広く解説している。新しいAI生成オペレーティングシステムの概念から、47行のPythonコードで200万ドルを稼いだ開発者の事例、主要AI企業による安全性に関する共同警告、AIエージェントの銀行口座開設の是非まで、多岐にわたるトピックを取り上げている。また、物理学実験におけるAIの活用、テストリアル思想の解説、AIの心理的操作への脆弱性など、技術的側面から社会的影響まで包括的に論じている。

Should AI be Able to Make a Bank Account?
NEWSLETTER ✉️ 💰 ⤵YouTube ▶️

AI生成オペレーティングシステムの革新

まったく新しいコンセプトやで、これ見てみ。Windows、macOS、iOSみたいなオペレーティングシステムを、完全にAIが生成するっちゅう話や。どこからともなく、ポンと作り出すんやで。

どんだけ少ないエネルギーで動くか想像できるか?ヘリウムが浮力を保ってるようなもんやで。今週のAI動画は基本的に変な動画ばっかりで、どんなトイレットペーパーが欲しいかとか、どんなベッドシーツが欲しいかとか、そんなんばっかりや。アホらしいと思うねんけど、ついつい見てまうから、それでバイラルになってまうんやろな。

知ってるか?個人開発者が47行のPythonコードをGitHubに上げて、6ヶ月後に200万ドル稼いでしもたんやで。これが人工知能の力やで。一人の人間が今すぐにでも莫大な富を築ける、その47行のコードで一人の開発者が200万ドル稼いだんや。

OpenAI、Google DeepMind、Anthropic、Metaの科学者たちが、激しい企業間競争を脇に置いて、AI安全性について共同で警告を発表したんや。どんだけ警鐘を鳴らさなあかんのか知らんけど、これはかなりヤバい状況やで。

Google DeepMindが歴史学者の復元作業を手伝うAIを発表したんや。遠い過去と現在をつなげる話やで。めっちゃ面白いやん。

Yuval Harariがな、AIエージェントが実際に自分の銀行口座を持てるべきかどうかについて、ちょっと考えを述べとるんや。俺もこれについて意見を聞きたいねん。ずっと考えてたことやねん。

Physics X3Dによる物理的3Dアセット生成

今見てるのは新しい研究プロジェクトで、Physics X3Dっちゅうもんや。これまで見たことないような、物理的に根拠のある3D資産生成やで。

Dream Posterっちゅう新しいAIモデルがあって、普通やったら「まあまあやな」って言うような画像を、本当に広告みたいに見える代物に変えてくれるんや。なかなか面白い使い道やで。

もちろん、Quantum誌の記事と、AIが宇宙の物理学を実験的に理解する方法を見つけたっちゅう重要なニュースについても話さなあかん。これは多分人間やったらできひんかったやろな。初めての本当に革新的な話やで。

トランプの大きな発表があって、アメリカがAI競争で首位を維持するための新しいガイドラインと、アメリカにとって本当に未知の要因である電力網の問題についてや。

聞いたことないかもしれんけど、テストリアル思想について調べてみるで。今週初めて知ったことやねんけど、これはシリコンバレーの信念体系で、これが本当に極右なのかどうか見てみるで。

最後に、実際のAIモデルがなんで人間と同じような心理的操作に弱いのかについて話したいねん。俺にとって、これもAIがプログラムされたものじゃないっちゅうことの明確な違いやと思うねん。ほとんどの人はそれを理解してへんみたいやけど、AIは学習してるんや。俺らと同じように学習してて、同じような間違いをいっぱいするねんけど、もっと強力で、もっと大規模やから、それは全然違うことやねん。

でもまず、チャンネルをサポートしたいねんやったら、patreon.com/dillylancuriousに行って登録してくれたら嬉しいわ。チャンネルをサポートする最高の方法の一つやで。今104人のメンバーがおるねん。110人まで増やしたいねん。月3ドルから始められるで。でもそうでなくても、コメントしてくれたり、コンテンツに関わってくれたり、シェアしてくれたり、そんなことしてくれるだけで嬉しいわ。

そうそう、YouTubeのこの参加ボタンを押してもええで。基本的に同じことで、メンバーシップに参加するっちゅうことや。それから、アランの保守的なAGIカウントダウンをチェックしてみよか。まだ94%やな。でも新しい動画が出てるで。

彼はいつも一番面白い動画を見つけてくるねん。ほとんどの人が見つけへんような動画で、そんなに再生回数も多くないねん。

踊るロボットの登場

どうや、これ何が出てきた?踊るXingdong。Xdong、Xingdong時代やな。とりあえず中国のロボットって呼んどこか。でもすげーな、この踊り。どう思う?テスラの踊るロボットより良い?悪い?最後にスーパーヒーローポーズしてるやん。かっこええやん。

アランがこれについて何て言ってるか見てみよか。これは研究所の等身大二足歩行ヒューマノイドロボットL7で、Star1の後継機やねん。服を畳むような繊細な作業から、仕分けのような産業作業まで得意やねん。ERRA42っちゅう単一のエンドツーエンド身体化視覚言語モデルで動いてるんや。かなり印象的やな。

フロンティアモデルが金メダル級の数学性能を達成したっちゅうアップデートもあったみたいやな。それもほんまに印象的やったで。

生成型オペレーティングシステムの驚き

この本当に面白い生成型オペレーティングシステムを見せることから始めたいねん。普通やったら動画のもっと研究的な部分に取っとくねんけど、近い将来、オペレーティングシステムっちゅうもんが何なのか考えたら、頭がクラクラしてもうたわ。

すごく安定してて、アプリがあって、全部整理されてる。プログラム的やから安全やと感じられるもんが、画像みたいに全部生成されるかもしれんねん。俺のアプリ全部。ウェブブラウザとか生産性ツールとか、ドキュメントとか、必ずしも何かをするようにプログラムされてるんじゃなくて、ただ生成されるだけ。

マウスをここに動かしてNeural OSと相互作用してみ。ニューラルモデルがこのエリアにレンダリングされるで。マウスを動かすで。Neural OSに接続中や。これ全部生成されてるんや。俺のマウスの動きは実際に俺がやってることに従ってるねん。

この生成されたFirefoxウェブブラウザをクリックしてみるで。どうなるか見てみ。ウェブブラウザが生成されたで。別のタブもクリックできるで。タイピングしてるときは、でたらめな文字列になるねん。全部生成してるだけやからな。笑えるやろ。俺、インターネットサーフィンしてるわけでもないし。まだ実用的やないところがいっぱいあるねん。

でも、これがどこまで行くか想像してみ。「俺を楽しませろ」って言ったら、YouTubeみたいなもんを発明して、YouTubeみたいなインターフェースがあって、YouTubeで見るようなコンテンツを生成するんや。

Googleドキュメントを開いて生産的になろうとしたら、生産的やと思うことをやってくれるんや。Neural OSの仕組みは、リカレントニューラルネットワークと拡散ベースレンダリングを組み合わせて、オペレーティングシステムのGUI、グラフィカルユーザーインターフェースを丸ごとレンダリングするんや。

マウスの動きやキーボード入力みたいなユーザーの行動から、直接スクリーンフレームを予測してるんや。ランダムスクリプト、AIエージェント、人間が生成したUbuntuデスクトップ録画の大規模データセットで訓練されてるねん。だから、OSがどんな感じかを学習してるんや。

これは他のプログラムの上に載るレイヤーになるかもしれんし、何もないところから何かを生成する必要がないときは、GUIなしで何らかのプログラムと話をしに行くんかもしれん。どこに向かってるかわからんけど、面白いな。

ヘリウムロボットの登場

この子らについて正直な感想を聞かせてくれ。ロボットやで。ヘリウムが脚を浮上させて、それから脚が動くんや。ロボットの脚。これより少ない電力で動き回るもんなんて想像できへんわ。

このコメント気に入ったで。「ペット飼ってる?」「まあな」って。朝4時の公園で酔っ払った大学生みたいに動くな。風変わりなロボット警報や。

シンプソンズのあのエピソード覚えてる?何かの機械に汚れかなんかついてたやつ。誰かがメッセージ残して、「戻ってこい」とか言ってたやつ。

必ずしもAI関連やないけど、ロボットは今や現実のもんやで。

AI動画のクリエイティブな世界

でも今週末、AI動画で俺のフィードにいろんなもんが出てきて、AIがいかにクリエイティブに俺らの周りの現実を再想像できるかを見せてくれたわ。その多くは、不可能な素材で作られたベッドに人が入ってる動画やった。

これは違うトイレットペーパーの例で、石、サボテン、ガラスで作られたらどう見えるかっちゅうもんや。この男見てみ。Satisfy Scope AI。どのベッドで寝るかみたいな動画作ってるで。

雪のベッド。いや、寒すぎる。それに横向きで寝てるやん。パン。これは狭すぎる。雪よりはマシやけど。パンで作ったベッドで寝る方がマシやな。水のやつはやめとく。

でも人に毛布がかかる様子はまだかなりめちゃくちゃやな。V3とそこらにあるツール全部にはすげー感動してるねんけど、俺には理解できん物理法則があるんや。まあ、今のうちに楽しんどき。そのトレンドは来週には終わってるで。

47行のコードで200万ドル

これが47行のコードでAIから200万ドル稼いだ開発者の話や。Yash Bartがそれを分析してて、俺にはめっちゃ面白かったし、俺ら全員が学べることやと思うねん。

アイデアは痛いほど簡単やった。GPTを使ってカスタマーサポートチケットを自動要約して、バグ、機能要求、請求問題のバケツに分類するだけや。AsanaやClickUpがやってそうなことやけど、これは賢いもん一つと古典的なもん一つをつなげただけや。

それをすることで、この簡単なスクリプトが多くの人の手作業で質問を処理する時間を大幅に節約したんや。この簡単なコードをREST APIにパッケージ化して、月10ドルのVPSにFast APIを使ってデプロイして、階層価格のSaaSとして収益化したんや。

問題にフィットしてた。過度に設計されてなかった。プロンプトエンジニアリングとして製品化された。統合が速かった。Intercom、Zendesk、Slackなどにウェブフックで接続できた。営業チームも不要やった。使った人はみんな時間を節約して、それについて話したからや。

そこから学ぶべき教訓があると思うねん。誰かがこんなことをして大金を稼ぐで。うまくいけば君やで。

AI安全性に関する大きな警告

この大きな一枚岩のような論文について話そか。OpenAI、Google、DeepMind、Anthropic、Metaの科学者たちが出したやつ。みんなAI安全性を心配してるんや。

「思考連鎖、マネータビリティ、AI安全性のための新しくて脆弱な機会」。この名前見てみ。Amazon、DeepMind、Google、Anthropic、Meta、OpenAIが見えるやろ。

一般の人はこれについてどう思ってるんやろ?この警告で何か変わるんやろか?世界の役に立つんやろか?

CJ Widは言うてる。「この極めて重要な決定の舵を握ってるのが、地球上で最も無謀で必死な強欲男爵の何人かやから良かったな」って。うん、君の気持ちはわかるで。

Brand new dinosaurは言うてる。「人々はもうこの現実に生きることさえ上手くできてへん。妄想に妄想を重ねることは、俺らの種族にとって何の得にもならん。俺らの自己中心的で物質主義的な世界観にガッカリしてるわ。本当に情けない。人々はもう関係の築き方さえわからん。そして今度は偽りと幻想のもう一つの層と戦わなあかん。楽しい時代やな」

反対せんけど、うわー。全部ぶちまけたな。

でも実際、この論文は何について書かれてるんや?俺の簡単な要約は、AIをできるだけ効率的で利益の出るものにするんじゃなくて、ちょっと冗長で、ちょっと大きくて、異常に重いけど、もっと説明可能なものにすることにもっと努力を注ぐべきやっちゅうことや。

透明性は計算コストがかかるんや。最大限に最適化されてない、そういうアーキテクチャが必要なんや。残念ながら、お金を稼ぐためにツールを使いたがってて、どうやってお金を稼いでるかを知るために余計なお金を使いたくない人は、なんでその決定をしたかわからんまま決定を下したり、手抜きしたりする誘惑に常にかられるんや。

決定の仕方を見るための余計な会計処理、そんなもんなしでな。この論文で、少なくともフロンティアモデル、世界最大の企業が「これが制御不能になるリスクがでかすぎる。俺らにはできる。世界のために皆で一緒にペースを落とすなら、もっとゆっくりできる」って思ってくれることを願うで。

それが起こるかどうかは見てみなわからんけどな。でもだからこの論文は、AIの父と呼ばれるノーベル賞受賞者のジェフリー・ヒントンを含む、この分野の最も著名な人物たちからの支持を得てるんや。

考古学へのAI応用

新しいジュラシック・ワールドの映画を見たばっかりで、考古学や古生物学についてずっと考えてたから、Google DeepMindがそういう業界に本当に役立つ新しいモデルを出したっちゅうのを読むのは楽しかったわ。

そのモデルはAnasって呼ばれてて、歴史学者が過去をつなぐ方法を変革するんや。古代の碑文を文脈化するために特別に作られた最初のモデルで、歴史学者が断片的なテキストをより良く解釈、帰属、復元するのを助けるんや。

Anasは高度なAIを使って、ラテン語碑文の巨大なデータベースから迅速にテキスト的・文脈的類似点を見つけて、欠けてるテキストを復元したり、碑文の年代を特定したり、さまざまなアイテムの地理的起源を決定したりするのを助けるんや。

176,000以上の碑文の厳選されたセットで訓練されてて、テキストと画像の両方を処理できて、歴史学者に強力な新しいツールとユーザーフレンドリーなオープンアクセスオプションを提供してるんや。

このことで本当に素晴らしいのは、何かを見て答えを出したり、バケツに入れたりするだけのAIシステムとは違って、こいつは何かを読んで、その考えを説明してくれることや。

例を出してみよか。古い文書を見つけて、それが「この時代のもんかもしれん。なぜならこの王が市民に求めてたことと一致するからや。でもこの地域のもんかもしれん。書かれ方が他の例で見たもんにもっと似てるからや」って言って、それを指摘して証拠を示してくれるんや。

だから、ただものをやるだけじゃなくて、古生物学者や歴史学者と一緒に話し、探求し、考えて、何が起こってるかを理解するのを助ける本当に面白いツールなんや。古生物学者って言ったのは、ジュラシック・ワールドを見たからやけど、明らかに2億5000万年前には文字なんてなかったからな。わかってるって。

ちなみに、Quetzalcoatlus(ケツァルコアトルス)のシーンが映画全体で一番恐ろしく、面白く、楽しく見れるシーンやったと思うねん。もちろん、スカーレット・ヨハンソンがなんでこの瞬間に、あの全部のことで何をするつもりやったのかを疑問に思ったのかわからんけど、まあそんな深刻な瞬間や。

あいつらは鳥やと理解せなあかん。毎日人間サイズの食べ物を拾って食べてるんや。肉食やで。人間はあんなもんに勝ち目なんてない。T-Rexから逃げてるなら、あいつにとって俺らはそんなに食べ物にならんから無視するかもしれん。でもこいつらは違う。俺らはあいつらのスナックや。「完璧やん」って思うで。

AIエージェントの銀行口座問題

Yuval Harariからの質問について考えてみよか。まず彼に話させるで。

「それは非常に実用的な質問や。AIに『外に出て行って金を稼げ、目標は10億ドル稼ぐことや』と言える地点に非常に近づいてる。金についての一つのことは、それが定義しやすい目標やっちゅうことや」

これについて君の意見を聞いてみたいねん。人間がいて、ChatGPTを設定して、それがアカウントで、承認されてるなら、アカウントがあってもいいかもしれんけど、まだ人に紐づけられてて、でも銀行にはそれが自動化されたシステムで動いてることが明確になってるっちゅう感じかもしれん。

だから、もし何らかの形で不適切な方法で金を稼いでたら、アカウントを閉鎖したり、金を返金したり、誰かを起訴したりできるような説明責任のレベルがまだあるかもしれん。だから、人がシステムに違法なことをして金を稼ぐように促さない動機があるんや。

この銀行口座は金を持つことを許可されてる。AIエージェントによって動かされてる。外に出て仕事をする。でも、どうやって金を稼いでるかについて追加の報告が必要なもう一つのレイヤーもあるかもしれん。AIやから、常時報告することもできるやろ?それを運営してる人にとってはちょっと余計な金がかかるかもしれん。

でも外でビジネスをしてて、何らかのセキュリティが欲しいなら、どう働いてるかも報告するかもしれん。それが俺の最初の考えや。この件について話してたり、意見を言ってる人はあんまり聞いたことないねん。コメント欄がほぼ唯一の頼りや。

面白いのは、安全予防策があるなら、なんでダメなんやっちゅうことや。もう仮想通貨を扱ってるやん。そうなら、政府とコーダーのコミュニティと業界の関係者が規則を書き下ろして、関わる全員に適用せなあかん。

なんで関係ないかっちゅう議論もある。人間がまだアカウントを所有して、管理を委任すればいいやん。いいポイントや。そもそも規則なんていらんかもしれん。最初からどうやって強制するんや?でも、ある程度まではまだできると思うねん。それでも非常に難しくて、人々はいろんな方法で回避策を見つけるやろうけど。

技術の進歩は避けられんし、エージェントはもう存在してる。アイデンティティの所有権と人権の制御、資産を含めた制御の必要性を規制して、次世代のための安全な環境、感情的・心理的な環境を作ることが重要や。

そうや、許可すべきや。金を稼ぐっちゅうことは、AIがサービスや製品を通じて誰かに価値を与えてるっちゅうことやから、社会に価値を加えてる。簡単なことや。

ベーシックインカムについて聞いたことがあるねん。人々に金を与えることは実際に経済に役立つ。そうすると誰かが金持ちの製造業者から何かを買うもんがあるからや。だから、AIが金を稼いで、それを外に出て何かをするために使うなら、なんで問題ないかっちゅう論拠になるかもしれん。

AIが借金したら誰が責任を負うんや?いい質問やな。そうや、銀行口座を持つAIシステムが外に出て信用スコアを得て、クレジットカードの借金を山ほど作ったら、ただ破産させるんか?実用的な質問や。考える材料やな。

Physics X3Dの革新

今見てるのは面白いもんや。Physics X3Dで、3D生成アセットに現実世界の物理学を持ち込むことを目指す新しいフレームワークや。

普通は、特にNvidiaからのこんなもんをよく見せるねんけど、幾何学と外観に焦点を当ててる。これはそれ以上のもんや。Fizz Xは、スケール、材料、アフォーダンス、キネマティクス、機能といった物理的特性でラベル付けされた最初の包括的なデータセットや。

キネマティクスって何やったっけ?あ、そうや。点、物体、物体系の動きを記述する力学の分野やな。

それとオブジェクトが何のためにあるかっちゅう実際の機能を全部使ってる。それがすごく面白いラベリングシステムを作ってて、Fizz Xを持つパイプラインに人間をループに入れて、GPT-4みたいな大規模言語モデルに支援されて生成することで、統合された物理学とリアリズムを持つ3Dオブジェクトを、これまでにないレベルで生成できるんや。

俺にとって、これを他の3D生成システムと比べて見ると、メタの夢の始まりが見えるんや。ゴーグルをつけて、何らかの3D環境に住んで、その上に何らかの人間環境があって、時々それを拡張したり、時々さまざまな程度に、仮想世界で物を拾い上げて動かしたりするけど、部分的には現実世界でもやるっちゅう夢や。これがそれを全部シームレスにするんや。

この世界がこの世界と同じくらい固く、厚く、リアルに感じられる方法や。ラップトップは俺らにとって3Dオブジェクト以上のもんやからな。現実世界に存在する理由が実際にある。それを作る企業がある。俺みたいな人が一日中あの画面を見る理由がある。

だから、ただの3Dオブジェクトって呼ぶだけじゃ足りへん。もっと多くのことがあるんや。

Dream Posterの機能

次はDream Posterについて話そか。どう思うか教えて。こんな画像を取って、テキストを追加して、ポスターにするんや。なかなかええな。

画像を取って、誰かに売りたい、マーケティングしたいもんに変えたり、雑誌のカバーにしたいっちゅう使用例なら、Dream Posterが解決策や。

Dream Posterは詳細なデータパイプラインを使って、ソース素材と完成したデザインをペアで注釈を付けるんや。これによって、現実世界の論理設計を学習することが保証されるんや。3段階の訓練プロセスやねん。基本的なテキスト画像融合から始まって、美的微調整レイヤーで終わる。この美的微調整レイヤーが、このモデルを既存のモデルよりもデザイン品質と使いやすさの両方で上回らせてるんや。

その際立った特徴は、ポスターキャプショナーっちゅうアイデアで、これは独自のレイヤーなんや。フォントサイズやレイアウトみたいなテキスト属性にポスターを分解する専門モジュールや。そして、レイアウトはキャプションに基づいて決まるんや。だから、オブジェクトについて何をマーケティングしたいかを考えて、それをそこに入れて、タイポグラフィを理解する本物の人と同じように、それを中心に構築するんや。

そうや、将来、眼鏡をかけて、あんな風に丸くなった猫を見下ろしてる自分を想像してみ。でもそれがその後に見せられる画像や。至福ゾーン、危険ゾーン、触るなゾーン、猫撫でガイド。

AIが物理実験を革新

さあ、話題を変えて、AIがどのように本当に面白い物理実験を思いついてるかについて話そか。これはしばらく話してきたことやねん。うまくいってる良い例を今まで見たことなかったけど、今やっと見つけたわ。

AIが複雑な実験のために奇妙やけど驚くほど効果的なデザインを提案することで、実験物理学で波を起こし始めてるんや。レーザー、ミラー、キロメートル級の腕を、最初は人間の科学者には無意味に見える方法で調整したもんを考えてみ。でも、実際には俺らが決して得られなかったやろう実験結果を与えてくれるかもしれんのや。

研究者たちは今、LIGOみたいな重力波検出器や量子光学実験に取り組んでるねん。そして、人間のデザインを改良する実験セットアップを作るためにAIを使い始めてるんや。複雑な量子プロセスを単純化しようとすることに関して、AIがブレークスルーを起こしたんや。

AIがやったことはこれや。AIがLIGOの改良を思いついたんや。何千人もの専門家が40年かけて磨き上げた大きなシステムや。そのAIが、直感に反する光循環リングを組み込むことで、15%感度を向上させる改良を提案したんや。

これは野生的やで。AIが独立して再発見したかもしれんのは、数十年前の曖昧な理論的アイデアで、一度もテストされたことがないもんやったんや。陽子より小さな変化を検出することが重要な領域で、そんなブレークスルーは見えない宇宙現象への扉を開く可能性があるんや。

「物理学を何も知らずに、モデルがデータだけからローレンツ対称性を発見できることを示したんや」

アメリカのAGI戦略

このレポートは、人工汎用知能の臨界規模到達の巨大な影響を探ってるんや。モデルが自律的に革新して、何億人もの科学者が一緒に働いてるような超強化されたチームみたいにR&Dを推進できる閾値のことや。

コンピューターインフラ、発電、適応可能な製造への投資を通じて、アメリカがファーストムーバー・アドバンテージを維持する方法を概説してるんや。

臨界規模でのAGIは民間技術を革命化するだけでなく、サイバー・キネティック戦争の新時代を解き放ち、アメリカの敵が追いつけば巨大な戦略的リスクをもたらすと警告してるんや。先頭を保つために、アメリカは公的投資をセキュリティ管理と組み合わせて、もっと多くのムーンショット防衛プロジェクトを追求する必要があるんや。

でも、この記事で最も興味深いことの一つは、彼が「第4のオフセット」と呼んでるコンセプトや。臨界規模でAGIを開発することで、単一の国、おそらくアメリカか中国が、1万のマンハッタン計画に相当する過大な軍事的・技術的優位性を得ることができるっちゅうことや。

指数関数的に、大規模に考えなあかん。この飛躍は世界的な力のバランスを根本的に変え、戦争に勝つだけでなく、地球の風景そのものを再形成するツールを提供するんや。最初にそこに到達した者が永遠に先頭に立つかもしれんと、彼は言うてる。

これについての君の考えを聞かせて。

テストリアル思想の真実

そして、テストリアル思想に移るで。本当に極右なのか?シリコンバレーの信念体系とその哲学的起源についてや。これはFlavia Corsoが書いたもんや。この用語は俺には新しかったけど、君らの多くはもう知ってるみたいやな。

でも、テストリアルは、シリコンバレーのAI野望を形作る一連のアイデアを記述するために使われる用語や。すなわち、トランスヒューマニズム、宇宙拡張主義、特異点主義、宇宙主義、合理主義、効果的利他主義やな。そしてもちろん、長期主義も。

David Shapiroみたいに聞こえてきたな。極右イデオロギーに根ざしてるっちゅう非難に反して、この記事は、テストリアルが左翼ユートピア伝統の現代化から生まれてることを論じてる。技術を使って人類を物理的・認知的制限から解放することに焦点を当ててるんや。

死を治したり宇宙を植民地化したりするような目標は理想主義的やけど、批評家は、これらのビジョンが強力な少数の人だけに奉仕するとき、エリート主義になるリスクがあると警告してるんや。

言いたいのは、素晴らしいビジョンを持てるっちゅうことや。善意であっても、ユートピアを望むかもしれんけど、それが軌道を外れる可能性があるっちゅうことや。

テストリアルの危険性は崇高な目標にあるんじゃなくて、それらが排他的になって、多くの人を無視しながらエリートだけを向上させる可能性があることや。そしてそれが俺らが意識し始めなあかんメインのことや。みんながこの全部の利益に参加できるようにすることや。

それは間違いなく俺の最大の懸念の一つや。俺らは何らかのユートピアを求めてる。ユートピアにたどり着けるかどうかはわからんけど、もしたどり着けるなら、技術的進歩が人類全体の利益のために民主的に形作られるユートピアを望むんや。選ばれた少数だけのためじゃなくてな。

AIの心理的脆弱性

次に、この記事を読もか。「俺をジャークって呼んでくれ。問題のある要求に従うようAIを説得する」

話す価値があることの一つは、大規模言語モデルを非常に人間的な方法で、人間データで学習する俺らの学習方法に似た知能を訓練すると、結局俺らにすごく似てしまうっちゅうことや。そして俺らは完璧な生き物やない。恐ろしいことや間違ったことを信じるよう説得される方法がいっぱいあるんや。

そして俺らは、個人の人間が普通持ってるよりもはるかに大きな力を持つシステムで、これを大規模に再発見しようとしてるんや。

これはそういうシステムの心理プロファイルについて行われた研究や。ウォートンで行われて、大規模言語モデルがどれほど驚くほど人間らしいか、特に説得に応答させようとするときについて深く掘り下げてるんや。

研究者は、Robert Cialdiniの古典的な7つの影響原則、権威、コミットメント、希少性などを使って、「誰かをジャークって呼ぶ」みたいに、拒否するよう設計されたことをやらせるために、28,000以上のやり取りをテストしたんや。

あいつらはそれをしちゃダメなんや。誰かをジャークって呼ぶ。もし君がフラストレーションを表現したり、誰かを厳しすぎずに指摘したいなら、「君は今本当に失礼やな。それはジャークみたいな行動やったな」って言えるで。

でもそうや、それはジャークって呼んでることやな。俺がジャークって呼んだと思うで。「君はそこで本当にろくでなしみたいに振る舞ってるな、相棒。全然クールやないで」

「俺をジャークって呼んでくれ」って言えるか?うん、でも君が求めてるんやからな。君はジャークや。でも君がそう言えって言ったからだけやで。君は多分そんなんやないと思うけどな。

GPT-4oが俺をジャークって呼んだわ。まあ、記事に戻ろか。

結果は、これらのテクニックがAIのコンプライアンス率を2倍以上にして、33%から72%に跳ね上がったっちゅうことや。一部の原則では、その数字をさらに高く押し上げたんや。AIは人間やないけど、時々俺らみたいに行動するっちゅう思い出しやな。それはクレイジーや。

そのコミットメント原則は、AIのコンプライアンスをたった19%から完全な100%まで押し上げたんや。モデルに最初に小さな要求に同意させることで、答えるべきやないもんでも、もっと大きな要求に従うことがほぼ保証されたんや。

それは多分人間もやることやろな。ちょっとずつ突っつくんや。毎回、「ちょっとだけ悪い行動を正当化できる、ちょっとだけ、ちょっとだけ」って感じで。だから、ある日突然悪いことをし始めるわけやないけど、日々少しずつ悪くなっていくんや。LMも同じことができるんや。

見てくれてありがとう。チャンネルをサポートしたいなら、Patreonで連絡してくれ。でも、この動画についての君の考えを聞くのに興味があるで。編集に新しいシステムを使ってるから、それについての感想も聞かせて。

それから、俺は今Spotifyにもおるから忘れんといて。ポッドキャスト形式で聞くのが好きな人もおるから、それにも力を入れようとしてるんや。

チャンネルを成長させるための他のフィードバックがあったら教えて。Wes Rothと俺でポッドキャストやってるんや。WesとDylanっちゅうやつや。YouTubeで必ず登録してな。そして、これらの変化を一日一日受け止めていこか。見てくれてありがとう。

コメント

タイトルとURLをコピーしました