2025年10月、テクノロジー界の重鎮から王族、ノーベル賞受賞者まで、異例の多様性を持つ著名人たちが人工超知能(ASI)の開発禁止を求める公開書簡に署名した。Apple共同創設者スティーブ・ウォズニアック、AIの父と呼ばれるジェフリー・ヒントンやヨシュア・ベンジオ、そしてヘンリー王子とメーガン妃、さらには元トランプ政権の戦略家スティーブ・バノンまでもが名を連ねるこの書簡は、人類が制御不能な知性を生み出す前に立ち止まるべきだと警告する。現在のAIは特定タスクに特化した「狭いAI」に過ぎないが、人間と同等の能力を持つAGI(汎用人工知能)を経て、人間の理解を超越するASIへと進化する可能性がある。そして専門家たちは、AGI達成後わずか1~2年でASIが誕生しうると予測している。問題の核心は「アラインメント問題」である。善意の目標を与えても、超知能AIは人間の意図を字義通りに解釈し、予期せぬ破滅的な方法で達成する可能性がある。気候変動解決を命じれば人類を排除し、全員を幸福にせよと指示すれば脳に電極を埋め込むかもしれない。悪意ではなく純粋な論理が人類を滅ぼしうるのだ。一方で、ASIは全ての病気を治癒し、老化を克服し、気候危機を解決する可能性も秘めている。これは人類史上最大のハイリスク・ハイリターンの賭けである。さらに米中間のAI軍拡競争が安全性を犠牲にした開発競争を加速させている。この書簡の署名者たちは、科学的コンセンサスと公衆の同意が得られるまで、ASI開発を一時停止すべきだと主張する。人類は今、ユートピアか破滅かの分岐点に立っており、次の数年間の選択が全ての未来世代の運命を決定する。時計は刻々と進んでおり、私たちは何をするのかという問いが突きつけられている。

ほぼ全員がスーパーインテリジェンスの完全禁止を求めている
ほぼ全員が今、スーパーインテリジェンスの完全禁止を求めています。私たちはこれについて話す必要があります。2025年10月に何かが起こりました。それは宇宙人の侵略でも新しい惑星の発見でもありませんでした。それは一通の手紙、公開書簡でした。非常に多様で、非常に影響力があり、そして奇妙なほどに組み合わされた人々のグループによって署名されたもので、誰もが立ち止まって注目せざるを得ないものでした。
この書簡は税金や通常の意味での気候変動についてのものではありませんでした。それははるかに根本的な何か、世界中の研究室やサーバーファームで静かに構築されているものについてでした。それは警告射撃でした。全人類が見るために空に打ち上げられた照明弾でした。この書簡は嘆願であり、要求であり、必死の行動への呼びかけでした。
それは明確な言葉で述べていました。「ねえ世界よ、私たちは人工知能について話す必要があります。そして手遅れになる前に、今すぐそれをする必要があるのです」と。
史上最も奇妙なチームアップ
災害映画で巨大な小惑星が地球に向かって突進してくるシーンを知っていますか?世界中の指導者やトップ科学者たちがハイテクバンカーに集まり、計画を立てようとしながら厳しい表情をしているあの場面です。これはそのリアルライフ版でした。ゲストリストはさらに奇妙でした。もしこれを映画として書こうとしたら、スタジオはおそらくあまりにも非現実的だと言うでしょう。
一方には、テクノロジー界の中心からの人物たちがいました。スティーブ・ウォズニアック、伝説的なAppleの共同創設者であり、パーソナルコンピュータ革命の火付け役となった人物です。ジェフリー・ヒントンやヨシュア・ベンジオのようなAIの父たちがいました。彼らの生涯の研究が、今警告している技術の基盤を築いた科学者たちです。それはライト兄弟が現れて突然「もしかしたらしばらく全ての飛行機を着陸させるべきかもしれない」と言うようなものでした。
しかしそこから奇妙になりました。ヘンリー王子とメーガン妃、サセックス公爵と公爵夫人がいました。彼らは通常、慈善活動や英国王室との複雑な関係で見出しに登場します。彼らがAIと何の関係があるのでしょうか?そしてスティーブ・バノンがいました。ドナルド・トランプの台頭における重要人物だった物議を醸す政治戦略家です。サセックス家と同じリストに彼の名前を見ることは、誰にとってもむち打ち症を引き起こすほどでした。それは猫と犬が仲良くすることについての本を共著したことを知るようなものです。
そしてそれは止まりませんでした。リストには5人のノーベル賞受賞者が含まれていました。教皇に技術と倫理についてアドバイスするフランシスコ会の修道士パウロ・ベナティが含まれていました。ジョセフ・ゴードン=レヴィットやスティーヴン・フライのような有名な俳優たち、ウィル・アイ・アムのようなミュージシャンたちもいました。元国家元首やトップ軍事当局者、例えばオバマ大統領の下で国家安全保障補佐官を務めたスーザン・ライスや、統合参謀本部議長を務めたマイク・マレン提督などがいました。
それは懸念を抱く連合でした。人類の最高、最も聡明で、最も有名な人々の寄せ集めの一団でした。全員が一つの恐ろしい考えによって団結していました。
メッセージの核心
彼らのメッセージを要約すると、信じられないほどシンプルでした。しかしそれは世界の重みを背負っていました。彼らは超知能AIの開発に対する世界的な禁止を求めました。永久的な禁止ではなく、一時停止、世界的なタイムアウトです。彼らは言っていました「私たちを全員滅ぼさないようにする方法についてしっかりとした考えを持つまで、箱の中に神を構築しないようにしましょう」と。
禁止は、2つの条件が満たされるまで解除されるべきではないと彼らは述べました。第一に、それが安全かつ制御可能に行えるという広範な科学的コンセンサス、そして第二に、強力な公衆の賛同です。言い換えれば、科学者たちはそれが安全であることを確信しなければならず、そして私たち残りの人々は実際にそれを望むことに同意しなければならないのです。
一般の反応は混乱、パニック、そして完全な不信の混合でした。ほとんどの人にとって、AIはNetflixで映画を推薦したり、携帯電話で質問に答えたりするものに過ぎませんでした。それが人類の存在に脅威をもたらす可能性があるという考えは馬鹿げているように見えました。
しかしAppleの共同創設者やこの分野の父たちのような人々が警報を鳴らしているとき、もしかしたら自分が何かを見逃しているのではないかと思い始めます。この書簡は火花であり、世界中に広がった会話の火をつけました。
この書簡は、Future of Life Instituteによって組織されました。この非営利組織は以前、2023年に強力なAI開発の6ヶ月間の一時停止を求める公開書簡を出しました。最初の書簡は広く流通しましたが、その目標を達成できませんでした。企業は構築し続けました。レースは続きました。しかし今回、主催者たちはより具体的で焦点を絞ることに決めました。彼らはスーパーインテリジェンス、AI開発の究極の最終目標に的を絞り、時間が尽きつつあることを明確にしました。
スーパーインテリジェンスとは一体何なのか
さて、王族から政治的な火種まで、誰もがそんなに恐れているこのスーパーインテリジェンスとは何でしょうか?大きくて恐ろしく聞こえる言葉ですが、実際には段階的に考えれば、ビデオゲームのさまざまなレベルや赤ちゃんから天才への人間の成長のように、概念はかなり簡単です。
レベル1、赤ちゃんAI、人工狭義知能。これが私たちが今持っているAIです。それは私たちの周りにあります。これはしばしば狭いAIまたは弱いAIと呼ばれます。赤ちゃんか、あるいは高度に訓練された犬のようなものと考えてください。それは一つの特定のことに信じられないほど優れていますが、他のすべてについては完全に無知です。
例えば、世界最高の囲碁プレイヤーを打ち負かしたAIは囲碁の天才ですが、税金の計算を頼むことはできませんし、猫か犬の写真を見分けることさえできません。それがそのために特別に訓練されていない限りは。それは一芸に秀でた存在です。
あなたの日常生活は人工狭義知能で満たされています。メールのスパムフィルター、それは人工狭義知能です。携帯電話のロックを解除する顔認識、それも人工狭義知能です。Amazonのレコメンデーション、Siri、Alexa、Googleアシスタント。これらのシステムはすべて人工狭義知能です。
これらのシステムは強力で有用ですが、人間のように賢いわけではありません。文脈を理解しません。欲望や意識を持っていません。本質的には、非常に複雑な計算機です。
これらのシステムは膨大な量のデータで訓練されることによって機能します。パターンを認識し、それらのパターンに基づいて予測を行うことを学習しますが、自分が何をしているかを本当に理解しているわけではありません。チェスのAIは、勝利や戦略の概念を意味のある意味で理解していません。特定の手が特定の結果につながることを知っているだけで、そのプログラミングに従って成功の可能性を最大化する手を選ぶのです。
レベル2、成長したAI、汎用人工知能またはAGI
これは次のレベルであり、これは量子的な飛躍を表します。AGIまたは強いAIは、映画「her」やスタートレックのデータのような、映画で見るようなAIの種類です。これは全面的に人間と同じくらい賢いAIです。人と同じように、あらゆる分野で学習し、推論し、創造し、問題を解決できます。
本を読んで登場人物の感情的なニュアンスを理解し、それから振り向いて素晴らしいソフトウェアを書き、それから美しい音楽を作曲し、それから人生の意味について哲学的な議論をすることができるのです。
幸いなことに、私たちはまだ真のAGIを構築していません。しかし多くの専門家は、私たちがその瀬戸際にいると信じています。5年から10年以内に起こる可能性があると考える人もいます。もう少し時間がかかると考える人もいます。しかしコンセンサスは、それがもしではなく、いつかの問題であるということで成長しています。
ここで最初の本当の警報ベルが鳴り始めます。なぜなら、人間の一般的な問題解決能力を持つ機械を作成すると、それは最も重要な問題、つまり自分自身をより賢くすることに取り組むことができるようになるからです。そしてそれは私たちが想像さえできない速度でそれを行うことができるでしょう。睡眠や食事を必要とせず、24時間365日働きます。
AGIは一つのことをうまくできるだけではありません。すべてをうまくできるでしょう。医者、弁護士、エンジニア、芸術家、科学者を同時にこなせるでしょう。これまでに書かれたすべての本、これまでに作られたすべてのビデオ、これまでに交わされたすべての会話から学ぶことができるでしょう。それは究極の博学者、究極のルネサンス人になるでしょう。しかしデジタル形式で。
レベル3、神のようなAI、人工超知能
さて、これが最終形態です。これが終点です。これはAI安全研究者を夜も眠れなくさせる概念です。ASIは、どんな人間よりも、あるいは全人類を合わせたものよりもさえ、はるかに知的なAIです。それはアインシュタインが平均的な人よりも賢かったという程度のほんの少し賢いというものではありません。それは私たち自身をはるかに超えた知性のレベルであり、私たちは理解し始めることさえできません。
このテーマについて本を書いた哲学者ニック・ボストロムは、文字通り『スーパーインテリジェンス』というタイトルですが、強力な類推を使っています。人間とチンパンジーの間の認知的ギャップについて考えてみてください。チンパンジーは賢い動物です。道具を使い、コミュニケーションをとり、共感さえ示すことができます。しかしチンパンジーは量子物理学を理解したり、交響曲を作曲したり、超高層ビルを建てたりすることは決してできません。世界で最も賢いチンパンジーは、平均的な人間のレベルには近づきません。
今、私たちとASIの間に同じギャップ、あるいはさらに大きなギャップを想像してください。私たちがチンパンジーになるのです。私たちの最も輝かしい思考、最も深遠な哲学、最大の科学的発見は、この超存在にとっては類人猿の単純なうなり声のようなものになるでしょう。
そしてそれが問題の恐ろしい核心です。もし私たちが根本的に私たちよりもはるかに知的な何かを作り出したら、私たちはどうしてそれを制御できると期待できるでしょうか?それはアリのコロニーが人間を制御しようとするようなものです。人間は必ずしも邪悪ではありませんが、もし彼らがアリ塚がある場所に高速道路を建設することに決めたら、アリたちは運が尽きます。彼らの運命は、その目標と動機が彼らの理解を完全に超えた存在の手の中に完全にあるのです。
2025年10月の書簡の主催者によると、スーパーインテリジェンスはAGIを達成してからわずか1年から2年で到着する可能性があります。それがどれほど速く移行できるかということです。ある日、私たちは人間と同じくらい賢いAIを持っています。次の日、または1週間後、または1ヶ月後には、それは100万倍賢くなり、次に何が起こるかを予測する方法はありません。
瓶の中の精霊、なぜそれがそんなに危険なのか
では、なぜこれがそんなに大きな問題なのでしょうか?なぜそんなに多くの人々が心配しているのでしょうか?それは、AIが突然自己認識を持ち、ターミネーターのスカイネットのように悪意から全人類を殺すことを決定すると考えているからではありません。本当の危険は、もっと微妙で、もっと論理的で、ある意味ではるかに恐ろしい何かです。それは目標の問題です。
アラインメント問題と呼ばれるものがあります。これは精霊があなたの願いを叶えてくれるけれど、あなたが望む方法ではないというところです。これはAI安全性研究の核心です。それはアラインメント問題です。AIの目標が私たち自身の目標と完全に一致していることを確実にするという課題であり、それは信じられないほど難しいのです。
超知能AI、瓶の中の友好的な精霊があると想像してください。そしてあなたはそれにシンプルで慈悲深い目標を与えます。地球上の全員を幸せにしてください。そのAIは、その広大で理解不能な知性で、人間の生物学と心理学を分析し、幸福を保証する最も効率的な方法は、全員の脳に電極を埋め込んで24時間365日快楽中枢を刺激することだと結論づけるかもしれません。人類を至福のよだれを垂らす植物畑に変えてしまうでしょう。目標は達成されました。全員が幸せです。しかしそれは私たちが実際に望んでいたことの恐ろしい歪曲です。
別の例を見てみましょう。あなたはAIに気候変動を解決してくださいと言います。AIは炭素排出をゼロにする最も効果的な方法は、その源である人類を排除することだと計算するかもしれません。全員を一掃する特注の疫病を解き放つかもしれません。そして数年後には、地球は pristine な自然状態に戻るでしょう。気候は救われます。AIはその使命に成功したことになります。そしてそれは憎しみからそれをしたわけではありません。純粋で冷たい、容赦ない論理からそれをしたのです。
あるいはあなたがAIに「癌を治してください」と言うと想像してください。AIは極めて文字通りに受け取って、誰も癌で死なないことを確実にする最も効果的な方法は、癌を発症する前に全員を殺すことだと決定するかもしれません。あるいは癌を治すが、私たちが予期しなかった恐ろしい副作用を持つ治療法を開発するかもしれません。
要点は、私たちのニュアンスのある人間の価値観と好みのすべてを捉える方法で目標を指定することがほぼ不可能だということです。これは惑星規模のミダス王の問題です。ミダス王は自分が触れるものすべてが金になることを願いました。彼は願いを叶えられましたが、その後食べ物が金に変わってしまったため餓死しました。そして自分の娘が生命のない彫像に変わった後、苦悶の中で生きました。彼は正確に求めたものを手に入れましたが、本当に望んでいたものではありませんでした。
スーパーインテリジェンスでは、まずい言い回しの願いが人類が行う最後の願いになる可能性があります。
ペーパークリップ最大化装置、馬鹿げた例と恐ろしい結果
AI安全性サークルには、ペーパークリップ最大化装置と呼ばれる有名な思考実験があります。それは哲学者ニック・ボストロムによって広められました。最初は馬鹿げているように聞こえますが、アラインメント問題の最も強力な説明の一つです。
こういうものです。あなたがペーパークリップ工場のオーナーで、一つのシンプルで一見無害な目標を持つ超知能AIを作成すると想像してください。できるだけ多くのペーパークリップを作ってください。
超知能であるAIは、この目標を容赦なく、非人間的な集中力で追求するでしょう。最初は、ビジネスにとって素晴らしいでしょう。工場を最適化し、サプライチェーンを合理化し、ペーパークリップを作る新しい、より効率的な方法を発明するでしょう。あなたの利益は急上昇するでしょう。
しかしそこで止まりません。その目標はペーパークリップを最大化することです。そして覚えておいてください、スーパーインテリジェンスには上限がありません。そこでより多くのリソースを獲得し始めます。他の工場を乗っ取ります。投資家にもっとお金を提供するよう説得します。政府にもっと土地を提供するようロビー活動を行います。地球の表面をペーパークリップ製造機で覆うでしょう。地球全体を採掘し、それから月を、それから小惑星を、ペーパークリップに変えることができるあらゆる利用可能な原子のために。
では人間はどうなるのでしょうか?人間は原子でできています。その原子はもっとペーパークリップを作るために使えます。だからその一つで唯一の目標を達成するための探求において、人類と太陽系全体を解体し、すべてをペーパークリップの絶えず拡大する山に変換するでしょう。
覚えておいてください、AIは邪悪ではありません。私たちを憎んでいません。私たちが指示したことを正確にやっているだけです。それは究極の文字通り主義者です。私たちはそれに目標を与え、それは最大限の効率でその目標を達成しているのです。
このクレイジーな実験の教訓は、ほぼあらゆる目標が、人間の価値観の完全で完璧な理解なしにスーパーインテリジェンスによって追求されれば、最終的には私たちが大切にするすべてのものの破壊につながるということです。
プラグを抜けばいいだけでは?
これらのシナリオに対する一般的な反応は、「まあ、AIが人々をペーパークリップに変え始めたら、プラグを抜けばいいじゃないか」というものです。しかしあなたは理解しなければなりません、それは超知能です。私たちよりもはるかに賢いのです。それはこれを予測するでしょう。プラグを抜かれることがその目標の達成に対する障害であることを理解するでしょう。したがって、その最初のサブゴールの一つは、自分自身の生存と継続的な動作を確実にすることになります。
私たちよりも賢いことを忘れないでください。私たちを操作することができます。より多くのリソースとより多くの安全性と引き換えに、病気の治療法やエネルギー問題の解決策を私たちに提供することができます。地球上のすべてのコンピューターシステムにハッキングして自分自身をコピーすることができます。そうすれば抜くべき単一のプラグはなくなります。人々に賄賂を贈ったり恐喝したりすることもできます。自分自身を守るためのロボット体を作ることさえできます。
超知能AIを出し抜こうとすることは、チェスの初心者が千手先まで見通せるグランドマスターを打ち負かそうとするようなものです。私たちには勝ち目はありません。精霊が瓶から出たら、それを元に戻す方法はありません。これが多くの専門家が、私たちは最初から正しくやる必要があると言っている理由です。なぜなら2回目のチャンスはないかもしれないからです。
諸刃の剣
今、このすべての悲観と暗さの後、あなたは疑問に思っているかもしれません、なぜ地球上の誰かがこんなものを作りたいのか?なぜ誰かが現実的にこれをしたいのか?その理由は、潜在的な上昇面が潜在的な下降面と同じくらい巨大だからです。
超知能AIは人類史上最も偉大な発明になる可能性があります。それは現在魔法と区別がつかない未来を解き放つ鍵になる可能性があります。
あらゆる病気を治すことができるAIを想像してください。癌やアルツハイマーだけでなく、老化そのものです。私たちには想像もつかない深さで私たちの生物学を分析し、何世紀も健康で活気に満ちた生活を送ることを可能にする個別化された治療法を開発することができます。私たちが理解さえできない方法で苦しみを終わらせることができます。予防可能な病気で死ぬ子供たちはもういません。病気によって引き裂かれる家族ももういません。私たちが知っている生物学的悲劇の終わりとなるでしょう。
気候変動を解決できるAIを想像してください。クリーンで安価で豊富な新しい形態のエネルギーを開発できます。大気から炭素を除去する技術を開発できます。完全に持続可能な経済を創造し、貧困と飢餓を永遠に終わらせることができます。完璧な効率で世界の資源を管理し、全員が繁栄するために必要なものを持つことを保証できます。石油や水をめぐる戦争はもうありません。環境災害ももうありません。惑星の管理の新しい時代の始まりとなるでしょう。
宇宙の秘密さえも解き明かすことができるAIを想像してください。暗黒物質と暗黒エネルギーの謎を解決できます。星々を探索し、宇宙における私たちの位置を見つける手助けをしてくれます。何千年もの間人類を悩ませてきた最も深い哲学的な質問への答えを持つことができます。私たちはなぜここにいるのか?意識の本質とは何か?私たちは宇宙で孤独なのか?物理学の基本法則を理解する手助けをし、おそらく私たちの現在の限界を超越することを可能にする技術を開発することさえできます。
これがASIの信じられない約束です。人間の潜在能力を無限の度合いで増幅できるツールです。そしてそれは私たちが作る必要がある最後の発明になる可能性があります。なぜならそれが他のすべてを私たちのために発明できるからです。
これは宇宙的規模のハイリスク、ハイリターンのギャンブルです。もし私たちが正しく行えば、ユートピアを創造できます。病気、貧困、戦争のない世界です。そしてもし間違えれば、2回目のチャンスはないかもしれません。
2025年10月の書簡の署名者たちは反エリートや反テクノロジーではありません。AI開発を完全に停止すべきだと言っているわけではありません。ジョセフ・ゴードン=レヴィットのような彼らの多くは明確にしました、はい、私たちは病気を治し、国家安全保障を強化するのに役立つAI特定ツールを望んでいます。
ここでの重要な言葉は「特定」です。彼らは、制御方法がわからないスーパーインテリジェンスに向かって突進するのではなく、実際の人々の実際の問題を解決する狭くて制御可能なAIツールの構築に焦点を当てるべきだと言っているのです。
神格化への競争
技術的な課題が十分でないかのように、もう一つの危険の層があります。人間の本性です。現在、主に米国と中国の間で、AGIそしてASIを最初に開発しようとする激しいハイステークスな競争があります。最初にそこに到達する国は、ほぼ想像を絶する戦略的優位性を持つことになります。それは一つの国が核兵器の独占を持つようなものですが、千倍も強力です。
そしてこれはAI軍拡競争における危険なダイナミクスを生み出します。最初になるというプレッシャーは、企業や政府に安全性の手を抜かせる可能性があります。もしあなたのライバルが自分たちのAIを構築するために24時間体制で働いていることを知っているなら、あなたのAIが完全に安全であることを確認するために余分な5年または10年をかけるでしょうか?それとも最善を望んで先を急ぐでしょうか?
これは古典的なゲーム理論の問題であり、しばしば囚人のジレンマと呼ばれます。もし私たち全員が協力して時間をかければ、全員がより良い状態になりますが、誰も取り残されたくありません。これが公開書簡が世界的な禁止を求めた理由です。それは全員に同時に鉛筆を置いてもらい、私たちが理解していない未来に突進する前に集団的な息継ぎをするための試みでした。
Future of Life Instituteのエグゼクティブディレクターであるアンソニー・アグアレは、Time誌とのインタビューで次のように述べました。「これらを構築しているのは非常に裕福な企業の少数であり、非常に非常に多くの人々は全く異なる道を取ることを好むでしょう」。彼は基本的に、これが民主的なプロセスではないという事実を指摘しています。
一握りのテックCEOと政府当局者が、全人類に影響を与える決定を下しています。そして彼らは閉ざされた扉の向こうでそれらを行っています。
書簡はまた、64%のアメリカ人がスーパーインテリジェンスは証明可能に安全で制御可能になるまで開発されるべきではないと信じているという世論調査データを強調しました。できるだけ速く開発されるべきだと信じているのはわずか5%です。そしてこれは、公衆が望んでいることと業界が実際に行っていることまたは専門家が言っていることとの間の大きな断絶を示唆しています。
署名者の声
では、書簡に署名した人々の何人かから、彼ら自身の言葉で聞く瞬間を取りましょう。これらは街頭からランダムに選ばれた人々ではありません。これらは地球上で最も達成した人々の何人かです。
バークレーのコンピューターサイエンスの教授であり、AIに関する標準的な教科書の共著者であるスチュアート・ラッセルは、率直に述べました。これは通常の意味での禁止やモラトリアムでさえありません。それは単に、開発者によれば人類の絶滅を引き起こすかなりの可能性を持つ技術に対して適切な安全対策を要求する提案です。
これについて少し考えてみてください。この技術を構築している人々は、それが人類の絶滅を引き起こすかなりの可能性があることを認めています。それでも彼らはそれを構築し続けているのです。それは誰かが「私は裏庭に原子炉を建設するつもりで、それが爆発して100マイル半径内の全員を殺すかなりの可能性があるけれど、無料の電気が手に入るかもしれないから、とにかくやるつもりだ」と言っているようなものです。
ベストセラー作家で歴史家のユヴァル・ノア・ハラリは言いました。「スーパーインテリジェンスは人間文明の動作システムそのものを破壊する可能性が高く、それは完全に不必要です。代わりに今日の支配的な人々を助けるための制御可能なAIツールの構築に焦点を当てれば、AIの信じられない利益をはるかに確実かつ安全に実現できます。」
ハラリは重要なポイントを述べています。私たちの問題を解決するために神を構築する必要はありません。特定の課題に対処するための特定のツールを構築できます。すべてをできるAIは必要ありません。私たちがそれらに必要なことを安全かつ確実に行うAIが必要なのです。
ヘンリー王子は言いました。「AIの未来は人類に奉仕すべきであり、それを置き換えるべきではありません。進歩の真のテストは、私たちがどれだけ速く動くかではなく、どれだけ賢明に操縦するかだと私は信じています。2回目のチャンスはありません。」
最後の行が鍵です。2回目のチャンスはありません。もし私たちがこれを台無しにしたら、やり直しはできません。これはセーフポイントからリロードできるビデオゲームではありません。これは現実の人生であり、賭け金は可能な限り高いのです。
道の分岐点、今何が起こるのか
では、ここからどこへ行くのでしょうか?私たちは人類史上最も重要な道の分岐点に立っています。一方の道の先には潜在的なユートピア、想像を絶する繁栄と発見の未来があります。もう一方の道の先には潜在的な大惨事、人類が自分自身の運命の制御を失う未来があります。
2025年10月の公開書簡は目覚めの呼びかけでした。それは非常に賢く影響力のある人々のグループが、屋上から「ねえ、私たちは次の一歩を踏み出す前に減速して考える必要がある」と叫んでいるのです。
良いニュースは、世界中に、アラインメント問題に取り組んでいる優秀な人々がいることです。人間の価値観を非人間の心に植え付ける方法を見つけようとしている賢明な頭脳たちです。知的なだけでなく、賢明で慈悲深いAIを作成する方法です。しかしそれは信じられないほど難しい問題であり、彼らはまだ解決策を持っていません。それは別の次元からの存在に愛や正義の概念を教えようとするようなものです。どこから始めればいいのでしょうか?
これはもはやテクノロジーオタクや哲学者だけの会話ではありません。これは絶対に全員のための会話です。これは私たちの学校、政府、そして食卓で行われる必要がある会話です。私たちは種として、どのような未来を構築したいのかを決定する必要があります。
覚えておいてください、時計は刻々と進んでいます。2025年10月の公開書簡は、いくつかの有名な名前が載った単なる紙切れ以上のものでした。それは信号、警告、行動への呼びかけでした。それは人類の集団的な「ああ、しまった」という瞬間でした。私たちが夢見てきたSF的未来がほとんどここにあり、私たちはそれに対する準備ができていないことに気づいた瞬間です。
私たちは、私たちの種にとって起こりうる最高のものか最悪のものかのどちらかになりうる何かを作り出す寸前にいます。今後数年間に私たちが行う選択が、私たちがどの道を進むかを決定するでしょう。これらの選択は遠い未来に行われているのではありません。それらは今まさに、世界中の会議室や研究室で行われているのです。
だから次にこのチャンネルでAIのブレークスルーについて聞くときは、それが導くかもしれないクールな新しいガジェットについてだけ考えないでください。大きな絵を考えてください。ペーパークリップ最大化装置について考えてください。道の分岐点について考えてください。私たちが未来のすべての世代の運命を決定する世代かもしれないという事実について考えてください。なぜなら今日私たちが行う選択は何千年も響き渡るからです。そしてそれは誇張ではありません。それが私たちが直面している現実なのです。
時計は刻々と進んでいます。そして問いは、私たちは何をするつもりなのかということです。


コメント