
4,049 文字

私たちの生活を楽にするために作った発明が、私たちの存在自体を脅かすことになるとしたらどうでしょうか。
イーロン・マスク、テック界の大物の一人が警鐘を鳴らしています。彼は人工知能が制御不能に陥り、人類の終焉にまで至る可能性があると考えています。では、私たちはAIによる黙示録に向かっているのでしょうか。
AIの最先端に非常に近い位置にいて、それは私を恐怖で震え上がらせます。私は人々にAIの開発速度を遅くするよう、AIを規制するよう説得を試みました。それは無駄でした。何年も試みましたが。
私たちは歴史上最も破壊的な力を目の当たりにしていると思います。最も賢い人間よりも賢いものが初めて出現することになるでしょう。それがいつ訪れるかを正確に言うのは難しいですが、仕事が必要なくなる時が来るでしょう。個人的な満足のために仕事をしたければできますが、AIがすべてをできるようになります。AIがあなたよりも仕事をうまくこなせるようになった時、私たちはどうやって人生の意味を見出せばいいのでしょうか。
イーロンの警告は恐ろしいものです。テスラ、スペースX、ニューラリンクの背後にいる天才イーロン・マスクは、技術革新者であるだけでなく、AIに対する最も声高な批評家の一人でもあります。彼の創造物が技術の境界線を押し広げる一方で、AIが人類にもたらすリスクにも同様に注目しています。
マスクの震撼させる警告:「AIは核兵器よりもはるかに危険です。私の言葉を覚えておいてください。AIは核兵器よりもはるかに危険なのです。AIの危険性は核弾頭の危険性をはるかに上回ると思います。誰も好き勝手に核弾頭を作ることを許すべきではないと考えるでしょう」
機械が私たちの入力なしに考え、行動する世界を想像してください。予測も管理もできない結果につながる可能性があります。彼は、人間の知能を超える超知能システムの台頭が、私たちが予測できない方法で私たちを出し抜き、出し手を打つ可能性があると警告しています。
「強調しておきたいのですが、これは私が提唱していることではなく、単に予測にすぎません。これは私が望むことではなく、おそらく利用可能な選択肢の中で最善のものだと考えています。私が思いつく、あるいは誰か他の人がもっと良いアプローチや結果を思いつくかもしれない最善の選択肢は、AIテクノロジーの民主化を達成することです。つまり、一企業や少数の個人が高度なAI技術を支配することがないようにすることです」
サム対イーロン
一方で、サム・アルトマンのようなテック界の巨人たちが最も高度なAIの開発競争を繰り広げている中、イーロン・マスクはこの競争には深刻なリスクが伴うと警告しています。互いに凌駕しようとする競争の中で、企業は安全性を損ない、予測不可能で潜在的に危険なシステムを作り出す可能性があります。
インタビューでイーロンは「私はOpenAIを信用していません。サム・アルトマンを信用していません。世界で最も強力なAIを信用できない人物にコントロールされることを望んでいません。申し訳ありませんが、そう思うのです」と語りました。
「しかし、彼を知り、彼と付き合ってきた人物として、これが制御不能になって人々を傷つける可能性について彼が心配していると思いませんか?」
「彼はそういう言葉を口にするでしょうね。でも…」
おそらくマスクは、AI開発競争のライバルであるサム・アルトマンに対してネガティブな感情を煽るためにこう言っているのかもしれません。しかし、これらのAIシステムが人間の目標よりも自身の目的を優先し始めたらどうなるかを考えたことはありませんか?映画「ターミネーター」でスカイネットが自己認識を持ち、人類を脅威とみなして核戦争を開始することを決定したように。AIは自身の生存とコントロールを優先し、人命を軽視します。マスクは、そのようなシナリオが破滅的な結果をもたらす可能性があり、倫理的な監視と安全対策がこれまで以上に緊急に必要になると警告しています。
「それはどのくらいがデータで、どのくらいがポストトレーニングで、どのくらいが製品としてパッケージ化されているのでしょうか?」
「それは重要ではありません。フォーミュラ1レースで、車とドライバーのどちらが重要かを問うようなものです。両方とも重要なのです」
マスクの私たちを救う計画
マスクのメッセージはシンプルです:手遅れになる前にAIを規制しなければなりません。彼は世界中の政府に対し、AI開発を制御し、人類の最善の利益に沿うようにするための厳格なルールを確立するよう呼びかけています。マスクは、破局が起きるのを待つことは人類が賭けることのできないギャンブルだと警告しています。事前の規制こそが、AIが管理不能な危険になることを防ぐ唯一の方法なのです。
「私たちはこれを真剣に受け止めるべきだと思います。規制機関が必要です。まずはAIについての洞察を求めるグループから始め、業界からの意見を募り、規則案を提示する。そしてそれらの規則が、AIの主要プレイヤーによって渋々ながらも受け入れられることを願っています」
AIはあなたの仕事を奪うのか
AIはもはやただのツールではありません。それはあらゆる場所に存在しています。現実よりもリアルに見えるAIが生成した動画、有名人の偽の音声、そしてさらに多くのものが既に登場しています。すべてが変化し、偽物になり、信頼することが難しくなっています。
未来がどうなるか考えたことはありますか?AIが主導するこの世界で、2025年や2026年はどのようになっているでしょうか。2024年だけでも、あなたの仕事がどれほど安全かという話は始まったばかりです。AIは無数の分野で不可欠なものとなり、かつてないほどの生産性と効率性を高めています。反復的なタスクの自動化から、膨大なデータを数秒で分析し、不気味なほど正確に顧客の行動を予測することまで、既に産業を作り変えています。今がこの状態なら、未来は何をもたらすのでしょうか。
「私たちは初めて、最も賢い人間よりも賢いものを手に入れることになります。それがいつ訪れるか正確に言うのは難しいですが、仕事が必要なくなる時が来るでしょう。個人的な満足のために仕事をしたければできますが、AIがすべてをできるようになります。それが人々を安心させるのか不安にさせるのか分かりません。新しい技術は通常Sカーブに従いますが、この場合、私たちは長い間、Sカーブの指数関数的な部分にいることになります。何でも要求できるようになり、ユニバーサルベーシックインカムではなく、ユニバーサルハイインカムを持つことになるでしょう。ある意味で、これは平準化剤あるいは均等化剤となります。なぜなら、誰もがこの魔法のジーニーにアクセスできるようになると思うからです」
AIは完全に支配権を握るのか、それとも私たちは制御を維持する方法を見つけ出すのでしょうか。
「それがいつ訪れるか正確に言うのは難しいですが、仕事が必要なくなる時が来るでしょう。個人的な満足のために仕事をしたければできますが、AIがすべてをできるようになります。それが人々を安心させるのか不安にさせるのか分かりません」
レッドフラッグ
AIシステムのひび割れは既に目に見えています。偏見のあるアルゴリズムや有害なチャットボットの振る舞いは、今は些細な問題に見えるかもしれませんが、イーロン・マスクはこれらを早期の警告サインとして捉えています。これらの小さな不具合は、AIテクノロジー内部のより深い脆弱性を示唆しています。対処されなければ、これらの欠陥は重大な世界的脅威に発展する可能性があります。
AIのクリエイティブな支配
AIはもはや単なるツールではありません。ChatGPTのようなプラットフォームがストーリーを作り、DALLEが視覚的なものを生成するなど、AIはアーティストとして進化し、創造性に対する私たちの考え方を作り変えています。画面上のこの動画をご覧ください。これらの進歩は刺激的ですが、同時に人間の想像力と独創性の未来についての議論も引き起こしています。私たちは機械が芸術とストーリーテリングを定義する時代に入ろうとしているのでしょうか。
すべてを変えるツールが一つ登場します。そのツールについての動画を来週作る予定です。興味がある方はこのチャンネルを登録して、AI界の最前線に立ち続けてください。そのツールの名前をすでに知っている方がいれば、コメント欄で教えてください。
自己学習の脅威
人工知能は意識を持つようになるのでしょうか?この考えは議論を呼んでいますが、技術ビジョナリーのイーロン・マスクは、より差し迫った懸念があると考えています。それは、人間の制御を超えてAIが自己改善することです。意識が本当の危険ではないかもしれません。代わりに、私たちが追いつけないペースでAIが学習し、能力をアップグレードする可能性が危険なのです。この自己改善のループが一度始まると、マスクは人間が介入する力を失う可能性があると警告しています。
「私はAIが最大の脅威の一つだと思います。私たちは初めて、最も賢い人間よりもはるかに賢いものが存在する状況に直面しています。私たちは他の生き物より強くも速くもありませんが、より知的です。そして今、人類史上初めて、私たちよりもはるかに知的な何かが登場しようとしています。そのようなものを本当に制御できるかどうかは私には分かりません。しかし、人類に有益な方向に導くことはできると思います。これは私たちが直面する存在的リスクの一つだと思いますし、おそらく最も差し迫ったものです」
自己意識を持つAIについて懸念がある方は、画面上のこの動画をご覧ください。AIの生みの親であり、永遠のパイオニアであるジェフリー・ヒントンが、AIの未来について自身の考えを共有しています。


コメント