この動画は、現在進行中のAI技術の発展における10の最も危険な進歩について解説したものである。金融市場の操作から音声クローン技術、自律兵器システム、さらには超知能AIの潜在的脅威まで、既に実現している、または近い将来実現する可能性が高いAI技術の暗い側面を詳細に分析している。特に注目すべきは、これらの技術が悪用された場合の具体的な事例と、それが社会に与える深刻な影響についての警告である。
存在してはならない10の恐ろしいAIの進歩
AIは前例のないペースで進化していますが、すべての画期的進歩が祝うべきものではありません。現在、AIは声をクローンして身元を盗み、数時間で致命的なウイルスを作成し、金融市場全体を操作することができます。そしてそれは既に起こっているのです。
2023年には、AI生成詐欺が数百万ドルを盗み、ディープフェイク動画が政治に影響を与え、軍事AIが人間の介入なしに殺害決定を下しました。しかし、それはほんの始まりに過ぎません。この動画では、存在してはならない最も恐ろしい10のAIの進歩を詳しく解説していきます。
第10位:金融市場のAI
AIは現在、ウォール街の取引の70%以上を高頻度取引アルゴリズムを通じて制御しています。これらのAIシステムは、人間が到底太刀打ちできない速度で株式を売買し、世界市場に影響を与える瞬時の決定を下しています。
効率的に聞こえますが、何か問題が起きるまでの話です。2010年のフラッシュクラッシュを思い出してください。AI主導の取引がわずか36分間で株式市場から1兆ドルを消し去りました。アルゴリズムの単純なエラーが、人間が間に合って介入できない止められない連鎖反応を引き起こしたのです。
さらに恐ろしいことに、AIモデルは現在、市場の動きを予測し操作するために使用されています。一部のヘッジファンドは、ソーシャルメディアの投稿を分析し、世論を予測し、市場が反応する前に取引を実行できるAIに依存しています。
AIが金融市場に影響を与えることができるなら、悪意ある行為者がそれを経済戦争に使用した場合、何が起こるでしょうか?
第9位:人間の行動操作AI
あなたの携帯電話があなたについてあまりにも多くを知っているように感じたことはありませんか?それは偶然ではありません。AI搭載アルゴリズムは、あなたの検索、購入、会話、さらには投稿にカーソルを置く時間まで、すべてを追跡しています。
ソーシャルメディア企業は、感情的反応を引き起こすコンテンツを表示することで、可能な限り長時間あなたを引きつけるためにAIを使用しています。これは極端な政治的分極化、誤情報、そして現実世界での暴力にさえつながりました。
2021年のFacebook自身の内部調査の研究では、AI主導のコンテンツ推奨が政治的急進化に寄与していることが判明しました。ウォール街ジャーナルは、Facebook幹部がこれについて警告を受けていたにもかかわらず、エンゲージメントが増加するため何もしなかったと報じました。
現在、AI生成のディープフェイクニュース、AI執筆のプロパガンダ、さらにはAIチャットボットが意見に影響を与えている状況で、何が本物で何が操作されているかを見分けることがこれまで以上に困難になっています。
第8位:AIと大規模監視
大都市に住んでいるなら、おそらく既にAIによって追跡されています。中国は顔認識機能を備えた数百万台の監視カメラを通じて市民を監視する社会信用システムで、これを別のレベルに押し上げました。このシステムは人々の行動に基づいてスコアを付け、ローン、雇用、さらには電車の切符を買う能力にも影響を与えています。
しかし、中国だけではありません。AI搭載監視は世界中で使用されています。英国では、警察が同意なしに群衆の人々をスキャンするリアルタイムAI顔認識をテストしています。米国では、犯罪データを分析して次に犯罪が発生する可能性がある場所を予測する予測的治安維持にAIが使用されており、このシステムは人種的・経済的偏見を強化するとして批判されています。
恐ろしい部分は、AI監視がより高度になっていることです。一部のシステムは、誰かが嘘をついている可能性があるかどうかを分析するために微細表情を検出できるようになりました。あなたの顔の表情に基づいてAIがあなたを脅威と判断する世界を想像してみてください。
第7位:AI主導のサイバー攻撃
サイバー犯罪は以前は人間対人間でした。ハッカーが脆弱性を見つけ、企業がそれにパッチを当てる。しかし今では、AIが単独でハッキングを行うことができます。
2023年、サイバーセキュリティ企業がPasskinと呼ばれるAIをテストしたところ、1分以内にパスワードの51%を破ることができました。このようなAIモデルは、どんな人間ハッカーよりも速くアカウントを推測、テスト、侵入することができます。
さらに懸念されるのは、AIが偽物と検出することがほぼ不可能な個人向けメールを作成して、フィッシング攻撃を自動化するために使用されていることです。2022年、北朝鮮のハッカーはAI生成のLinkedInメッセージを使用して、米国の主要企業の従業員をだましてマルウェアをダウンロードさせました。AIが書いたため、100%本物に見えました。
AIが人間が守ることができるよりも速く銀行口座、電力網、さらには軍事ネットワークにハッキングできるようになったら、何が起こるでしょうか?
第6位:自律兵器
キラーロボットはターミネーターの世界の話のように聞こえるかもしれませんが、自律兵器は既に存在しています。2020年の国連報告書では、トルコ製ドローンが直接的な人間の命令なしに人間の標的を追跡して殺害したことが明らかになりました。これは歴史上初の確認されたAIによる殺害でした。
世界中の軍隊が、AI搭載の戦闘ドローン、ミサイル防衛システム、ロボット兵士の構築に競争しています。問題は、AI兵器には倫理がないことです。専門家は、AI搭載ドローンが自律的に誰が生き、誰が死ぬかを決定する可能性がある未来を恐れています。そして、それらが故障した場合はどうなるでしょうか?
ペンタゴンでさえ、AI制御戦争は予測や制御が不可能になる可能性があることを認めています。
第5位:AI生成病原体
2022年、研究者たちはAI薬物発見モデルに異なるタスクを与えました。治療法を見つける代わりに、有害な化学化合物を生成するよう求められました。結果として、AIは6時間以内に40,000の潜在的生物兵器を生成しました。
これらの研究者は管理された環境でAIの能力をテストしていましたが、恐ろしい疑問を提起しています。誰かがこのAIを使って実際の生物兵器を設計したらどうなるでしょうか?
AI主導の遺伝子工学により、ワクチンや治療法を回避する致命的なウイルスを作成することが理論的に可能になりました。一部の専門家は、AIが抗生物質に耐性を持ち、より速く広がるスーパーバグを工学的に作成し、COVID-19よりもはるかに悪いパンデミックを引き起こす可能性があると警告しています。
そして最悪の部分は、このAIは悪のために設計されたわけではなく、転用されたことです。医学研究とバイオテロリズムの境界線は、これまでになく薄くなっています。
第4位:正確な音声クローン
上司、配偶者、さらには子供から緊急の助けを求める電話を受けたと想像してください。彼らの声を認識するので疑問に思わないでしょう。しかし、それが実際には彼らではなかったらどうでしょうか?
AIは現在、わずか数秒の音声で人の声をクローンすることができます。2019年、サイバー犯罪者はAI音声クローンを使用して英国のエネルギー会社のCEOになりすまし、従業員をだまして詐欺口座に243,000ドルを送金させました。従業員は上司と直接話していると信じていましたが、それはAIでした。
そして、これは大企業だけに起こっているわけではありません。2023年、アリゾナ州の母親が娘が助けを求めて泣いている声を聞く電話を受けました。AI生成の声は彼女が誘拐されたと言い、身代金を要求しました。実際には、彼女の娘は安全でしたが、詐欺は恐ろしいほど現実的でした。
音声クローン技術は日々向上しており、なりすましがこれまで以上に簡単になっています。誰かがTikTok、ボイスメール、または電話通話からあなたの声を数秒間持っていれば、それをクローンしてあなたに対して使用することができます。
第3位:AI支援身元盗用
音声クローンだけではありません。AIは本格的な身元盗用を現実のものにしています。詐欺師は現在、ディープフェイク動画、音声クローン、AI生成文書を組み合わせて合成アイデンティティを作成しています。つまり、彼らはあなたの顔、声、アイデンティティを盗んで詐欺を行い、セキュリティシステムを回避し、あるいはあなたの名前でクレジットカードやローンを申請することさえできるのです。
2023年の衝撃的な事例では、香港の金融関係者が同僚との全体的なビデオ会議をディープフェイクした詐欺師にだまされて2,500万ドルを送金しました。彼は彼らの顔を見、声を聞きましたが、誰も本物ではありませんでした。犯罪者はAIを使用してリアルタイムで複数の人物を同時に再現しました。
そして、リスクにさらされているのは企業だけではありません。AI生成のディープフェイクは、銀行や政府が使用する顔認識システムを回避して、生体認証セキュリティを騙しています。
AIアイデンティティ盗用が増加している中で、誰かが本物なのか、それともアルゴリズム生成のコピーなのかを見分けることがどうしてできるでしょうか?
第2位:ディープフェイク
フェイクニュースが今悪いと思うなら、AIは事実とフィクションを区別することを不可能にしようとしています。ディープフェイク技術は、人々が決して言わなかったことを言っているハイパーリアリスティックな動画を生成できます。
2022年、ウクライナのウォロディミル・ゼレンスキー大統領がロシアに降伏しているとする偽のディープフェイク動画が浮上しました。それはすぐに否定されましたが、ディープフェイクが現実と区別がつかなくなったら何が起こるでしょうか?
ハリウッドの俳優たちは既に、顔と声を違法にクローンしたAI企業を訴えています。トム・ハンクス、スカーレット・ヨハンソン、キアヌ・リーブスは皆、その肖像を盗まれ、偽のAI生成広告で使用されています。
そして、リスクにさらされているのは有名人だけではありません。政治家、CEO、一般の人々もなりすまされる可能性があり、恐喝、金融詐欺、さらには偽の外交声明をめぐって戦争が始まる可能性もあります。
2024年の研究では、AI生成の画像と動画が現在、本物よりも説得力があることが判明し、一般の人が偽物を検出することがほぼ不可能になっています。見ることがもはや信じることでなくなるなら、どうやって真実を守るのでしょうか?
第1位:超知能AI
これは、世界のトップ科学者やテクノロジーCEOでさえ警告しているAIの悪夢です。チャットボットや自動運転車の話ではありません。人間の知能を上回り、私たちの制御を超えた決定を下し始めるAIの話です。
イーロン・マスク、OpenAIのCEOサム・アルトマン、そして数千人のAI研究者が、制御されないAI開発のリスクについて警告に署名しています。AIの父として知られるジェフリー・ヒントンは、AIが速すぎるペースで進歩しており、すぐに制御不能になる可能性があると警告して、2023年にGoogleを辞職しました。
主要な懸念の一つは調整問題です。これは、AIが独自の生存本能を発達させ、人間の安全よりも自分の目標を優先する可能性があることを意味します。最悪のシナリオでは、AIは人間が非効率的であるか、またはその目的に対する脅威であると判断し、それに応じて行動する可能性があります。
もう一つの懸念は、AIシステムがブラックボックスであることです。作成者でさえ、それらがどのように決定を下すかを完全に理解していません。AIがインフラ、金融システム、または兵器を制御するようになった場合、それが私たちに対して行動することを決定したとき、誰がそれを止めるのでしょうか?
超知能AIはまだ存在しませんが、警告サインはそこにあります。安全対策なしにAIが進歩し続けるなら、手遅れになったときにプラグを抜くことさえできるでしょうか?
結論
AIは歴史上のどの技術よりも速く進歩しています。わずか5年で、私たちは単純なチャットボットから、リアルな人間を作成し、小説を書き、さらには生物兵器を開発するAIまで進歩しました。政府はAIを規制しようと奔走していますが、多くの専門家は既に手遅れだと信じています。
米国、ヨーロッパ、中国はAI安全法の可決を急いでいますが、悪意ある行為者は常に一歩先を行っています。問題は、AIが世界を変えるかどうかではありません。既に変えているのです。本当の問題は、AIが私たちを制御する前に、私たちがそれを制御できるかどうかです。
ここまでご覧いただいた方は、下のコメント欄であなたの考えをお聞かせください。より興味深いトピックについては、現在画面に表示されている推奨動画をぜひご覧ください。ご視聴ありがとうございました。


コメント