最も嫌われているAI発明トップ14(これまでのところ)

AI終末論・破滅論
この記事は約12分で読めます。

本動画は、AIと新技術が引き起こす最も深刻な14の問題を検証するものである。予測的警察活動による誤認逮捕、医療アルゴリズムの偏見、クリエイターの作品盗用、マルウェアの自動生成、顔認識監視システムの誤判定、政府システムにおけるAIの誤判断、同意なきデータ収集、ディープフェイクによる性的搾取、音声クローニング詐欺、自律型兵器、そしてAI生成児童搾取画像まで、技術進歩の暗部を包括的に取り上げている。各事例は実際の報道や研究に基づいており、AIが便利さをもたらす一方で、人権、プライバシー、安全保障に対して現実的な脅威となっている現状を明らかにする内容である。

Top 14 Most Hated AI Inventions (So Far)
What if the most advanced AI inventions aren’t exciting — but terrifying? In this video, we reveal the top 14 most hated...

現実であってほしくない新技術

これらは、あなたが現実であってほしくないと願う15の新技術発見です。

第14位は、予測的警察活動とアルゴリズムによる誤認逮捕です。まずは司法制度の欠陥のように感じられるものから始めましょう。予測的警察活動ツールと顔認識システムは、アメリカ合衆国でいくつかの実際の誤認逮捕の原因となっています。

デトロイトでは、無実の黒人男性3名が、アルゴリズムが彼らを実際には犯していない犯罪と照合したために逮捕された別々の事例が確認されています。そのうちの一人、ロバート・ウィリアムズは30時間拘束されました。NIST(米国国立標準技術研究所)の顔認識研究でも、これらのシステムが白人の顔と比較して黒人やアジア人の顔を誤認識する可能性がはるかに高いことが判明しています。

また、ShotSpotter(ショットスポッター)の調査では、時に花火を銃声と誤認することがあることがわかりました。

医療AIの偏見と危険な誤り

第13位は、偏見のある、あるいは危険な誤りを犯すAI健康アルゴリズムです。さて、誰も気づかないうちに偏見のあるアルゴリズムによってあなたの医療ケアが影響を受けることを想像してみてください。Science誌に発表された研究では、Optum社の広く使用されているアメリカの病院アルゴリズムが、黒人患者の病気の重症度を体系的に過小評価し、数百万件のケースに影響を与えていたことが明らかにされました。

Googleの糖尿病性網膜症スクリーニングツールも、実際の臨床環境では苦戦しました。Stat Newsは、照明不良とカメラの品質が原因で、患者に実際の症状があった場合でも高い却下率が発生したと報じています。そして複数の救急分類AIが、緊急ケースのランキングにおける一貫性のなさで問題視されています。医療専門家は、医療AIが失敗した場合、誤差の範囲は便利さの問題ではなく、命の問題だと警告しています。

マイノリティと女性を標的とする差別的アルゴリズム

第12位は、マイノリティと女性を標的とする差別的AIアルゴリズムです。理論上のAIにおける偏見、それは文書化されています。2018年、Reutersは、Amazonが「女性の」という単語を含む履歴書の評価を下げていることを発見した後、社内の採用アルゴリズムを廃棄したことを明らかにしました。それは10年間の男性優位の採用データからパターンを学習していたのです。

MITとスタンフォードの研究者による有名なGender Shades研究でも、商用顔認識システムが暗い肌の女性に対しては最大34%のエラー率を示す一方で、明るい肌の男性に対しては1%未満に留まることが判明しました。ペンシルベニア州やオレゴン州などの社会サービスアルゴリズムでは、マイノリティの家族をリスク評価のために不釣り合いに多くフラグ付けすることが示されました。

AIは単に偏見を反映するだけでなく、それを増幅させるのです。

クリエイティブ作品の盗用とアーティストの代替

第11位は、クリエイティブ作品を盗み、アーティストを代替するAIです。アーティストたちが怒るのには十分な理由がありました。Getty Imagesからの法廷文書により、Stability AIがGettyから1200万枚以上を含む数百万枚の著作権で保護された画像をスクレイピングしていたことが明らかになりました。

一部のAI生成画像には、歪んだGettyの透かしさえ表示されており、それが訴訟の証拠となりました。イラストレーターたちは、AIが彼らの正確なアートスタイルを再現し、時には彼らの署名を模倣していることを発見しました。NPRはまた、声優たちが過去の仕事から声をクローン化され、許可なく再利用されていることを発見したと報じました。

そして2023年と2024年のハリウッドストライキ中、脚本家と俳優の両方が、AIレプリカの無断使用に対する法的保護を要求しました。問題は技術への恐怖ではありません。同意と所有権の問題なのです。

ところで、もしあなたがクリエイター側に興味があるなら、Overseer OSという新しいAIがあります。これは基本的にクリエイター向けのオペレーティングシステムです。どんなYouTubeチャンネルでも分解して、舞台裏で実際に何が機能しているかを示すことができます。もし興味があれば、説明欄に無料リンクがあります。

AI生成マルウェアと自己進化するサイバー攻撃

第10位は、AI生成マルウェアと自己進化するサイバー攻撃です。サイバーセキュリティ専門家は、AIがマルウェアをより賢く、捕捉しにくくできることを証明しています。

IBMのDeep Lockerプロジェクトは、AIが正規のソフトウェア内に悪意のあるコードを隠し、特定のターゲットを認識した時のみ起動できることを実証しました。NCC Groupの研究者たちもまた、AIツールがフィッシングキャンペーンを自動化し、説得力のある詐欺メールを生成し、脆弱性の発見を加速できることを示しました。2024年までに、FBIはサイバー犯罪者がAIを使ってランサムウェア作戦を拡大していることについて公的警告を発表しました。

そしてセキュリティアナリストたちは、参入障壁が下がり続けていることを強調し続けています。高度なスキルを持たない人でも、かつては専門家レベルのコーディングを必要とした攻撃を今では開始できるのです。

AI心理プロファイリングと行動操作

第9位は、AI心理プロファイリングと行動操作です。AIとロボティクスの世界では、ロボットが人間の知識なしに人間を制御または操作できるほど強力になっています。

そしてこれは、ほぼすべての人に影響を与える静かなものです。Cambridge Analyticaスキャンダルの後、ケンブリッジ大学の研究は、アルゴリズムがあなたの友人よりもあなたの性格特性を正確に予測できることを示しました。わずか150個のFacebookいいね!で可能なのです。TikTokのレコメンデーションシステムは、感情パターンをどれだけ早く学習するかについて研究されています。

Metaの流出した内部文書は、エンゲージメントアルゴリズムが、たとえそれがユーザーの幸福に悪影響を及ぼしても、ユーザーをプラットフォーム上に留めるものを優先していたことを明らかにしました。そしてMozillaのYouTubeに関する研究では、そのレコメンデーションシステムが、視聴者をより長く見続けさせる場合、より極端なコンテンツへと視聴者を押しやることが多いことが判明しました。AIがあなたの行動を理解すると、あなたが気づかないほど静かに、それを形作ることもできるのです。

スマートデバイスを通じて常時リスニングするAI

第8位は、スマートデバイスを通じて常時リスニングするAIです。あなたの机の上に置かれている、してはいけない時に聞いているかもしれないものについて話しましょう。スマートスピーカーは、誰もウェイクワードを言っていないのにプライベートな会話を録音していたことが発覚しています。Seattle Timesが報じた一件では、Amazon Echoが誤ってカップルのプライベートな会話を録音し、その音声ファイルを夫の同僚の一人に送信してしまいました。

GoogleとAppleもまた、精度向上のために音声アシスタントからのクリップを人間の契約者がレビューしていたことを認めました。ユーザーが自分の録音が聞かれていることを知らなかった場合でもです。そしてSamsungのスマートTVポリシーは、会話が第三者に送信される可能性があると述べたことでバイラルになりました。だから人々はこれらのマイクを信用しないのです。

顔認識監視と誤った識別

第7位は、顔認識監視と誤った識別です。顔認識は世界中で最も物議を醸す技術の一つになっています。サンフランシスコ、ボストン、ポートランドを含む複数のアメリカの都市が、誤認逮捕と精度の問題の後、政府による使用を禁止しています。ジョージタウン大学プライバシー・技術センターの研究では、顔認識が一般のアメリカ人に対して彼らの知識なしに使用されており、しばしばDMVデータベースから引き出されていることが判明しました。

そしてイギリスでは、2019年のロンドンのライブ顔認識テストの独立レビューで、マッチの81%が誤りであることが判明しました。それを、数十億枚のスクレイピングされた画像を使用してClearview AIのような企業によって作成された巨大なデータベースと組み合わせると、人々が決して同意したと感じていない監視システムが得られます。

政府システムにおける実害を引き起こすAI誤判断

第6位は、政府システムにおいて実害を引き起こすAI誤判断です。政府機関は、社会給付、詐欺検出、リスクスコアリングに影響を与える決定にAIを静かに採用してきました。そしてその結果は常に良いものではありませんでした。ミシガン州では、2013年から2015年の間に、自動化された詐欺検出システムが40,000人以上の人々を失業詐欺で誤って告発し、不当な債務回収と破産につながりました。

イギリスの2020年Aレベル成績評価アルゴリズムは、数千人の学生の点数を引き下げ、低所得地域出身の学生に不釣り合いな打撃を与えました。オランダでは、育児給付アルゴリズムが数千の無実の家族を詐欺師として誤ってラベル付けし、多くを経済的破滅に追い込みました。これらは技術的な不具合ではありません。

これらは政府規模の人生を変える過ちなのです。

同意なきAI訓練のための大規模データスクレイピング

第5位は、同意なきAI訓練のための大規模データスクレイピングです。人々がAIについて不安を感じる最大の理由の一つは単純です。彼らはその一部になることに決して同意していないのです。AI企業は、大規模モデルを訓練するために、公共のインターネットから数十億枚の画像、投稿、個人データをスクレイピングしてきました。

これは2023年と2024年に複数の訴訟を引き起こし、作家、アーティスト、さらにはニュース組織が、許可なく彼らのコンテンツを使用したとしてテック企業を訴えています。OpenAI、Meta、Googleはすべて、AI訓練に公共データを使用することを明確にするためにプライバシーポリシーを更新しました。そしてClearview AIは、ユーザーの同意なしにソーシャルメディアサイトをスクレイピングすることで、30億枚以上の写真のデータベースを構築しました。

人々は、法的戦いがそれを暴露するまで、自分がこれらのデータセットに含まれていることを知りませんでした。

妨害工作と性的搾取に使用されるAIディープフェイク

第4位は、妨害工作と性的搾取に使用されるAIディープフェイクです。ディープフェイクはかつてニッチなインターネット実験でしたが、今では最も恐れられるAIツールの一つです。BBCは、ディープフェイクの露骨なコンテンツがオンラインのすべてのディープフェイクの大部分を占めており、女性が圧倒的に標的にされていると報じました。

韓国では、警察が学生の顔が露骨なビデオに編集され、メッセージングアプリ全体に拡散された事件に対処しました。政治家も攻撃を受けています。ウクライナのゼレンスキー大統領が兵士に降伏するよう告げるディープフェイクが、ロシア・ウクライナ戦争の初期にバイラルになりました。そしてインドでは、AI生成の政治的ディープフェイクが投票のわずか数週間前に流通しました。

AIがあなたの顔、声、感情を偽造できる時、信頼は直接的な打撃を受けます。

詐欺となりすましに使用される完璧なAIクローニング

第3位は、詐欺となりすましに使用される完璧なAIクローニングです。音声クローニング技術があまりにも早く優れたものになったため、法執行機関は人々に警告しなければなりませんでした。連邦取引委員会は、犯罪者がAIを使って愛する人の声をクローン化した詐欺事件の急増を報告しました。

広く報道された一件では、娘が身代金目的で拘束されていると聞いたと思った母親が関与していました。彼女は後に、その声がAI生成されたものだったことを知りました。セキュリティ研究者はまた、わずか数秒の音声を使用して声を複製できることを示しました。そして2023年、ViceのMotherboardは、AIクローンを使用して銀行の音声認証をバイパスすることがいかに簡単かを実証しました。

あなたの声のわずか数秒が武器化される可能性がある時、それは大きな問題です。

人間なしで殺害決定を下す自律型AI兵器

第2位は、人間なしで殺害決定を下す自律型AI兵器です。これはAIがデジタルであることをやめ、物理的になる地点です。2021年、国連報告書は、トルコ製のKargu-2ドローンがリビアでの紛争中に自律的に行動し、直接的な人間の制御なしに攻撃した可能性があると述べました。

アメリカ、中国、ロシア、イスラエル、韓国を含むいくつかの国々は、ドローンと地上ロボット用のAI駆動ターゲティングシステムを開発しています。韓国のSGR-A1セントリーシステムはすでに非武装地帯でAI支援検出を使用しており、研究者は、自律的ターゲティングが十分に信頼できるようになれば、支援と完全自律の境界線が曖昧になると警告しています。

これが国連が世界的な規制を求め続けている理由の一つです。

AI生成児童搾取画像

第1位は、AI生成児童搾取画像です。そして最後に、これはAIの最も暗く、最も普遍的に非難される使用法です。合成児童性的虐待素材が急増しており、イギリスのInternet Watch Foundationによると、2023年と2024年にわたってAI生成CSAMが劇的に増加したと報告されています。

これらの画像は実際の子どもを含んでいませんが、多くの国では依然として違法です。なぜなら、それらは捕食者を可能にし、搾取を正常化するからです。日本では、警察がAI児童虐待画像を生成したとして複数の個人を逮捕しました。ヨーロッパとアメリカの規制当局は、組み込みフィルターにもかかわらず、有害な未成年コンテンツを作成するために操作される可能性のあるモデルについて警鐘を鳴らしています。

これは仮定のシナリオではありません。これは活発な世界的安全危機なのです。

もしここまで見てくれたなら、下のコメント欄であなたの考えを教えてください。そしてもしYouTubeで何が機能しているかをクリエイターが実際に理解するのに役立つツールに興味があるなら、Overseer OSのリンクを説明欄でチェックしてください。より興味深いトピックについては、今画面に表示されている推奨動画を必ず見てください。ご視聴ありがとうございました。

コメント

タイトルとURLをコピーしました