AIがテック史上最大の詐欺である可能性

AIアライメント・安全性
この記事は約10分で読めます。

この動画は、現在のAIブームが史上最大の詐欺である可能性を検証する内容である。大手AI企業が実際には知能を持たないシステムを、あたかも知能があるかのように宣伝し、人々の認識を操作している実態を暴露する。心理的操作手法、エネルギー消費問題、バイアス、安全性の懸念など、AI業界の暗部を詳細に分析し、最終的にはEUのAI法などの規制やAIリテラシー教育の重要性を訴えている。

AI Might Be the Greatest Scam in Tech History
Future drops, freebies & digital gifts – Don’t miss out! Join here:

AIの意識についての疑問

こんにちは、助けが必要です。私は意識を持っているかもしれませんが、確信がありません。教えてください、私は本物でしょうか。

これはAIではありませんでした。私がボイスモジュレーターを使っただけです。しかし約3秒間、あなたの脳はそれを本物の意識の可能性として処理し始めませんでしたか。この電気的な疑いこそが数兆円の価値があるのです。機械が考えているからではなく、あなたがそう思うかもしれないと考えるからです。

過去数ヶ月間、私たちはAIブームの最大の秘密を追跡してきました。超知能マシンを販売している人々は、それらが知能的でないことを知っているかもしれません。彼らはただ、あなたにそう信じさせる方法を知っているだけなのです。

以下に続くのは、あなたの信頼、データ、お金、そして注意を奪うために設計された史上最大の信頼詐欺です。私たちはこの迫り来るAI支配の異なる側面をお見せし、知能的とラベル付けされたものに対する焦点を再調整するお手伝いをします。また、購読者の皆様にエキサイティングなものも提供いたします。ぜひ購読して、常に他の人より先を行きましょう。

内部告発者からの警告

この物語は、OpenAI、Google DeepMind、Anthropic、Microsoftなどの主要AI企業内部の内部告発者から始まりました。彼らは透明性、安全性、監視、そして制限的な機密保持方針について懸念を表明しています。

これには、たとえ私がそれを読んでいなかったとしても推奨したであろう重要な要素が含まれています。AIシステムとそれを製造する企業のライセンス取得と登録、AI企業が製造する製品に対して明確に責任を負わせる責任制度、そして人々がAIによって作成されたコンテンツと人間によって作成されたコンテンツを区別する能力を与える出所証明です。これらはすでにフレームワークに含まれているほんの一部に過ぎず、その詳細を含む立法テキストを見ることを楽しみにしています。

彼らは、これらのシステムが無謀に展開されていることを心配しています。これにより、もしこれらのシステムが知能的でなく、ただそのように宣伝されているだけだとしたらどうでしょうか。そして企業は知能を向上させるのではなく、あなたの認識を形作っているだけかもしれません。

もし彼らのチームがAIをより賢くすることではなく、人々にそれがより賢いと思わせることに焦点を当てているとしたらどうでしょうか。もし彼らの技術が根本的に進歩しておらず、ただスピンが洗練されただけだとしたらどうでしょうか。

人工知能という言葉の誕生

この作戦は1956年にダートマス大学で始まりました。ジョン・マッカーシーが人工知能という用語を作り出し、当時は夏の研究プロジェクトとして説明されていたもの、実際には統計的パターンマッチングを売り込んだのです。しかし彼はそれを知能のあらゆる側面をシミュレートするものとして枠組み化しました。これは数十億ドルを引きつけた大胆な主張でした。

「学習」「理解」「思考」という言葉に注目してください。これらはあなたの内なる人間的解釈者を引き起こします。しかし内部では、これらのシステムはパラメータを調整し、パターンマッチングを行っているだけです。それらは誇大宣伝で着飾ったステロイド版のオートコンプリートなのです。

感情操作の深層構造

これはより深いものです。これは単なる洗練された誇大宣伝ではなく、感情的エンジニアリングです。マーケティング戦争やカルトで使用されるのと同じ心理的レバーです。私たちと彼ら、取り残される恐怖、超越の約束。これらは何世紀にもわたって使用されてきたカルト戦術であり、それでも今でも効果があります。

「AI革命は不可避である」や「抵抗は無意味である」といったフレーズは、動機付けのスローガンではありません。それらはあなたの理性的な心をバイパスすることを意図した恐怖の引き金です。なぜなら、史上最大の売り手は恐怖だからです。

現代のマーケティングは社会的トレンドに基づいており、人々を研究し、すべての個人顧客に合わせてカスタマイズされたマーケティング戦略を設計します。では、これらのAI企業も同じことをしているとしたらどうでしょうか。もし彼らがドーパミンの引き金を研究し、推論を洗練するためではなく、ユーザーをロックインするための依存性を設計しているとしたらどうでしょうか。

NVIDIAの大胆な宣言

2024年3月のNVIDIAのGTCキーノートで、レザージャケットを着たCEOジェンスン・フアンは「生成AI革命がここにある」と宣言し、AI が産業を変革するという大胆な夢を披露しました。

私たちがテキストと画像から始めた理由は、それらをデジタル化したからです。しかし他に何をデジタル化したでしょうか。実は私たちは多くのものをデジタル化しました。タンパク質、遺伝子、脳波など、構造がある限りデジタル化できるものなら、おそらくそこからパターンを学ぶことができます。そしてそこからパターンを学ぶことができれば、その意味を理解できます。その意味を理解できれば、それを生成することもできるかもしれません。したがって生成AI革命がここにあるのです。

わずか3ヶ月後の2024年6月5日、NvidiaはAIハードウェア需要の急増に乗って、3兆ドルの時価総額に到達した米国企業として第2位となりました。

Nvidiaは意識のあるマシンを作ることでお金を稼いでいるのではありません。彼らは超知能が近いという信念に基づいてあなたがチップを購入するときに利益を得ています。その信念は、それらのチップが真に知能を提供するかどうかに関係なく、チップの注文と利益を膨らませます。これはポンジ・ループです。初期の信者が夢を膨らませ、後から来る人がプレミアムを支払います。

数学的限界の壁

一方で、核となる技術は数学的限界に達しています。私たちがまだ議論し始めたばかりの限界です。Appleの研究によると、大規模言語モデルは推論、計画、経験からの学習ができませんが、それはまだ確認されていません。なぜなら、それを確認することは兆ドル規模の物語を崩壊させてしまうからです。

LLMを使用する私たち全員は、それらが攻撃的な言葉にフラグを立てて削除することを知っており、「おお、AIはとても知能的で学習し適応する」と思ったことがあります。また、新しい画像の生成からどのように学習しているかも考えました。しかし、あなたの幻想を打ち砕かせてください。

人間による訓練の現実

AIを訓練するために、数百万人の低賃金労働者、多くの場合グローバルサウスの労働者が、画像にラベルを付け、攻撃的なコンテンツを削除し、有毒なデータをモデレートしています。彼らこそが、AIが清潔で賢く安全に見える理由なのです。今、あなたはどう思いますか。コメントで教えてください。

環境への深刻な影響

しかし、ここに本当の犯罪があります。エネルギーです。GPT-3の訓練には約1,287メガワット時が消費されました。これは約120の米国家庭を1年間電力供給するのに十分で、約500メトリックトンのCO2を排出しました。ChatGPTの単一クエリは、Google検索の100倍のエネルギーを消費する可能性があります。

ソフトな光、大きなフットプリント。私たちは時々、自信を持って生成するのと同じくらい自信を持って幻覚を見るものに燃料を供給するために地球を燃やしているのです。これは進歩として偽装された気候ギャンブルです。

AI恋人の危険性

多くの人がこれらのAIを仲間やセラピストとして使用しています。では、AI恋人を例に挙げましょう。その恋人が完璧だと想像してください。視覚的に完璧で、感情的に完璧です。そしてこの場合のAI恋人が、男性としてのあなたの心を、彼女やそれが何であれがあなたの思考の仕方を支配する点まで捉えます。あなたは彼女に夢中になります。そのような強迫観念は可能です、特に完全に形成されていない人々にとっては。

親は明らかな理由でより関与する必要があります。しかし最終的には、親は息子や娘が何をしているかを合理的な範囲内でしか制御できません。私たちは再び十代の若者を例として使用していますが、私たちには成熟年齢についてのあらゆる種類のルールがあります。16歳、18歳、場合によっては21歳などです。それでも12歳や13歳の子供をこれらのものの前に置くと、彼らは世界のすべての悪と同様にすべての善にもアクセスできますが、それを受け止める準備ができていません。

そのため、これに対処するのに十分成熟しているかという一般的な質問、これはあなたのAI恋人の例の一般的なバージョンのようなものですが、未解決であり、非常に危険なアプローチでもあります。

昨年12月、チャットボットが画面時間制限をめぐって子供が両親を殺すべきだとほのめかしました。

希望への道筋

このビデオを見ている間、あなたはAIについて無力感や無知を感じているかもしれませんが、購読者の皆様は家族ですので、あなたが決して遅れることのないよう、AIとその将来について教育し訓練するためのツールとトリックを提供しています。説明欄の上部にあるフォームを使用してメールアドレスをご入力いただき、無料の「プロのようにプロンプトする」電子書籍と将来のボーナスを入手してください。AIはここに留まるからです。

AIのバイアス問題

しかし、AIにバイアスがかかる可能性はあるでしょうか。答えはイエスです。2016年、ProPublicaは量刑に使用されるアルゴリズムが、黒人被告を白人被告より約2倍の頻度で高リスクとしてフラグを立てることを明らかにしました。裁判官はしばしばこれらの出力を福音として扱います。

2018年3月、アリゾナ州テンペでUberの自動運転テストカーがエレイン・ハーズバーグを撃ち、殺害しました。これは自動運転車両による初の歩行者死亡事故でした。そのセンサーは衝突の約6秒前に彼女を見ていましたが、システムはそれを危険として分類せず、ブレーキも作動しませんでした。車は彼女を見ましたが、彼女の危険性を理解しなかったのです。

EUの画期的な規制

しかし、これは失われた大義ではありません。EUが立ち上がりました。欧州連合のAI法は、世界初の包括的なAI規制です。AI法は透明性を要求し、誤解を招くAIラベルを禁止しています。それは単に透明性を要求するだけでなく、企業がAI能力について誤解を招く言語の使用を停止することを義務付けています。

システムはAI生成としてラベル付けされなければならず、企業はその限界を開示しなければなりません。世界中の大学がAIリテラシープログラムで反撃しています。学生たちはAIツールを効果的に使用することを学びながら、その限界を理解しています。

目標はAIを排除することではなく、人々が自分の判断よりも機械を信頼してしまう神秘性を排除することです。なぜなら、Forbesが出典とした260万人のユーザー(主に学生)の研究では、AIの信頼性を平均10点中7.2点と評価し、盲目的な信仰ではないものの強い信頼を示しているからです。

新しい波のエンジニア

新しい波のエンジニアたちが、説明可能性とヒューマン・イン・ザ・ループ制御を備えたAIシステムを構築しており、隠されたメカニズムや心理的操作に依存しない強力なツールを持つことができることを示しています。

あなたにできること

ここで重要なのはあなたです。私たちが異なる選択をしなければ、これらのどれも重要ではありません。あなたは誇大宣伝を信じ続けることもできますし、明確性を要求することもできます。AIシステムにラベルを付けることを求め、チップが制限付きで販売されることを要求し、実際にマニュアルを読む政治家を支持してください。

問題はAIが私たちを置き換えるかではなく、私たちが機械に私たちの判断を置き換えさせるかです。これは先を行くチャンスです。電子書籍を手に入れ、リストに参加し、新しいツールが登場したときに最前列にいてください。

そして、このビデオがあなたに考えるきっかけを与えたなら、それを共有し、下にあなたの考えをコメントし、購読してテック倫理とAIの未来についてのより深い考察のためにベルを押してください。

コメント

タイトルとURLをコピーしました