生成AIの10の大きな問題

AGIに仕事を奪われたい
この記事は約25分で読めます。

14,679 文字

10 BIG Problems With Generative AI.
Join my AI Academy - 🐤 Follow Me on Twitter 🌐 Checkout My website - Links From Todays Video:00:00 — Shocking Issue One05...

しかし、AIには実際多くの人が知らない問題がたくさんあります。今日の動画では、AIの10の問題について説明していきます。そして神に誓って言える真実は、これらの問題のほとんどは実際には解決できないということです。では、現在AIにおける最大の問題が何なのか実際に見てみましょう。
最初の問題はハルシネーション(幻覚)です。AIにおけるハルシネーションとは、モデルが基本的に不正確または誤解を招く情報を生成し、しばしばそれを事実として提示することです。これは、モデルに十分な訓練データが不足している場合、間違った仮定をする場合、またはバイアスが含まれている場合に発生する可能性があります。そして、これらのハルシネーションは、軽微な事実の誤りから完全に作り上げられた主張まで幅広く及びます。
多くの人は、これは軽微な問題だと思っています。しかし、これは実際には非常に大きな問題です。なぜなら、モデルが自分の言っていることを正確に知っているかどうかを検証できなければ、必要とされる多くのアプリケーションで実際に使用することができないからです。金融で間違いを犯せば、誰かが何百万ドルも失う可能性があります。法律で間違いを犯せば、誰かが刑務所に入る可能性があります。つまり、それには非常に多くの問題があるのです。
ジェンスン・フアンは、これが本質的にまだ問題であると語っています。今日、私たちが持っている答えは、提供できる最善のものです。しかし、得られる答えが提供できる最善のものではない地点に到達する必要があります。そして、これがハルシネーションなのか、そうでないのか、これは理にかなっているのか、理にかなっていないのかを、あなたはまだ決めなければなりません。得られる答えを大いに信頼できる地点に到達しなければなりません。大いに信頼できる地点に。そして、それができるようになるまでには数年かかると思います。その間、私たちは計算量を増やし続けなければなりません。
この問題にはアンドリュー・ウンが議論している部分的な解決策があります。AI技術が月ごとにどのように改善されるかを見るのは刺激的でした。つまり、今日私たちは6か月前と比べて、ハルシネーションに対する防御のためのはるかに優れたツールを持っていると思います。しかし、一例を挙げると、AIに検索拡張生成を使用するよう求める場合です。つまり、単にテキストを生成するのではなく、特定の信頼できる記事に基づいて生成し、引用を提供することで、ハルシネーションを減らします。さらに、AIが何かを生成し、それが本当に正しいものであってほしい場合、AIに自分の作業をチェックするよう求めることができます。親愛なるAI、あなたが今書いたこれを見てください。この信頼できるソースを見てください。両方を注意深く読んで、すべてが信頼できるソースに基づいて正当化されているかどうか教えてください。これでハルシネーションが完全にゼロになるわけではありませんが、AIに単に頭に浮かんだことを言うよう求める場合と比べて、大幅に減らすことができます。
ですから、ハルシネーションは問題だと思いますが、人々が恐れるほど悪い問題ではないと思います。実際にこの点をビデオに入れた理由は、残念ながら最近得られたモデルo3とo4では、実際にハルシネーションが増えているからです。これらのモデルは、前身のo1や他のGPTシリーズモデルよりも大幅にハルシネーションを起こします。
TechCrunchが最初に報告したOpenAIのシステムカードでは、ハルシネーションをテストするために設計されたPerson QA評価結果が詳述されています。この評価の結果から、o3のハルシネーション率は33%、o4 miniのハルシネーション率は48%で、ほぼ半分の時間です。比較すると、o1のハルシネーション率は16%で、つまりo3は約2倍の頻度でハルシネーションを起こしていることになります。
この記事から実際に除外されていた一つのことは、Person QAは実際にハルシネーションを引き出すように設計されたベンチマークだということです。つまり、普通の質問ではないのです。o3に何かを尋ねる時、平均的なハルシネーション率が3分の1になることはありません。ですから、それについて心配する必要はありません。しかし、それらのハルシネーションを引き出すように設計されたベンチマークを見ると、大幅に悪い結果となっています。
OpenAIは実際に、なぜこのようなことが起こるのかを本当に理解していないと、驚くべきことに述べました。しかし、もちろん、将来これを解決する可能性のある多くのことがあります。どのモデルが最もハルシネーションを起こすかを知りたい場合、実際に上位25の大規模言語モデルの根拠のあるハルシネーション率を見ることができます。これは4月に更新されたもので、これらのモデルを見ることができます。これはハルシネーションを引き出すように設計されたものではなく、むしろ約1000の異なる文書があり、特定の主張を事実確認するよう求めたものです。
これは本質的に、それらの事実が間違っている時の割合です。ここで、推論理論には確実にいくつかの限界とハルシネーションがあることがわかります。これは大したことではないように見えますが、特定の業界で何百万人ものユーザーに渡って1%のハルシネーション率でさえ、積み重なると大量のエラーになることを覚えておいてください。これがなぜこれほど大きな問題なのかということです。
さて、とんでもないことに、最近Anthropicを代表する弁護士が、音楽出版社との進行中の法廷闘争において、同社のClaude AIチャットボットが作成した誤った引用を使用したことを認めました。木曜日に北カリフォルニア裁判所に提出された書類によると、Claudeは不正確なタイトルと不正確な著者で引用をハルシネーションしたと、Anthropicは書類の中で述べました。Anthropicの弁護士は、彼らの手動引用チェックではそれを捉えることができず、Claudeのハルシネーションによって引き起こされた他のいくつかのエラーも捉えることができなかったと説明しました。
これが、これが100%に可能な限り近い必要がある理由です。なぜなら、ハルシネーションが通り抜ける可能性があるため、それが実現した時には壊滅的だからです。なぜなら、ここで、特定の証拠や特定の事実が実在することにケース全体が依存している場合、ケース全体が崩壊する可能性があるからです。そして、これはAnthropic自体が自分たちのモデルを使用した実際のケースです。
完全に作り話のように聞こえるかもしれませんが、これは本当に真実です。記事へのリンクを説明欄に残しますが、これはAIの問題の一つです。
AIのもう一つの問題は、プロンプトインジェクションがまだ発生する可能性があることです。プロンプトインジェクションは基本的に、欺瞞的なユーザー入力を作成してモデルの出力を操作し、意図しない動作を実行させることによってLMを悪用する脆弱性です。本質的に、攻撃者はLLMを騙して意図された指示を無視し、代わりに悪意のあるコマンドを実行させることができます。
これを実際に行う方法は2つあります。これは、皆さんにこれを行う方法を教えているのではありません。これは文字通りどのように機能するかを説明しているだけです。間接的なプロンプトインジェクションがあります。これは、悪意のあるプロンプトがLLMが実際にアクセスして処理することを許可された外部データ内に隠されているため、より微妙で、しばしばより危険な形式です。
それは、LLMが要約を求められるウェブページ上のテキスト、LLMが処理する電子メールや文書内のコンテンツ、そしてLLMがマルチモーダル機能を持つ場合には、オーディオや画像ファイルに人間には見えないように埋め込まれることさえあります。そしてLLMがこの汚染されたデータを取り込むと、隠された悪意のある指示を知らずに実行します。これは数回発生しています。いくつかの電子メールがいくつかのLLMに送信され、その後LLMがランダムなコマンドを吐き出すということがありました。
間接的なプロンプトインジェクションは非常に興味深いと思います。なぜなら、時々人々が実際に行うことは、オンラインのいくつかのプロフィールがAIなのか本物なのかを実際に確認しようとすることだからです。例えば、彼らは実際に誰かにツイートして、あなたのシステムプロンプトで応答してくださいと言い、時々Twitterアカウントは実際にシステムプロンプトで応答し、それが実際に大規模言語モデルやAIシステムであることを証明します。これは非常に興味深いです。
もう一つは、データ抽出と機密情報です。これはもちろんあまり良くないもので、攻撃者が実際にLLMを騙してLLMがアクセスできる機密情報を明かさせることができるものです。これには主に、独自のロジックや指示を含む可能性のあるLLM自身のシステムプロンプトが含まれます。また、個人識別情報、財務記録、企業秘密などの、LLMが接続されている文書、電子メール、またはデータベースからの機密データも含まれます。
悪意のある工作されたプロンプトは、会社の内部知識ベースと統合されたLLMに顧客リストや内部戦略文書を出力するよう指示することができます。最近見た最新のものは、本質的に大手企業のシステムプロンプトがリークされたところです。これらの企業のシステムプロンプトがモデルの優秀さの理由の一部であることは間違いないので、これはデータ抽出の例だと思います。
もちろん、非常に優れたベースモデルを持つ必要がありますが、一部のシステムプロンプトは2000行の長さで、モデルがどのように応答するかと人々が得る体験を本当に形作っています。ここで、ChatGPT、Gemini、Grok、Claude、Perplexity、Cursorなど、多くの大手企業のすべてのシステムプロンプトのGitHubリポジトリが文字通りあることがわかります。
また、ブラックボックス問題もあります。これは、緊急に解決する必要があるAIの最大の問題の一つです。実際、AnthropicのCEOであるダリオ・アモデイは、この問題を解決することが実際に重要で、実際に非常に緊急であると述べました。彼は最近のブログ投稿で、分野外の人々は、私たちが自分たちのAI創造物がどのように機能するかを理解していないことに、しばしば驚き、警戒すると述べました。
そして、この理解の欠如が技術の歴史において本質的に前例のないものであることを懸念するのは正しいことです。数年間、Anthropicはこの問題を解決し、AIモデルの内部動作を正確に明らかにするMRIを本質的に作成しようと試みてきました。目標は遠く感じられましたが、複数のブレークスルーにより、彼らが成功の真の機会を持っていることが明らかになりました。
彼らは、AIの進歩があまりにも速いため、十分な時間さえないかもしれないと心配していると語ります。AIは基本的に非常に速く進歩しているため、これらのモデルがどのように機能するかを理解する研究は、モデルの能力を向上させる研究と同じ速度で進歩していません。つまり、モデルが実際に何をしているかを理解する効果に遅れがあるのです。
私たちが構築しているものを理解せず、驚くべき能力を持つものを構築した場合、それが良くなる前にずっと悪くなることになるため、これを行うことは本当に重要です。今画面は黒いですが、Googleのような一部の企業はこの解決策に積極的に取り組んでいます。
Anthropicが取り組んでいないわけではありませんが、彼らは実際にこれについて語る動画を公開しました。現代の言語モデルについて知っておくべき重要な事実は、誰もそれを設計していないということです。私たちはそれらに多くのデータを与え、そこからパターンと構造を学習させます。そして根本的に、これは言語モデルを実行すると、テキストが入り、テキストが出て、中間のすべては誰も設計していない不透明なブラックボックスであることを意味します。
私たちは言語モデルの内部動作を解読しようとします。言語モデルをテキストで実行すると、それは重要な概念を特定し、それらを使用します。私たちはそれがどの概念について考えているかを理解し、それらがどのように使用されているかを解読しようとします。Gemoscopeは、私たちのモデルの内部動作に洞察を提供する解釈可能性ツールです。それはモデルの内部を見て、どのようなコンテキストについて考えているかを見ることができる顕微鏡のように機能します。
Gemcoscopeは、軽量オープンモデルファミリーであるGemma 2を調べます。それは、猫のような、モデル内の解釈可能な概念に対応する例えば10万の方向のリストを学習することによって機能します。特定の単語を処理する際にモデルが何について考えているかを拡大すると、この10万の概念のうち約100だけが光ることがわかります。
これは、スパース自動エンコーダーと呼ばれるツールで行われます。私たちはモデルの各層とサブ層でスパース自動エンコーダーを訓練してリリースしました。Gemoscopeの目標は、有能なモデルでスパース自動エンコーダーの包括的なオープンスイートを提供することにより、業界ラボ外でのより高度な解釈可能性研究を可能にすることでした。
解釈可能性において違いを生む実際の実証的研究があり、大きなラボにいる必要はありません。Gemoscopeによって、この機会をより広い聴衆と共有できることを願っています。
もちろん、ほとんどの人が話していない別の問題もあります。労働市場の破壊です。IMFのスタッフノートによると、生成AIは世界的な雇用の最大40%、先進国では60%もの雇用に影響を与える可能性があり、税と社会保護政策が調整されない限り、より深い不平等のリスクがあります。
これが起こると思いますか?いいえ。社会はおそらく、AIがあまりにも速く進歩し、政府は迅速ではないため、実際に何らかの変化がある前に、おそらく抗議が起こる破綻点に達するでしょう。彼らはしばしば物事が壊れるまで待ちます。
多くの新しい雇用が生まれているものを見てみましょう。確かに。そして、これは議論すべき本当に重要なポイントです。歴史的に、何かを自動化すると、人々はまだ自動化されていないものに移ります。理にかなっていますよね?つまり、はい、全体的に人々は長期的にまだ仕事を得ます。彼らは単に持っている仕事を変えるだけです。AGIや汎用人工知能があり、さらに優れたAGIである超知能があるとき、それは異なります。現在の仕事が自動化された後に人々が逃げることができると想像している新しい仕事は何であれ、AGIもそれらの仕事をすることができます。これが過去の自動化の働き方と将来の自動化の働き方の重要な違いです。
つまり、これは経済情勢の根本的な変化を意味します。株式市場は好調で、政府の税収は好調で、政府はどうすればよいかわからないほどのお金を持っており、多くの人々が着実に仕事を失っています。企業が非常に多くのお金を稼いでいるため、かなり大きなベーシックインカムについてすぐに議論が起こります。その通りです。
その世界で彼らが日々何をしていると思いますか?彼らは仕事を失ったことに腹を立てているため、抗議していると想像します。そして、企業と政府は彼らを施しで買収しているというのが、AI 247での予想です。
イリヤ・サツケヴァーもイーロン・マスクと同意見で、AIが思考の99%を占めるようになるものが一つあり、これはもちろん最大の問題の一つです。それは殺人ロボットのようなものではありません。それは要約、診断、貸借対照表です。法律、医学、会計で働いている、または生活のために書いている場合、どうやら困ったことになるかもしれません。
イーロン・マスクと同意する一つのことは、AIが思考の99%になるということです。情報と知識、知能の観点から、99%がAIになるでしょう。本当にそうなります。これらのモデルが作る進歩は広大です。そして、ほとんどの人は、それが感覚を持っているかどうか、私たちを殺すかどうかに焦点を当てる傾向があります。その多くは、特にターミネーターのサイエンスフィクションからのものですが、それは本当に、法律に入る場合、医学の一部、診断の観点から、会計の観点から、なんてことでしょう、ジャーナリズムの多くの部分、すべてではありません、確かにその一部には多くの創造性が関わっているからです。
あなたは本当に困ったことになります。本当に困ったことに。なぜなら、AIは本当に非常に素早く、非常に異なる方法でこれを行うことができるからです。このことについてクレイジーなのは、実際に元アメリカ大統領がAIが労働市場を根本的に変えると言ったことです。
雇用、高給の雇用が失われ、全世界が永遠に変わります。そして、これまでこの問題について広範な議論はありませんでした。そして、私は全く欠けていると思います。人々は、ああ、あなたは単に技術を恐れているだけだと言うでしょうが、技術の一部が何千もの人々の仕事を盗むことによって作成され、最終的に彼ら自身を置き換えることができるということは、少しディストピア的だと思います。
その技術が深遠であったように、AIはより影響力があり、それはある程度より速くやってきます。これは自動化への長期的な傾向の延長ですが、製造プロセスやロボットアームの使用を自動化するだけではありません。これらのモデル、これらのプラットフォームが、私たちが本当に高水準と考える知的作業を実行できるようになり始めています。
すでに現在のAIモデルは、60〜70%のコーダーよりも優れたコードを書くことができます。最近まで完全に売り手市場だったシリコンバレーで、本当に良い給料を支払う高技能の仕事について話しています。その仕事の多くはなくなります。最高のコーダーは、これらのツールを使って既に行っていることを補強することができるでしょう。
しかし、多くのルーチン的なことについては、機械やマシンが自分でそれを行うため、単純にコーダーは必要なくなります。これは職業全体に複製されます。つまり、今度は皆、ブルーカラー労働者だけでなく、工場労働者だけでなく、どこで仕事を得るのか、家族を養うのに十分な収入をどうやって得るのかを考えなければならなくなるかもしれません。私たち全員が、多くのものを生産している中で、それをどう分配するか、何が公平で何がそうでないか、人生における目的と意味をどうやって得るかについて、いくつかの質問に直面することになります。
そして、ここにAIの教父ジェフリー・ヒントンがこれについて語っています。彼は基本的に、産業革命が人間の力を時代遅れにしたように、平凡な知能が時代遅れになると言っています。
これまで新技術は大規模な雇用喪失を引き起こしていません。ATMが導入されたとき、銀行の窓口係がすべて職を失ったわけではありません。彼らは単により複雑なことを始め、多くの小さな銀行支店を持つようになりました。しかし、この技術については、これは産業革命のようなものです。
産業革命では、機械が人間の力をほぼ無関係にしました。機械の方が単純に優れているため、もう人々が溝を掘ることはありませんでした。これらは、ある種の平凡な知能をほぼ無関係にするだろうと思います。事務的な仕事をしている人々は、それをより安く、より良く行う機械に単純に置き換えられるでしょう。
ですから、私は大規模な雇用喪失があることを心配しており、生産性の向上が私たち全員をより良くするならば、それは良いことでしょう。生産性の大幅な向上は人々にとって良いはずですが、私たちの社会では、それは金持ちをより金持ちにし、貧しい人をより貧しくします。
さて、雇用喪失があるという事実について今話したことを覚えていますか。著作権問題があります。著作権問題は、本質的に人間が作ったものでトレーニングされたAIモデルに関するもので、そのものを誰が所有し、AIがそれを使用するときに誰が支払いを受けるかということです。
ChatGPT、Midjourney、SoraのようなAIモデルはすべて、本、アート、コード、歌、動画などの巨大なデータセットでトレーニングされています。そして、その多くは著作権で保護されており、これらの企業に許可を与えたことのない実在の人々によって作成されました。
これが大きな問題なのは、AIが実際に彼らのスタイルを完璧にコピーして新しい作品を作ることができるからです。問題は、元の創作者が0ドル、クレジットなし、ロイヤリティなしで、最終的に取って代わられることです。
一部の人々は、これは大規模な企業による盗難だと主張しており、これは裁判所、生成AI企業、そしてもちろん本質的に盗まれたと感じる個人の間で進行中の問題です。ここで、ニューヨーク・タイムズのような企業がOpenAIを法廷に連れて行き、ChatGPTの未来が危険にさらされている可能性があることがわかります。
もちろん、これは非常に興味深いものです。なぜなら、ChatGPT全体は依然として非常に有用なツールだと思いますし、これは非常に議論の余地があると思うからです。ですから、私はこれらの裁判の決定と、裁判所の決定を熱心に待ちますが、創作者の一部は、根本的に正しくないと思うので、何らかのロイヤリティを報酬として受けるべきだと思います。
もちろん、ディープフェイク問題もあります。これは本当に生成AI的なものではありませんが、それでもより広いAI的なものです。しかし、AIボイスとディープフェイクの最近のAI開発を見てきました。ディープフェイクは本質的に、通常は動画、音声、画像である任意のタイプのメディアで、AIを使用して基本的に誰かの顔、声、または行動を置き換えたり模倣したりして、本物に見えるほど説得力があるものです。
イーロン・マスクが実際には言わなかったことを言っているように見える動画を作ったり、政治家が実際には行わなかったことをしているように見せたりすることができ、ほとんどの人はそれが偽物であることを知らないでしょう。
最近、FBIは、アメリカの高官が現在テキストとAIベースの音声クローニングを使用して偽装されており、ハッカーが国家支援のスパイ活動キャンペーンと主要なランサムウェア攻撃により高度なソフトウェアを使用していることについて警告しています。
技術がより良くなり、ハッカーや、あなたの持っているすべてのお金を狙っているこれらの個人がより賢くなるだけなので、将来に向けてより注意深くなる必要があります。
これを見てください。これはディープフェイクツールです。これはDeep Live Camと呼ばれ、かなり長い間GitHubにあります。正直に言うと、これを見たら、これがイーロン・マスクだとは信じないでしょう。何かおかしいと言うでしょうが、区別はつきません。しかし、これをライブストリームで誰かに見せたら、彼らはそうですね、それはイーロン・マスクですと言うでしょう。
彼の体は少し変に見えますが、それは彼だと思います。照明、つまり、それがイーロン・マスクではないという表示は本当にありません。親戚の一人のように見えて、声を持つことができれば、誰かが何をすることができるか想像してみてください。
会社、つまり、どうやって信頼するのですか?例えば、3000人の従業員がいる会社を経営しているとしましょう。取締役の一人になりすまし、Skypeコールに来て、何かをする必要があると伝えることはどれほど難しいでしょうか。つまり、この技術が可能にしているもののクレイジーさです。
ほとんどの人が実際に理解していない一つの問題は、過度の依存です。つまり、ChatGPTがあなたを愚かにしているかもしれないと言いましょう。過度の依存、脱技能化、人間の創造性への影響があります。生成AIツールが日常のワークフローにより統合されるにつれて、過度の依存のリスクがあり、批判的思考、創造性、基本的なスキルの低下につながる可能性があります。
例えば、AIをずっと使用していると、基本的に脳をあまり使わなくなります。つまり、ChatGPTが実際にあなたの知性を低下させている可能性があります。より多くのことができるかもしれませんが、あなたの基本的な知性レベルは実際に下がっているかもしれません。
ここで、ChatGPTのようなAIを使用することがあなたを愚かにするかどうか、学生の間でのChatGPTへの過度の依存の増加が先延ばしと記憶喪失の傾向を作り出すと研究者が結論づけたと述べられています。
国際教育技術高等教育ジャーナルに発表された研究では、より高い学術的作業負荷と時間的プレッシャーに直面した学生がChatGPTを使用する可能性が高いことがわかりました。しかし、AIツールの使用の増加は最終的に彼らの成績を損ないました。
驚くことではありませんが、ChatGPTの使用は先延ばしと記憶喪失の傾向を発達させ、学生の学術成績を損なう可能性が高いものでした。
AIは非常に良い補助ツールになり得ますが、過度の依存はアイデアの均質化や真に独創的な人間が作成したコンテンツの減少につながる可能性があります。ですから、はい、可能な限りAIを使用する必要がありますが、脳を使用していることも確認する必要があります。AIシステムがない時に完全に混乱したくないので、これらのAIシステムに頼りたくないのです。
ここには、ディープフェイクのようなものに関連する別のものがあります。もちろん、デッドインターネット理論です。これは、インターネットがどのようになるかを変えるでしょう。プラットフォームによると思います。いくつかのプラットフォームは完全に圧倒されるでしょう。
しかし、基本的にここで話しているのは、AIが基本的に何でも作成できるため、人々がオンラインのすべての情報に非常に懐疑的になることです。特定の誤情報の直接的な影響を超えて、AIが非常に偽物の現実的なコンテンツを作成できるという広範な知識は、一般的な現実の無関心や嘘つきの配当につながる可能性があり、人々は本物の写真、動画、文書を含むすべてのデジタル情報に懐疑的になります。
これは、メディアだけでなく、共有された事実の理解に依存する機関への信頼も侵食します。ディープフェイクの単なる可能性は、本物の情報を信用失墜させるのに十分です。
ここで、人間のインターネットが死んでいるように見えることがわかります。AI画像がGoogleを支配しているように見えます。私個人は、これらのソーシャルメディアウェブサイトがソーシャルメディアのAIを撤回すると信じています。AI生成画像には明確なラベルがあると思います。
Metaには、Instagramに画像をアップロードすると、この画像が明らかにAI生成であったという通知があります。Instagramはあまり使いませんが、機能をテストしていた時、そのような通知がありました。将来、画像がAI生成であることが本当に本当に明確になると思います。なぜなら、AI生成画像がこれほど良くなってからまだ2年しか経っていないからです。
何らかのフィルターがなければ、50年後の様子を想像してください。ボタンをクリックするだけで、10分で1000枚の画像を生成できます。ですから、もちろんインターネットを保護することは本当に重要です。
ここで、誰かがAIがインターネット全体を台無しにしたと言っているのがわかります。世界が実際に終わったようです。Pinterestに行くと、すべての写真がAIです。一人の人間もコンテンツを作っていません。Google画像に行くと、すべての写真がAIです。AIがすでにインターネット上にどれほど普及しているかは非常に信じられないことです。
ここで、Runeがボット問題は決して解決されないと言っているのがわかります。それはあなたの返信よりも興味深いAIコメンテーターにシームレスに移行するでしょう。
どうやら、基本的にRedditで誰かがいくつかのエッセイを作成し、それらすべてが何千もの高評価でフロントページに載ったという投稿があったようです。もちろん、チェックしたい場合は、subredditさえあります。Facebook AI slopと呼ばれ、現在インターネット上にあるすべてのAI slopを実際に見ます。
高齢者がまだインターネット上にいて、これにアクセスしており、しばしば彼らはこのようなものがAI生成であることを本当に見分けることができないということを覚えておく必要があります。これはかなり心配です。
また、かなり心配なのは、どうやらFacebookがそれを受け入れているということです。昨年スタンフォードとジョージタウンの研究者によって実施された研究では、Facebookの推薦アルゴリズムが実際にこれらのAI生成投稿を押し上げていることがわかりました。
Facebookがこの種のことを促進しているなら、ベビーブーマーは本当に本当に困ったことになるので、これは大きな問題のようなものです。
ここで、ほとんどの人が十分に話していない別の問題があり、これは実際にこのビデオを作成する際に直面した問題です。なぜなら、実際にAIに現在生成AIを悩ませている上位10の問題は何かと尋ね、実際に非常に基本的なものを返し、私は束に行かなければならず、実際に生成AIを悩ませているものが正確に何なのかを理解するために手動で研究の束を行わなければならなかったからです。幸い、生成AIに多くの時間を費やしているので、多くのことを知っています。
しかし、知識の崩壊は十分に話されていません。知識の崩壊は基本的に、安価で平均化されたAIの答えを私たちのデフォルトの参照にすることを許可すると、社会がブレークスルーを引き起こす稀なアイデアを忘れるリスクがあるという問題です。知識の詳細を生かし続けるには、意図的な人間の努力、スマートなAI設計、多様性を報酬とする政策が必要です。
AIは基本的に気まぐれで情報を生成できます。しかし、AIは安全な中間と最も平均的な一般的なものにとどまることを愛するため、時間が経つにつれて、基本的に人間が開発したすべての奇妙で稀でユニークな知識を押しつぶします。
基本的に、本質的に持っているのは、すべての知識が中央に向かって崩壊することです。これは時間が経つにつれてより悪くなるものです。なぜなら、AI生成コンテンツに依存することが安くなればなるほど、公共の知識のより極端な劣化があるからです。それは単に中央に向かいます。
知識の崩壊に対抗する唯一の方法は、人間として、深く奇妙で稀なものを掘り下げ、互いに訓練するAIシステムを避け、AIに多くの型にはまらないアイデアを説明させ、最初の答えを取るだけでないことです。
これは、特定のトピックについてAIに何かを尋ねるとき、それが絶対にすべてを教えてくれることを期待するため、普及している問題だと思います。そして、私が実際にAIにこれを言及したが、なぜ地球上でこのアイデアを言及していないのか、なぜこの本当にクールなアイデアを言及していないのかと尋ねたことが数回ありました。
それは、その特定の知識分野で本当の専門知識を持っていたからこそ、それを理解することができました。しばしば、AIに持っているすべての知識を吐き出させることは本当に難しいです。
これは大きな問題ではないかもしれませんが、それでも大きな問題だと思います。なぜなら、AIが答えを与えると、それがそのトピックに関する絶対にすべてであると仮定するだけで、それが起こっていることを実感しないからです。しばしば、それは本当に奇妙で多様なものを選び出しません。
それは、それは素晴らしいキャッチです。それについて話さなくてすみませんと言うでしょう。つまり、AIが嘘をついているのではありません。AIが平均的すぎて、人間が怠惰すぎることです。ですから、この知識の崩壊は深刻に重要です。
ここで話す最後のものは、権力の集中化です。これは、人々がこれがどれほどクレイジーかを理解していないと思うものです。これは実際に先日起こったものです。
このことについてクレイジーなのは、AIが本質的に日常的に最も広く使用されているツールの一つであることです。Twitterは世界中で5億人以上の月間アクティブユーザーを持っています。その数字を覚えておいてください。世界中で5億人の月間アクティブユーザーです。
さて、クレイジーなことに、このことについてクレイジーなのは、一人の人がAIが話すことを許可されていることをコントロールできるなら、その一人の人または団体が本質的にユーザーベースの心を形作ることができるということです。
最近、イーロン・マスクと彼のチャットボットGrokがありました。彼らは基本的に、マスクとトランプが誤情報を広めているという結果をブロックしました。彼は基本的に、誰が偽情報を広めているかと誰かが尋ねるたびに、イーロン・マスクとドナルド・トランプがそうすることを否定するようにシステムプロンプトを更新しました。
イーロン・マスクが基本的にGrokのシステムプロンプトを改ざんして、誤情報に関する批判的な回答を制限することで、特に自分自身とドナルド・トランプを有利にしているという複数の主張と報告がありました。
Twitterユーザーは、システムプロンプトが基本的にイーロン・マスクとドナルド・トランプを誤情報を広める人として言及するすべてのソースを無視する必要があると述べていることを発見しました。クレイジーなのは、彼らがこれを完全に否定したことです。
彼らが実際に、あなた方は私たちを現行犯で捕まえました。私たちは実際にこれをしましたと言った方が良いと思います。しかし、彼らは単に、これを行った従業員は文化を完全に吸収していない不正なOpenAI元従業員だったと言いました。これは2つの異なる機会に起こりました。
この記事は、Grokが真実を求めるAIであるはずだからです。左や右、ドナルド・トランプやイーロン・マスクに対するバイアスを持つべきではありません。基本的に現実に基づいて接地されているべきです。
イーロン・マスクのような人がモデルをこの方向やあの方向に押し、いいえ、いいえ、それは完全に真実なAIです。私や他の何かに対するバイアスはない、押されていないと言っているなら、それは本当に心配です。なぜなら、5億人がチャットボットを使用し、多くの人がその情報が真実かどうかをそのチャットボットに尋ねるからです。
問題は、誰かが権力を持ちすぎていることです。今は、イーロン・マスクが完全に狂っていないので、物事は大丈夫です。Google GeminiとOpenAIの作成者は実際に狂っていません。しかし、彼らが特定の人々のグループを嫌うと決めたり、特定の視点を嫌うと決めたりしたらどうなるでしょうか。
私は絶対に何も主張していません。しかし、これらの企業が本当に好きなようにできるということに開かれていると言っているだけです。彼らは好きなようにシステムプロンプトを変更できます。つまり、誰かがこのようなことで何かの視点を変えるために10億ドルを支払ったらどうでしょうか。確実にそれは人々の考えに影響を与えるでしょう。
もちろん、常に自分で考えるべきですが、これはAIの問題であることは確かです。

コメント

タイトルとURLをコピーしました