AI ニュース: メタ、新AI モデルのリリースをキャンセル、Q-STAR 禁止、LLAMA 3 リリース日、その他

AIに仕事を奪われたい
この記事は約16分で読めます。
https://www.youtube.com/watch?v=sIzzd-RbSL8

さて、お帰りなさい。いくつかの重要なAIに関するストーリーを見ていきましょう。見逃したくないものがいくつかありますからね。
見逃したくないストーリーの1つは、メタが今後のマルチモーダルモデルをEUで提供しないというものです。これは本当に信じられないことです。メタは、規制当局からの明確さが欠如しているという理由で、次のマルチモーダルAIモデルと将来のモデルをEUの顧客に提供しないと述べています。
これは結構面白いですね。というのも、もしあなたがしばらくの間TwitterやXを見ていたら、つまりAIの分野とその周辺の議論や会話を見ていたら、よく目にするのは、EUがあらゆるものを規制する傾向があるのに対し、アメリカや他の国々はこれらの分野でイノベーションを起こす傾向があるということです。そして、このトレンドは続いているようです。
SOAは、規制当局からの明確さが欠如しているという理由で、次のマルチモーダルAIモデルと将来のモデルをEUの顧客に提供しないと述べています。Axiosが知ったところによると、この動きはメタとEUの規制当局との対立を引き起こし、欧州の顧客に製品を提供しないという米国のテック大手の間で広がる意欲を強調しています。
これはかなりクレイジーですね。なぜなら、EUが物事を規制することに関してちょっと狂っているということを理解する必要があるからです。もちろん、ここでも述べられていますが、これは少し前に私が取り上げたことですが、アップルも同様に、規制上の懸念から欧州でアップルインテリジェンス機能をリリースしないと先月言いました。
私は、GoogleやOpenAIのような他の企業も、特定の機能のリリースを遅らせているのではないかと思います。例えば、Gemini 1.5 Proがリリースされたとき、私はプレイグラウンドでそれにアクセスしようとしたのを覚えていますが、ヨーロッパの一部の地域ではかなりの間そのソフトウェアにアクセスできなかったのを覚えています。
私はそれがそうだったのかどうか疑問に思いますが、それについてのニュースはありませんでした。しかし、重要なのは、EUのメンバーであることは今、あまり良い時期ではないということです。なぜなら、これは景観を変える重要な技術だからです。
メタで何が起こっているのかご存じない方のために言うと、おそらくリリースされるモデルはLlama 3で、私の推測では、ここで見ているのはマルチモードモデルになるということです。これはかなりクレイジーになるでしょう。なぜなら、彼らは将来のモデルも含めてそうだと言っているからです。
これはいくつかの深刻な影響を与えるでしょう。このレベルのAI規制により、これが宇宙に影響を与える可能性があると確信しています。もちろん、MistalやEUで活動する他の企業のような一部の企業はまだ繁栄するでしょうが、AIの分野が提供するものを楽しもうとしている人にとっては少し難しくなるでしょう。VPNを使えばそれらにアクセスできないというわけではありませんが。
ニュースをさらに掘り下げると、メタは新しいマルチモーダルモデル(ビデオ、音声、画像、テキストにわたって推論できる)を、スマートフォンやメタのRayban スマートグラスを含む幅広い製品に組み込む計画であることがわかります。
正直に言って、これはスポンサー付きのビデオではありませんが、メタのRayban スマートグラスを試したことがない方は、実際に機能するものです。通常、テクノロジーの次の波として宣伝されている製品から得られるものと言えば、ARとVRですが、メタのスマートグラスは私が個人的に使用し、一対を購入したものです。
そして、私は自信を持って言えますが、それらは本当に期待通りのことをします。そして、もし彼らがそれらのグラスでAIを機能させることができれば、私は本当に、それらが実際に良い製品である未来を想像できます。
そして、批判的な人たちに言いたいのは、Rabbit R1デバイスを批判する多くの人々が「なぜこれをアプリに入れないのか」「なぜこれを単にスマートフォンに入れないのか」と言っていたことを思い出してください。グラスのことを考えてみてください。あなたが見ているものを正確に教えてくれ、あなたの日常生活に関連するさまざまな情報の更新を提供してくれるビジョンAIシステムを持つことができるのです。
クレイジーなのは、メタが言うには、この決定はEUの企業がオープンライセンスの下でリリースされているにもかかわらず、マルチモーダルモデルを使用できないことを意味するということです。また、EUの外の企業が新しいマルチモーダルモデルを使用した製品やサービスをEUで提供することも妨げる可能性があります。
会社はまた、近々より大規模なテキストのみのバージョンのLlama 3モデルをリリースする予定で、それはEUの顧客と企業が利用可能になるとメタは述べています。
メタを悩ませている主な問題は、EUのGDPR法、つまりEUの既存のデータ保護法です。正直に言って、この法律は時々かなり迷惑です。アメリカのウェブサイトにアクセスしようとして興味深いコンテンツがあるのに、「申し訳ありませんが、このコンテンツはあなたの場所では利用できません」というデータ保護法のポップアップが表示されることがあります。
興味深いことに、イギリスはGDPRとほぼ同じ法律を持っていますが、メタは同じレベルの規制の不確実性を感じておらず、イギリスのユーザー向けに新しいモデルをリリースする計画だと言っています。
EUには選択肢があるようです。特定の企業や製品に対して特定の例外を認めるのか、それともLlama 3がEUで大きく制限されるのか。AIの開発のペースが急速に進み、スペースが非常に速く進化しているのを考えると、これは興味深いことになりそうです。新しい規制が急速に策定されていますが、私はこれに注目し続けるつもりです。
メタに関するさらなるニュースでは、彼らは7月23日に最大のLlama 3モデルをリリースする計画です。メタの従業員によると、メタ・プラットフォームズは7月23日にオープンソースのLlama 3モデルの最大バージョンをリリースする計画です。
4,050億のパラメータ、つまり質問に対するモデルの反応を決定する設定を持つこのバージョンはまた、マルチモーダルになります。つまり、画像とテキストを理解し生成することができるようになります。この情報は以前に報告されたものです。
もし注目していなかった場合、メタのLlama 3のリリースは本当に素晴らしいものでした。なぜなら、彼らはオープンソースで可能だと思われていたものの基準を引き上げることができたからです。私が作成したビデオを見ていない人は、そのビデオのリンクがどこかの説明にあります。そして、メタAIが調理してきたものに本当に驚くでしょう。
Llama 3の情報ドロップから最もクレイジーなことの1つは、Llama 3がトレーニング中もまだ学習を続けていたという事実でした。もちろん、彼らはトレーニングを切り上げることにしました。そして、もちろんモデルをラップアップし、安全性テストやその他のことを行いました。
私はこれが本当に魅力的になると思います。なぜなら、これはGPT-4レベルのモデルが真にオープンソース化される機会の1つになるかもしれないからです。そして初めて、YEのモデルやもちろんMRAの専門家の混合に匹敵する、本当に競争力のあるオープンソースモデルが登場することになりそうです。
また、このモデルがChatbot Arenaでどのようにランク付けされるかを見るのも面白いでしょう。メタのウェブページにある自己報告のベンチマークを見ると、これは本当に信じられないものだということがわかります。
メタのLlama 3を見て、700億パラメータモデルを現在我々が持っている最先端のシステム、例えばGemini Pro 1.5やClaude 3 Sonnetと比較すると、明らかに独自の立場を保っていることがわかります。
したがって、4,050億パラメータモデルは、一部の人々が推測するように、GPT-4のオープンソースバージョンかもしれません。これがGPT-4のオープンソースバージョンで、Claude 3.5 Sonnetに追いつくことができれば、業界に衝撃を与えるでしょう。
なぜなら、ダイナミクスが変化し、オープンソースが追いついた時期になり、今や業界のリーダーたちはピボット/より良いモデルを作る必要があるからです。
この論文はあまり取り上げられませんでした。つまり、AIの分野は現在、それほど注目を集めていないようですが、もちろん、まだ論文を発表している人々がいて、これらのモデルがよりスマートになり続け、新しいパラダイムがアンロックされている状況を示す情報がまだたくさんあります。
100万人の専門家の混合を紹介します。ここで見ることができるのは魅力的です。最近の細かい専門家の混合のスケーリング法則の発見は、より高い粒度がより良いパフォーマンスにつながることを示していますが、既存の専門家の混合アーキテクチャSLモデルは、計算上および最適化上の課題のため、少数の専門家に限定されています。
この論文は、ピア・パラメータ効率的専門家検索(PEER)を紹介します。これは、製品キー技術を利用して、膨大なプールの小さな専門家(100万以上の専門家)から疎な検索を行う新しい層設計です。
言語モデリングタスクでは、PEレイヤーが密なFFWsやCo粒度MOEsよりもパフォーマンスとコンピュート・トレードオフの面で優れていることを示しています。
長い話を短くすると、これはかなり複雑に聞こえることは知っていますが、Twitterの分析を読み、実際に論文からの専門家の意見を含めると、単に新しい専門家を追加し、適切に正則化することで、MOEモデルは連続的なデータストリームに適応できます。
古い専門家を凍結し、新しい専門家だけを更新することで、破滅的な忘却を防ぎ、設計上の可塑性を維持します。生涯学習の設定では、データストリームは無限に長いか、終わりのないものになる可能性があり、拡大する専門家のプールが必要になります。または、ある人々が言うように、時間とともに学習するAIです。
基本的に、この論文は推論コストとメモリ使用量を削減し、何百万もの専門家にスケールし、破滅的な忘却を克服し、モデルの生涯学習を可能にします。これは、真にゲームチェンジングな研究になる可能性があります。
また、お見せしたかったのは、AIの開発のペースを理解できるようにする映像の一部です。ここの上に見えるのは、ドミノピザや他の会社のためのAI生成のピザのコマーシャルです。
これはアシストされています。なぜなら、その時点で画面上に表示されているテキストはAI生成ではないからです。これはもちろんAfter Effectsや他のビデオ編集ソフトウェアで作られています。しかし、わずか1年で品質の差がはっきりと見えます。
これはビデオ分野でもそうです。だからこそ、多くの人々が、わずか3年後、あるいは5年後に、AIがどれだけ発展できるかについて、急速に進化する状況を理解するのに苦労していると私は信じています。
これがビデオであることは知っています。そしてあなたは「ビデオには限界があり、我々はただS字カーブの真ん中にいるだけだから、このようなジャンプは予想されることだ」と考えているかもしれません。そして、これは急速な成長の間に典型的に見られるものだと。
ある程度はそれに同意します。しかし、振り返ってみると、AIビデオを取り巻く現在の感情を思い出すことができます。多くの人々は、AIビデオが従来のテキストよりもはるかに長い年月がかかるだろうと推測していました。なぜならテキストの方がはるかに簡単だったからです。
しかし、今では、ビデオは大部分が征服されており、AIで可能なことを取り巻く意識は再び再設定されました。私たちの脳は、これが信じられないほどのものではないというタイムラインに適応することを許されました。しかし、根本的には本当にそうなのです。
そう言ったうえで、私は今後2年以内に、今スマートだと思っているものと、将来のモデルが本当にできることとの間に、非常に大きな差が生じる可能性があると思います。
GPT-4がリリースされたとき、多くの人々がその能力に驚いたことを覚えていますか?しかし今では、人々は文字通りGPT-4に行って「このモデルはとても愚かだ。毎日これを使っているなんて信じられない」と言います。
人間が新しい技術に適応する方法は驚くべきです。そしてAIの領域では、従来の技術よりもさらに短い時間枠です。
AIの規制に関するさらなるニュースでは、マーク・アンダーソンとベン・ホロが、AIについて話し合うためにホワイトハウスの役人と会った際、彼らは悪い方向に向かっていると思う数学の任意の領域を分類し、それを国家機密にすることができると言ったそうです。そして、それは終わるだろうと。
まず、このクリップを見てほしいです。なぜなら、私はこれについて調査をし、これは本当のことで、AIの分野がどこに行き着くかについて、かなりクレイジーだからです。
ほとんどの人が考えていないことの1つは、AIが真の能力と真の力を持っているということです。この技術が私たちに提示する可能性のある、フィルターをかけていない可能性という点で。そしてそうすることで、国家をいくつかの非常に破滅的なリスクにさらすことになります。そして、それが彼らが話している内容です。
「私たちがホワイトハウスでのAI政策の会議で主張したのは、ほら、AIから問題が出てくるだろうけど、規制は技術レベルではなく、アプリケーションレベルで行われるべきだということです。」
「その理由は基本的に、数学を規制するのは、アルゴリズムのレベルで規制するのは、意味がないからです。そして彼は私がそう言ったときに議論しました。」
「そう、ベンは基本的に、AIを技術レベルで規制するのは意味がないと言いました。なぜなら、あなたは数学を規制しているからです。そしてもちろん、私たちはそんなことはしません。それは意味がありません。」
「そして、あなたは彼らが言ったことを覚えているでしょう。いいえ、実際に私たちは数学を分類できます。私たちは数学を分類できます。そして、これは逐語的です。これは、核時代に私たちが物理学の全分野を分類し、それらを国家機密にしたのと同じです。理論物理学のような。」
「物理学、科学、我々はそれらを分類し、国家機密にしました。そしてその研究は消えました。そして私たちは再びAIのためにそれを行う能力を絶対に持っています。悪い方向に向かっていると思う数学の任意の領域を分類し、それは終わるでしょう。」
一部の人々は、特定の分野が分類されることは悪いことだと考えるかもしれません。私はこれが悪いことだとは全く思いません。Q-STARのリークの一部が主張していたことを思い出してみても、それらのことは根本的に社会を破壊する可能性があります。
基本的に、皆さんに簡単な説明をしましょう。Q-STARとは何かというと、これは悪名高い論文で、この手紙がこのような警告を発したのは、もしこの主張が真実だとしたら(この時点で50/50です。なぜなら理事会に手紙が書かれたからです。ただ、これがその手紙だったかどうかはわかりません)、問題は、もしこの手紙が真実で、AIモデルが世界の暗号化システム全体を解読できるテキストのみの攻撃を考え出したとしたら、これは根本的に社会を破壊することになります。
暗号化システムがどのように機能するかを見てみると、これは銀行、ウェブサイト、パスワード、これらすべてのものが特定のAIシステムによってロック解除される可能性があることを意味します。
もちろん、これが真実で、OpenAIや何らかの先進的な研究所がこれを開発していたとしたら、もちろんその研究は分類されるでしょう。そして私はそれが良いことだと思います。
そして、皆さんが「なぜそれが良いことなのか」と考える前に、ほんの一瞬、誰かがその種の情報を手に入れて、その人がほんの少しでも良い人ではなく、純粋に悪いことを望んでいると想像してみてください。そのような技術が研究所から漏れ出すことは深刻な影響を持つことを理解する必要があります。そして私はそれがどのようなものになるか想像もつきません。
もちろん、影響を受ける可能性のある他の分野もありますが、ここでのポイントは、研究所の国有化は決して起こらないことではなく、常に選択肢の1つになるだろうということです。
そして、インタビューで述べられているように、これが以前に起こったことがないと思うなら、冷戦中、特に核技術に関連する物理学研究の特定の分野は分類されていました。そして、もちろん前に言ったように、これらは主に安全上の理由で分類されました。そして、私はAIでも同様のシナリオが起こると想像できます。
そして、超人工知能システムの整列に取り組んでいた元OpenAI従業員のLeopold Aschenが言ったように、「AGIへのレースが激化するにつれて、国家安全保障国家が関与するでしょう。どのスタートアップも超知能を扱うことはできません。」
そして彼はここで言いました。「私は、米国政府がサンフランシスコのランダムな会社に超知能を開発させるという提案を狂っていると思います。原子爆弾をUberに即興で作らせるようなものを想像してみてください。」
基本的に、超人間システムを手に入れたら、米国政府が何らかの形でそれをコントロールしないということはありえないと述べています。だから、それが起こったときに備えておいてください。
さて、これはあまり注目されなかったAIニュースの一部ですが、私はインターネットを探してこれを見つけることができました。これはサムスンの新しいAIスケッチ・トゥ・ドローです。
これはそれほどクレイジーには見えないかもしれませんが、個人的には、これは実際に誤情報を生成できる最大の誤情報の一つだと思います。
私が何を話しているのか分からないかもしれませんね。これは単なるスケッチ・トゥ・ドローツールで、非常に基本的なツールです。しかし、私はこれが人々が実際の誤情報を生成するために使用するようなツールだと思います。そして、なぜそう思うのか説明します。
このツールを知らない人のために説明すると、基本的に既存の画像を取り、ここで見ることができるように、その人が画像にミツバチのスケッチを描いています。その画像にミツバチのスケッチを描いたら、AIが作動して、実際の写真のようなリアルな生き物を画像に埋め込みます。
私がこれが多くの人が考えているよりもはるかにクレイジーだと言った理由は、Midjourneyや他のAI生成画像は、画像全体をAIで生成することがあるからです。時には現実的に見えますが、一部の画像は奇妙に見え、実生活のスナップショットは含まれていません。
しかし、今では実際の画像にAI生成のものを入力できるようになったので、かなりリアルなものが得られるでしょう。そして、これはビデオになるとさらにクレイジーになると思います。
AIで生成されたものをビデオに合成できるなら、ほとんどの人が考えているよりも少しクレイジーになると思います。そして、なぜそう思うのか説明しましょう。
この人は公園の写真を撮り、数秒でここにボートを描くことができました。そして文字通り、そのボートをそのフレームに入れることができ、かなりリアルに見えます。誰かがその写真を私に送ってきて、「ああ、神様、このボートがそこにいたなんて信じられない」と言ったら、私はそのボートがそこにいたと信じるでしょう。
もちろん、これは愛する人や家族、友人に写真を送るためだけに使われると思うかもしれません。そして通常、このようなアプリケーションがあるとき、特にスマートフォンでAI生成画像を生成できるとき、通常は何らかのデジタルIDがあるので、その画像が主要なソーシャルメディアプラットフォームに公開されると、通常すぐにタグ付けされます。
問題は、実際のAI生成画像や実際の画像で起こっていることを変更できるようなソフトウェアを人々が開発すると思うことです。私が言いたいのは、誰かが実際に起こっていることの実際の画像を取り、すぐにその画像を改変し、これが起こったことの実際の画像だと主張する可能性があるということです。
サムスンの電話の場合、明らかにデバイス上にあるので、そうはならないと思います。しかし、他のツールが開発され始め、それがより多くビデオやその他のリアルな方法になると、Midjourneyが超リアルなSnapchat写真を開発したのと同じようになると思います。
最後のニュースですが、一部の人々はAIの「バブル」が崩壊するのを待っています。私はそうは思いませんが、確かにハイプサイクルがあり、AIが過大評価されている分野があるかもしれません。しかし、バブルと呼ぶのは早すぎます。
1990年代後半にインターネットバブルで起こったことを見たことがあれば、人々は文字通りウェブサイトに「.com」を付けただけで数十億ドルの評価を得ていました。AIマーケットは特定の分野で過大評価されているかもしれませんが、これが本当に変革的な技術で、未来を根本的に変えるということは否定できません。
そして、人々が数十年にわたってAIについて話してきたことを覚えておく必要があります。人々は最近になってバンドワゴンに飛び乗ったわけではありません。確かに、より多くの投資とより多くの目がこの分野に向けられていますが、この技術が何をするかについてのナラティブは過去20年間変わっていません。

コメント

タイトルとURLをコピーしました