OpenAIのロードマップが明らかに – 重大な変更が間もなく実施へ!

AGIに仕事を奪われたい
この記事は約26分で読めます。

15,344 文字

OpenAI’s Roadmap Revealed – Major Changes Coming!
Here's the AI News you probably missed from the past week. Check out Adobe's new Firefly Video Model here: More:...

今週もAI業界では、多くのドラマチックな出来事や製品・機能のアップデートが行われ、賑やかな1週間となりました。私の仕事は、そういったノイズの中から、皆さんに実際に影響を与える重要な情報を見つけ出すことです。それでは早速、今週のAIニュースブレイクダウンをお届けします。
まず、今週最も話題となったニュースから始めましょう。イーロン・マスクがOpenAIの買収を974億ドルで試みたのです。イーロン・マスク率いる投資家チームが、月曜日にOpenAIへ976億ドルの買収提案を提出しました。
ご存知かもしれませんが、イーロン・マスクは既にOpenAIを訴えています。その理由は、彼が当初投資した際のミッションから逸脱しているためです。イーロンは「OpenAIは、かつてのオープンソースで安全性重視の善なる力に戻るべき時だ。我々がそれを実現する」と述べました。
これに対してサム・アルトマンはXで「結構です。でも、もしよければTwitterを97.4億ドルで買い取らせていただきます」と返信しました。これはイーロンに対する当てつけでした。というのも、イーロンは当初Twitterを440億ドルで買収したからです。
イーロンは彼を「詐欺師」と呼び返し、ケビン・ローズの「お二人が精神的な旅に出て、全てを癒すことを願っています。二人なら無敵です」というコメントが印象的でした。私も同感です。サム・アルトマンとイーロン・マスクのコラボレーションプロジェクトを見てみたいですね。二人が共同で作り上げるAIは、きっと凄まじいものになるでしょう。
ただ、それが実現するのは難しいかもしれません。多くの人々は、イーロン・マスクは実際にOpenAIを買収する気はなく、OpenAIが営利企業への移行を進めようとしているのを複雑にしたいだけだと推測しています。
その考え方によると、OpenAIが営利企業に移行する場合、本質的には非営利部門を買収する必要があります。その非営利部門の買収評価額は、イーロンが提示した額よりもはるかに低いため、非営利部門は彼の提案を真剣に検討せざるを得ません。
ただし、非営利組織である以上、株主に対する受託者責任は必ずしもないため、状況は非常に複雑で混乱しています。
イーロンの提案について分かっていることをまとめると:

期限は2025年5月10日
全額現金での取引
イーロンと買収側は、デューデリジェンスのために帳簿や人事に関する完全なアクセスを求めている

これは、イーロンがただ情報を得るためにこの提案をし、デューデリジェンスの結果に基づいて「買収はしない」と言うための可能性もあります。
意向表明書によると、彼らは資産、施設、設備、帳簿、記録を確認する必要があるとしています。これは通常のデューデリジェンスの一部ですが、OpenAIの競合であるxAIに機密の内部情報へのアクセスを与えることになります。
また、デューデリジェンスの結果を理由に、提案を撤回することもできます。さらにマスクは、OpenAIが非営利組織のままであることを選択した場合、提案を撤回すると主張しています。
holesのインタビューで、サム・アルトマンはイーロン・マスクの提案についてこう答えています:
「OpenAIは売却の対象ではありません。OpenAIのミッションは売却の対象ではありません。イーロンは長い間、様々なことを試みてきました。今週もまた新しいエピソードが加わったというわけです。」
「彼はただ我々の足を引っ張ろうとしているのだと思います。彼は明らかに競合相手です。xAIのために多額の資金を調達し、技術面でも、製品を市場に投入する面でも我々と競争しようとしています。より良い製品を作ることで競争してくれればいいのですが、多くの訴訟やその他の奇妙な戦術を使ってきました。」
「我々は黙々と仕事を続けるだけです。非営利モデルから営利モデルへの移行を困難にしているのでしょうか?」
「我々は営利モデルへ移行するわけではありません。何をするかまだ決めていませんが、どのような形になろうとも、非営利部門は極めて重要で、ミッションを推進し、存続し続けます。取締役会は、この次のフェーズに向けて最適な構造を検討しているところです。非営利部門が変更されたり、なくなったりすることはありません。」
このように、彼はイーロンの提案をあまり真剣に受け止めていないようです。より良い製品を作る代わりに、足を引っ張ろうとする競争の手段だと見ているようです。
イーロン・マスクとサム・アルトマンのドラマから離れて、OpenAIは今週実際にいくつかの発表を行いました。彼らは今後のロードマップを共有し、さらに実用的な新機能もリリースしました。
まずはロードマップについて見ていきましょう。サム・アルトマンはこう述べています:
「私たちはAIがあなたのために単純に機能することを望んでいます。私たちのモデルと製品が複雑になりすぎていることは認識しています。」
これは、特にProプランを使用している場合のChatGPTについて言及しています。現在、1,2,3,4,5,6,7,8つのモデルの選択肢があり、さらにそれぞれのモデルには検索やディープリサーチ、画像、キャンバスなどの追加オプションがあります。これは人々にとって複雑すぎるのです。
「私たちはモデルピッカーを皆さんと同じくらい嫌っています。魔法のような統一された知性に戻りたいと考えています。」
「私たちの主要な目標の一つは、O(オー)シリーズモデルとGPTシリーズモデルを統合することです。全てのツールを使用でき、長時間の思考が必要かどうかを判断し、一般的に非常に広範な作業に役立つシステムを作ることです。」
つまり、GPT-4o、ChatGPT-3、ChatGPT-o1(プロモ付き)、推論モデル、ディープリサーチなどを選択する必要はないということです。プロンプトを入力するだけで、ChatGPTが質問に基づいて適切なモデルを選択するようになります。
「これは深い思考が必要そうだから、o1モデルを使おう」「これはディープリサーチが必要そうだから、その機能をオンにしよう」「これは簡単な質問だから、最も軽量なGPT-4oミニモデルを使おう」といった具合にChatGPTが自動的に判断するのです。
同じ投稿で、彼はモデルが今後どのようにリリースされるかについても言及しました。
「GPT-4.5(社内ではOrionと呼んでいる)があります。これは思考の連鎖を示さない最後のモデルになります。」
これ以降のモデルは全て、テストタイム・コンピュートを中心に構築されます。つまり、プロンプトを入力した時点で多くの処理を行い、応答を考え抜いて答えを提供するのです。
「ChatGPTとAPIの両方で、GPT-5を03を含む多くの技術を統合したシステムとしてリリースします。03は単独のモデルとしてはリリースしません。」
つまり、先週までのロードマップでは、03ミニ、03ミニハイをリリースし、その後に03(非ミニモデル)をリリースする予定でしたが、今では03を単独でリリースせず、GPT-5の一部として組み込むことになったようです。
また、「ChatGPTの無料版ユーザーは、標準の知性設定でGPT-5への無制限のアクセスが可能になります。プラスユーザーはより高いレベルの知性でGPT-5を実行でき、プロユーザーはさらに高いレベルの知性でGPT-5を実行できるようになります」とも述べています。
chubbyが「GPT-4.5とGPT-5のリリース時期は週単位か月単位か」と質問したのに対し、サムは「週SL月」と答えました。これは実質的に無回答です。「週SL月」は来年のいつでも可能性があるということになります。
ただし、理論的にはGPT-4.5は比較的早く、おそらく数週間以内にリリースされるでしょう。これは現在使用しているGPT-4oの後継となり、思考の連鎖を持たない最後のモデルになります。
そしてGPT-5がリリースされれば、それ以降のモデルは全てテストタイム・コンピュートを持ち、プロンプト入力時に必要に応じて思考能力を発揮するようになります。システムは「これは深く考える必要があるのか、それとも簡単に答えられる質問なのか」を学習し始めるのです。
OpenAIは今週、他にもいくつかの小さなアップデートをリリースしました。プロユーザーは、モバイルでもディープリサーチを使用できるようになりました。iOS、Android、そしてデスクトップ(MacOSとWindows)の全プラットフォームで利用可能です。
また、OpenAI o1と03ミニがChatGPTでファイルと画像のアップロードに対応したことも発表されました。以前は、o1や03ミニでPDFをアップロードしてそのPDFについて質問することはできませんでした。ただし、o1プロでは今日試してみましたが、まだ機能しませんでした。
さらに、プラスユーザー(月額20ドルのプラン)の03ミニハイの利用制限を7倍に引き上げ、1日あたり最大50回まで使用可能になりました。
今週のOpenAIニュースの最後として、サム・アルトマンとケビン・ウィールが東京大学グローバル教育センターで講演を行いました。その内容の大部分は、サム・アルトマンがいつも話すような内容でしたが、最も興味深かったのはオープンソースについて質問された時の部分です。
「先ほど、知性を誰もが利用できるようにすることについて言及されましたが、最近の中国のDeepSeek AIのリリースと、そのウェイトとアーキテクチャの公開を受けて、OpenAIがオープンソースから離れた判断の妥当性が問われています。その立場を再考する計画はありますか?また、その正当性は何でしょうか?」
「はい、我々はそうする予定です。何をオープンソース化するか、またはいつするかは正確には分かりませんが、より多くのオープンモデルが利用可能になる方向に向かっていると考えています。少なくとも今のところ、社会はそれに伴うトレードオフを受け入れる意思があるようです。」
「我々は、これらのモデルが一般的に安全で堅牢なオープンソースの使用になるよう、良い進展を遂げてきたと考えています。全てがそのように使用されるわけではありませんが、ほとんどの場合はそうなるでしょう。」
「はい、その方向に進むことを期待しています。」
非常に興味深いですね。この動画の冒頭で、イーロン・マスクがOpenAIを買収してオープンソースに戻し、OpenAIの本来の目標に立ち返らせたいと話していることを取り上げました。そして今、サム・アルトマンは「より多くのオープンソースを行う必要がある」と言って回っています。先週のAMAでもそう述べ、今週は東京大学でも同じことを言っています。
つまり、彼らは何らかのオープンソースへの方向転換を行うようです。最新のモデルをオープンソース化する可能性は低いと思いますが、2世代前のモデルをオープンソース化することは考えられます。どうなるか、見守っていきましょう。
クリエイティブなプロジェクトに取り組んでいて、頭の中で思い描いているものを実現しようとする時、それは猫に泳ぎを教えるようなものだと感じたことはありませんか?
動画用のB-rollが必要だったり、サムネイルの完璧な背景を作りたかったりモーショングラフィックスに取り組んでいても、思い通りにいかないこともあります。実際、ストックフッテージサイトを何時間も検索したり、ゼロから何かを作ろうとしても、イメージしていたものとは違う結果になってしまうことがよくあります。
そこで今回の動画では、Adobeと提携して、新しいFireflyの機能についてお伝えします。新しいFirefly動画モデルを搭載した生成動画は、クリエイターにとって画期的なものです。
AdobeのFireflyは、商業利用に安全な初めての生成AI動画です。つまり、ライセンスを得たコンテンツとパブリックドメインの作品だけで学習しているため、AIで生成したアセットが問題を引き起こす心配がありません。
では、何がそんなにエキサイティングなのかをお見せしましょう。生成動画モジュールを使えば、説明するだけで完全にオリジナルの動画クリップを作成できます。山々の風景をドローンで撮影したようなシネマティックなショットが必要ですか?簡単です。既存の映像に雰囲気のあるエフェクトを加えたいですか?それもできます。
最も素晴らしいのは、カメラアングル、モーション、ビジュアルスタイルを完全にコントロールできることです。まるでブラウザ上にプロのVFXチームがいるようなものです。
しかし、それだけではありません。AdobeのFireflyは、まさにクリエイティブなスイスアーミーナイフのようなものです。カスタム画像の生成、アニメーションの作成、背景のデザイン、さらにはコンテンツを20以上の言語に自動翻訳することもできます。
ウェブアプリの全てが、既に使用しているAdobe Creative Cloudアプリとシームレスに統合されています。つまり、Fireflyで生成したコンテンツを、最終調整のためにPremiere Pro、After Effects、Photoshopに直接持っていけるのです。
私が特に気に入っているのは、AdobeのFireflyがクリエイターを尊重している点です。これは人間の創造性を置き換えるものではなく、むしろ強化するものです。時間のかかる退屈な作業から解放され、本当に重要なクリエイティブな判断に集中できるようになるのです。
他のAIツールとは異なり、ライセンスの問題を心配することなく、生成したものを商業的に使用できることが分かっています。今すらFirefly.adobe.comにアクセスして、AdobeのFireflyを自分で試すことができます。これらのツールを使い始めると、以前はどうやって仕事をしていたのか不思議に思うはずです。
プロのクリエイターであっても、これから始めようとしている人であっても、AdobeのFireflyは、これまでは不可能だった方法で、あなたのクリエイティブなビジョンを実現する力を与えてくれます。詳しくはFirefly.adobe.comをチェックして、AdobeのFireflyでクリエイティブな制作を始めてください。
これから数分後にAdobeのFireflyについてさらに詳しく説明しますが、その前に他にもいくつか話しておきたいことがあります。
大規模言語モデルの世界では、まずanthropicから始めましょう。最近、OpenAI、Google、mraw、DeepSeek、Alibabaなど、多くの企業から大きなニュースが出ていますが、anthropicはかなり静かでした。
しかし、anthropicのCEOであるダリオは最近、より頻繁に発言するようになってきました。彼らは異なるアプローチを取っているようです。推論能力を備えた新しいハイブリッドAIモデルを開発しましたが、このモデルは従来の大規模言語モデルのように、余分な作業なしで単純なタスクも迅速に処理できます。
つまり、先ほどサム・アルトマンが次に実現したいと言っていたこと、プロンプトを与えると、より深い推論を使うべきか、それとも簡単な回答を返すべきかを判断するモデルに取り組んでいたのです。
anthropicの新しいハイブリッドモデルは、クエリにどれだけの計算リソースを費やすか、つまり問題についてどれだけ長く推論するかを顧客が制御できるようにします。
この新しいanthropicモデルで私が特に興奮しているのは、コーディングの分野です。今日でも、私の知る限り、コーディングにAIを使用する人のほとんどは、まだClaude 3.5 Sonnetを使用しています。
私自身も、コードとAIを触る時は、o1 ProなどよりもまだはるかにClaude 3.5 Sonnetを使用しています。主な理由は、o1 ProにはまだAPIがないため、cursor、windsurf、その他私が使用しているツールと接続できないからです。
しかし、Claudeは依然としてそれらのツールに最適なようです。ここでanthropicの次期モデルは、ビジネスにおける生成AIの最も強力なアプリケーションの1つとして浮上しているコーディングで、特に大きな進展を遂げていることが分かります。
OpenAIの推論モデルは、競技プログラミングの問題のような、よりアカデミックな問題に優れていますが、anthropicのモデルは、ビジネスでエンジニアが行うようなコーディングタスクにより適しているのです。
このモデルがanthropicからいつリリースされるのか正確には分かりませんが、この記事では「今後数週間以内にリリースする予定」と述べています。おそらく2月か3月になるでしょう。特にコーディングへの影響に関して、私は本当にこのモデルに期待しています。
今週はperplexityからもアップデートがありました。perplexityは、100万トークンまでの拡張されたコンテキストウィンドウで、ファイルと画像のアップロードに対応するようになりました。これはログインしているユーザーなら誰でも無料で利用できます。ただし、オートモードに設定する必要があります。
perplexityは、LLaMA 3 70bモデルをベースにした新しい大規模言語モデルもリリースしました。これは新しいCerebus推論インフラストラクチャを使用しており、非常に高速に読み込むことができます。実際に1秒あたり1,200トークンで読み込みます。
この比較動画を見ると、Gemini Flashは1秒あたり約140トークン、Claude 3.5 Sonnetは1秒あたり約75トークンで処理しています。つまり、1秒あたり1,200トークンは非常に高速なのです。
perplexityに関する他の興味深い、そしてちょっと変わったニュースとして、2月13日(この動画を録画している日)に「Introducing Perplexity Deep Research」というブログ投稿を出しました。Googleの検索結果にもまだテキストとして表示されています。
その説明には「本日、深い研究と分析を代行し、何時間もの時間を節約するDeep Researchを立ち上げます」とありました。しかし、記事をクリックすると404ページが表示され、全体が削除されていました。
perplexityがDeep Researchについて早まって投稿してしまったのか、それともGoogleとOpenAIが「Deep Research」というブランド名を使用しているため、別の名前に変更するのか、理由は分かりません。
これは、事実の正確性を測定するために大量の質問をして、モデルがどれだけ事実に基づいているかを判断するSimple C-aベンチマークを示すスクリーンショットの1つです。perplexityのDeep Researchは95%のスコアを獲得し、次点のOpenAI o1は50%未満でした。
ただし、この画像には、o1 Pro、03、DeepSeek R1など、現在話題の新しいモデルの多くが含まれていないことに注意してください。これは彼らのオリジナルのブログ投稿で示されていたスクリーンショットです。
こちらは、Deep Researchがどれだけ高速かを示す別のスクリーンショットです。同じブログからのスクリーンショットで、研究に約3分かかり、25のステップを使用し、42の異なるソースを使用し、出力は1,321語の詳細な記事だったことが示されています。
最後に、perplexityとperplexity Deep Researchを並べて比較したスクリーンショットもありました。通常のperplexityのクエリは左のようになり、Deep Researchを使用すると、はるかに多くの情報が表示されることを示しています。
私のperplexityアカウントにはDeep Researchオプションがないので、おそらく機能のロールアウト前にブログ投稿を公開してしまったのだと思います。しかし、perplexityも独自のDeep Research機能を持つ予定のようです。
Gemini Advancedユーザーには、過去のチャットの記憶機能が追加されました。Geminiと会話する際、以前のGeminiとの会話を参照し、その情報を新しい会話の応答に使用できるようになりました。
stored情報は自分でコントロールできます。チャット履歴の確認、削除、保持期間の決定が簡単にできます。また、Geminiアプリのアクティビティログを完全にオフにすることもできます。過去の会話を記憶させたくない場合は、その機能をオフにできます。
数週間前、Google Labsの中の「Whisk」という新機能について話しました。これは複数の画像や複数のスタイルを組み合わせ、与えられた全ての入力に基づいて出力を生成する機能です。今週、この機能が世界展開され、100カ国以上で利用可能になりました。
YouTubeは新しいAI機能の開発をほのめかしました。CEOのニール・モハンは、2025年のYouTubeに関する4つの大きな賭けについてブログ投稿を書き、その4番目が「AIがクリエイションを容易にし、YouTube体験を全ての人にとって向上させる」というものでした。
彼らは、新しい動画のアイデア、タイトル、サムネイルの考案など、クリエイターの日常的な制作作業を支援するツールに投資していると述べています。また、AIを使ってクリエイターが新しい視聴者を見つけるのも支援します。
基本的に、それは吹き替えを展開することで実現します。英語で録画された動画を、自動的にAIで生成されたスペイン語版やドイツ語版にすることができ、それらの国々で動画が消費されやすくなり、より多くの視聴者を見つけやすくなります。
YouTubeの話題が出たところで、YouTube Shortsに彼らのV2モデルを展開していることにも触れておきましょう。記事によると「今日、Dream Screenは、Google DeepMindの最新の動画生成モデルV2の統合により、もう一つの大きなアップグレードを受けています。また、V2を利用した新機能として、Shortsに追加できるスタンドアロンの動画クリップを生成する機能もローンチします。」
これは彼らが共有したShortsの例です。私はまだ試していませんが、明らかにYouTubeアプリ内からShortsを作成中に直接これができるようになったようです。
先ほど述べたように、今週AdobeはFirefly動画モデルをリリースしました。実際にかなり印象的で、動画内で多くのコントロールが可能です。
穏やかな湖に映る雄大な雪山の空撮映像、黒い背景に揺らめく炎(カメラは静止し、炎以外の物体は映っていない)、緑のスクリーン背景に漂う雲(カメラは静止し、霧以外の物体は映っていない)などの例が見られます。
このように、本当に良いグリーンスクリーンや黒い背景の動画を作成できるのが素晴らしいと思います。ライオンや巨大なクジラなども見られます。実際に少し試してみましょう。
Firefly.comにアクセスすると、上部に動画のオプションがあります。テキストから動画、画像から動画、動画の翻訳があり、さらに音声エンハンサーとテキストからアバターが近日公開予定となっています。
ここでテキストから動画を試してみましょう。アスペクト比(ワイドスクリーンまたはポートレート)、ショットサイズ(超クローズアップ、クローズアップ、ミディアムショット、ロングショット、超ロングショット)、カメラアングル(空撮、アイレベル、ハイアングル、ローアングル、真上)、モーション(ズームイン、ズームアウト、左移動、右移動、上向き、下向き、静止、手持ち)などのオプションがあります。
いつものように「月に向かって遠吠えする狼」を試してみましょう。今回はローアングルでズームアウトを使ってみます。
生成してみると、月に向かって遠吠えする狼のローアングルズームアウトショットが得られました。月が映り、狼の下を通り過ぎてズームアウトしていきます。狼の顎の下から少しカメラが入るという、月に向かって遠吠えする狼の映像でよく見かけないアングルになりました。
次に全く異なるものを試してみましょう。「ゾウのいるアフリカの砂漠の風景をドローンで空撮」してみましょう。これを空撮に切り替え、モーションは削除して生成してみます。
最初の生成には90秒から2分ほどかかりましたが、結果はこのようになりました。明らかにアフリカの砂漠の上を飛ぶドローンのような映像です。最後でカメラが少し揺れるところは、実際のドローンショットでカメラを調整しているような動きを思い起こさせます。
実は、彼らのページに掲載されているプロンプトの1つを改変してみようと思います。「夕日に向かって走る粘土アニメのトラック。地平線には虹色の煙を残してロケットが打ち上がっているのが見える」というものを試してみましょう。
結果はこうなりました。粘土アニメのトラックが道路を走り、虹色の煙を出すロケットが見えます。かなり的確に要求を満たしています。
さらに別のテストをしてみましょう。今度は多くの詳細を含むプロンプトを試します。彼らがライオンで行っているプロンプトを、別の動物に変えてみて、どうなるか見てみましょう。
ライオンを狼に変更して、「夜明けに岩の上から自分の領域を見渡す雄の狼が欠伸をする。朝日の黄金色の光が彼の体を照らす。Nikon D850、600mmなど」という具合に残りの設定はそのままにして、生成してみましょう。
これが結果です。狼が現れ、カメラの方を向きます。立ち上がって向きを変える動きには少し違和感がありますが、これが最悪のケースです。
最後のテストとして、Adobe Fireflyの画像から動画モジュールを試してみましょう。この消防士が火に水をかけている画像を使ってみたいと思います。これはAIが生成した画像で、男性の頭にバケツを被っているように見えることからも分かります。
この画像で火と水をアニメーション化できるか見てみましょう。最初のフレームとしてこの画像を追加し、「火に消火ホースで水をかける男性」というプロンプトで生成してみます。
これが結果です。特に最初の部分の水は、かなり現実的に見えます。火の方は火山の噴火のように見えますが、それでも見栄えの良い映像効果となっています。
Adobe Fireflyについて私が本当に評価しているのは、商業利用に安全になるよう設計されていることです。トレーニングの際、ライセンスを持つ動画とパブリックドメインの動画だけを使用しているので、これらの動画モデルのトレーニング方法の倫理性や著作権の影響を懸念している人にとって、Adobe Fireflyは最適な選択肢となるでしょう。トレーニング素材の出所が分かっているからです。
この動画のスポンサーとなってくれたAdobeに改めて感謝を申し上げます。他の動画関連のニュースに移りましょう。
Lumaは、新しいRay 2画像から動画へのモデルをリリースしました。既にRay 2テキストから動画をリリースしており、プロンプトを入力して動画を得ることができましたが、今週からは画像から始めて、その画像を動画に変換することもできるようになりました。見た例から判断すると、かなり印象的な結果が得られるようです。まだ十分に試す時間がありませんでしたが、将来の動画で詳しく探ってみたいと思います。
Boltでアプリを開発することが好きな人には、ネイティブモバイルアプリを開発できるようになりました。「プロンプトを入力するだけで、アイデアからApp Storeまで。コーディング不要」と謳っています。将来的に試してみたい機能です。これまでAIを使って様々なAIツールを構築してきましたが、全てデスクトップやウェブベースのツールでした。モバイルアプリはまだ試していないので、これは面白い探求になりそうです。
AIコーディングの話題が出たところで、windsurfは今週Windsurf Wave 3、最新バージョンをリリースしました。モデルコンテキストプロトコルを活用し、より多くのツールを導入でき、ウェブ上のより多くのコンテキストを見つけることができます。
ターミナルコマンドを実行するためのタブジャンプターボモードを追加しました。これは本当に役立つ機能です。最近は主にcursorを使用していて、ターミナルコマンドを実行してくれる点が気に入っていましたが、今ではwindsurfでもそれができるようになりました。
画像のドラッグ&ドロップも素晴らしい機能です。ビルドしようとしているものでエラーが発生した場合、画面のスクリーンショットを撮って、そのスクリーンショットをドラッグ&ドロップし、「これが発生している問題です。解決を手伝ってください」と言えばいいのです。そのため、作業がずっと簡単になります。
今週はフランスでAIアクションサミットも開催され、米国副大統領のJD Vanceが出席し、基本的に米国がAIで支配的な立場を維持すること、そして進歩を本当に遅らせることになるため、他の国々はAIに対してそれほど制限的にならないよう促しました。
全てを再生はしませんが、いくつかの重要な発言を聞いてみましょう:
「今日、4つの主要なポイントを述べたいと思います。第一に、この政権はアメリカのAI技術が世界的な金字塔であり続けることを確実にし、他国や企業がAIの使用を拡大する際の第一の選択肢となることを保証します。」
「第二に、AI分野の過度な規制は、まさに離陸しようとしている変革的な産業を殺してしまう可能性があると考えており、進歩的な成長を促すAIポリシーを奨励するために全力を尽くします。この会議で規制緩和の傾向が多くの議論に見られることを嬉しく思います。」
「第三に、AIはイデオロギー的偏見から自由でなければならず、アメリカのAIは権威主義的な検閲の道具として悪用されてはならないと強く感じています。」
「最後に第四として、トランプ政権はAIのための親労働者的な成長路線を維持し、米国での雇用創出の強力なツールとなるようにします。モディ首相の指摘に同意します。AIは人々をより生産的にすると本当に信じています。人間に取って代わることはなく、決して人間に取って代わることはありません。」
「AI業界のリーダーたちが労働者の代替に対する恐れについて語る時、私は彼らが本質を見失っていると思います。AIは我々をより生産的に、より豊かに、そしてより自由にすると信じています。」
その後、彼はこれらの4つの主要なポイントについて詳しく説明を続けました。
オークションハウスのChristie’sは、AIアート・オークションを開催することを発表しました。彼らのX(旧Twitter)の発表では、「拡張知能の世界へようこそ。Christie’sによる初のAIで制作されたアートワークのみのオークション。Refik Anadol、Claire Silver、Pindar Van Arman、Holly Herndon、Matt Dryhurstの作品を特集」とあり、他にも多くのアーティストが参加するリストが続いています。
これらのAIアート作品が実際にオークションにかけられることになります。
ほとんどのアーティストについて、私は彼らの経歴を全て知っているわけではありません。しかし、Refik AnadolとClaire Silverについては知っています。彼らは単にプロンプトを入力して、その結果を金儲けのためにオークションに出品しているわけではありません。
これらの人々はAIをクリエイティブなツールとして使用し、求める出力を得るために膨大な作業を行っています。つまり、「プロンプトを入力して画像を出力し、私の名前が知られているからという理由でオークションに出品して高額で売れる」というような単純なものではありません。
これらは実際に多大な努力を投じた作品であり、AIはパズルの一部として、ツールとして使用されているのです。
しかし、Christie’sがこのオークションを開催することに対して、人々は必ずしも喜んでいません。現在約6,000人が署名している請願が始まり、Christie’sのAIアート・オークションの中止を求めています。
彼らの主張は以下の通りです:
「オークションに出品予定の多くの作品は、ライセンスなしで著作権のある作品を使用してトレーニングされたことが知られているAIモデルを使用して制作されています。これらのモデルと、その背後にある企業は、人間のアーティストの作品を許可や支払いなしに使用し、彼らと競合する商業的なAI製品を構築するために搾取しています。」
「これらのモデルと、それらを使用する人々へのあなたがたの支援は、人間のアーティストの作品の大規模な窃盗をさらに奨励することになります。」
先ほど述べたように、私が知っているアーティストの何人かは、泥棒でも、他のアーティストの作品を盗もうとしているわけでも、他人の努力の上に裕福になろうとしているわけでもありません。
オークションに参加する他のアーティストについては確実には分かりませんが、私が知っているアーティストたちは確実に多くの時間を費やしており、AIを使用しなかったアーティストと同様にアーティストなのです。
最後に、楽しい話題で締めくくりましょう。AppleのエンジニアたちがAI機能を備えたピクサーのようなテーブルランプを作成しました。
これをご覧ください。動きだけで感情を表現できるランプを作りました。そしてそれは全てAIを使用して行われています。ランプの角度だけで、ブロックを見る様子から感情を推測できるのが分かります。
また、このランプは本を読んでいて、本を動かしたりランプを近づけたりする必要がある時に、自動的にそれを行ってくれるようです。また、ランプを別の方向に向けて何か別のものを照らしたい場合も、それができます。
とても興味深く、明らかにピクサーのランプからインスピレーションを得ているようです。記事によると、「通常のランプと同様に、電球で光を提供することが目的ですが、所有者のニーズを意識しているかのように行動します。例えば、押すジェスチャーや口頭の要求に応じて、顔を近づけたり遠ざけたりすることができます。」
ロボット関連や面白いガジェットで締めくくるのが好きなので、今週はこれが適切だと思いました。以上が今週のまとめです。
AIの世界では依然として多くの興味深いことが起きています。ドラマもあれば、新しいアップデートもあり、新しいクールなツールもリリースされています。AIの世界に退屈な瞬間はありません。
私は最善を尽くして情報を把握し、日々ニュースをフォローし、様々なツールを試して何ができるのかを確認し、そしてそれを動画にして皆さんに情報を伝えるよう努めています。AIの世界で何が起きているのか、常に最新情報を得られるようにすることが、まさにこのチャンネルの目的です。
このような内容が好きな方は、動画に「いいね」を押し、チャンネルを登録して、同様の動画がフィードに表示されるようにしてください。
また、私が出会う面白いAIツールを全てキュレートしているFuture Toolsもチェックしてください。現在3,200以上のツールを掲載しており、これらの小さなトグルを使用するか、必要なツールの種類を検索することで、簡単に探したいツールを見つけることができます。
AIニュースページは毎日更新されているので、これらの動画に載らないニュースでもこのリストで更新されています。
無料のニュースレターもあり、登録すると週に2回、AI業界の最も重要なニュースと私が見つけた最もクールなツールについてメールをお送りします。
登録すると、AIインカムデータベースへの無料アクセスも得られます。これはFuture Toolsで利用可能なAIツールを使用してお金を稼ぐための様々なクールな方法のデータベースです。全てFuture Tools.で完全に無料で登録できます。
最後にもう一つ本当にクールなことをお知らせします。Nvidia RTX 90、彼らの最上位の最高性能GPUを1台プレゼントすることになりました。来週の動画から、このGPUの獲得方法の詳細を共有する予定です。
このチャンネルでその方法を知るためにも、ぜひチャンネルを見続けてください。現在入手できれば2,000ドルのGPUです。私には余分に1台あり、このチャンネルでプレゼントすることにしました。
ヒントを1つ言うと、ニュースレターを購読し、チャンネルを登録する必要があります。もう1つ簡単なステップがありますが、それは来週お伝えします。最初の2つは今すぐ実行できます。
以上です。今回も私とAIについて語ってくださり、ありがとうございます。この動画のスポンサーとなってくれたAdobeにも感謝いたします。次の動画でお会いできることを願っています。さようなら。

コメント

タイトルとURLをコピーしました