OpenAIが天才レベルのAIに月額20,000ドルを請求?!

AGIに仕事を奪われたい
この記事は約26分で読めます。

14,981 文字

OpenAI Charging k/mo for Genius-Level AI?!
Here's the AI News that you might have missed this week.Register Here for Nvidia GTC: Out The Contest Form Here:

AIの世界では今週多くの興味深い進展がありました。時間を無駄にせず、すぐに本題に入りましょう。まず、OpenAIがやや高価なAIモデルをリリースする計画があるという事実から始めましょう。「やや高価」というのは月額20,000ドルということです。
The Informationの記事によると、OpenAIの幹部は一部の投資家に対し、高所得の知識労働者向けの低価格エージェントを月額22,000ドル、ソフトウェア開発向けの中間層エージェントを月額おそらく10,000ドル、そしてPHDレベルの研究エージェントとして機能する高級エージェントを月額20,000ドルで販売する計画があると伝えました。これらは実際のエージェントで、月額200ドルのプランよりもはるかに多くの作業ができるというアイデアです。
この記事によると、ChatGPT Proは技術的にはPHDレベルの研究エージェントやコーディングエージェントのようなエージェントではありません。これらの数字は100%確定しているわけではなく、Xでの投稿では、OpenAIの人々がまだどのような価格帯が人々に受け入れられるかを試しているようです。
月額2,000ドルで、例えば動画を作ったり記事を書いたりするときに、研究アシスタントのように調査を行い、それを全て持ち帰ってきてくれるでしょう。月額10,000ドルではソフトウェア開発者を雇えて、理論的にはより自律的にソフトウェアを書いてくれます。月額20,000ドルではPHDレベルの作業ができます。
冗談として言われているのは、「月額22,000ドルで相当優秀な人間を研究アシスタントとして雇えるし、月額10,000ドルでかなり優秀なコーダーを雇えるだろう」ということです。AIを人間に置き換える時代も近いかもしれません。
また、OpenAIとElon Muskの騒動を追っていない方もいるかもしれませんが、Elon MuskはOpenAIが非営利企業になるのを阻止するためにOpenAIを訴えようとしました。彼は、それが会社を設立した当初の目的やElonがOpenAIに投資した理由に反すると考えているからです。しかし、判事のもとに行き、判事は基本的に営利企業への移行を止めることはないと言いましたが、裁判に持ち込むことは認めたので、Elonが実際に戦い続けて裁判に持ち込むかどうかは興味深いところです。
Sam Altmanはここに本当のケースはないと主張しています。これは全てElon Muskが競合を遅らせるために法的システムを利用しようとしているだけだと。Elon MuskはxAIを所有し、SamはOpenAIですから、Samはこれを単にElonが競合に対して障害を投げかけようとしていると見ています。
より実用的なOpenAIのニュースとして、ChatGPTのすべてのプラスユーザーが現在GPT-4.5にアクセスできるようになりました。先週最初にリリースされたとき、当初は月額200ドルのプロプランのメンバーにのみ展開されましたが、来週にはプラスプランにも提供されると言っていました。つまり、月額20ドルのプラスプランを利用している場合、ChatGPTアカウント内でGPT-4.5が利用可能になりました。
私自身がGPT-4.5を最初に使ったとき、期待外れで感銘を受けませんでした。イチゴのスペルを正確に書けなかったり、ベンチマークをクラッシュさせなかったり、特別なものはあまりないように感じました。しかし、実際に1週間以上使ってみると、4.5に対する考えが変わりました。
現在、私は本当に気に入っています。コーディングや数学、考え抜く必要のあることには使いませんが、より創造的なタスク、例えば文章を書いたり、要約を手伝ったり、アウトラインを作ったり、いくつかの動画のスクリプトを作るのを手伝ってもらったりする場合、それは現在創造的な作業に最適なモデルかもしれません。
Macを使用していて、ChatGPTデスクトップアプリを持っている場合、デスクトップアプリは今週さらに強力になりました。macOS用ChatGPTは、IDEでコードを直接編集できるようになりました。IDEは統合開発環境で、基本的に人々が実際にコードを書くために使用するツールです。Visual Studio codeを使ったことがあればそれはIDEです。Replit、Wind Surf、新しいAIコーディングツールなどはすべてIDEです。
プラス、プロ、またはチームユーザーで、Macを持っている場合、ChatGPTは今週からそのIDE内で直接変更を加えることができます。OpenAIが公開したデモビデオでは、「スターフィールドビューを作成し、既存の背景の上に追加する」というプロンプトが示されています。コードが生成され、プレビューする機能があり、コードに満足したら「適用」をクリックすると、自動的にIDEのコードが変更されます。
Googleからも今週興味深いニュースがありました。彼らは新しいAIモードの予告を公開しました。これはPerplexityやOpenAI検索モードに対するGoogleの回答のようです。プロンプトを与えると、Webを検索して情報のソースを多数見つけ、検索結果を使用してAI生成のレスポンスを提供します。
PerplexityやOpenAIの検索モードを使ったことがあれば、ほぼ同じ考え方です。Googleに組み込むだけです。まだ利用できませんが、一部の人々はGoogle Labsでアクセスし始めています。私はまだアクセスできません。
例えば、「ディープスリープ中に心拍数はどうなるか」という質問をすると、多くの検索を行い、ソースを見つけ、見つけたソースに基づいた回答を提供します。出力はPerplexityに非常に似ており、右サイドバーにソースがあり、プロンプトを与えた下に回答があります。
この機能を利用するには、GoogleのGoogleワンプレミアムサブスクライバー(月額20ドルのプラン)である必要があるようです。
Googleのファンではなく、DuckDuckGoの方が好きな場合、彼らもAI機能の展開を始めています。このブログ記事によると、彼らはプライベートで有用かつオプションのAIを作成しています。DuckDuckGoはduck.ai で人気のAIチャットボットへの無料アクセスを提供し、検索エンジンでのAIアシスト回答を拡大しています。
duck.aiにアクセスすると、AIがプライベートで匿名であること、会話でトレーニングされていないこと、そして使用したいモデルを選択できることがわかります。左上にモデルピッカーがあり、GPT-4o、Llama 3.3、Claude Haiku、o3 mini、Mr. Smallなどが選択できます。
ここでは、他のチャットボットと同じように質問ができますが、Webを検索する機能はなく、異なるチャットボットを使用して完全に匿名で行うオプションが提供されているだけのようです。
DuckDuckGoは通常の検索エンジンを使用する場合、AIの概要も提供しているようです。「タイヤの交換方法」を検索すると、上部にアシストモードが表示され、Home DepotやDummies.comからの情報が取り込まれています。
Googleに戻りますが、Google Shoppingにいくつかの新機能が展開されています。例えば、「大きなデイジーの花柄のカラフルなミニドレス」のようなオブジェクトをAIに生成させる機能があります。AIはそのようなドレスを生成し、AIが生成したドレスに似た実際のドレスを見つけようとします。
また、仮想的に異なるメイクを試せる機能や、仮想試着機能もあります。これは実際にあなたの写真を使用するのではなく、様々な形や大きさの異なるモデルを使用して、あなたと似た形のモデルで服がどのように見えるかを確認できます。
Google Sheetsも先週新しいAIアップデートを受けました。Google Sheetsのデータをより速く分析できるようになりました。すべてのWorkspaceビジネスユーザー(有料ユーザー)は、Sheetsの新しいGemini機能にアクセスできるようになりました。相関関係、外れ値などのデータからインサイトを生成できます。
これは本当に便利だと思います。以前のバージョンのGoogle SheetsにもAIがありましたが、どちらかというと数式の生成やセルの入力を手伝うものでした。セル内で何が起きているかを分析するためにAIを使用することはあまりありませんでした。
この相関関係機能のアイデアも本当に気に入っています。これが役立つ興味深い例として、例えば食事ログを記録していたとします。各日付に食べたもの、食べた食品、その日に胃痛や頭痛が出たかどうかなどです。これで、食べるものと気分が悪くなるものとの相関関係を見つけることができるかもしれません。
「このテーブルを要約」をクリックし、「私が食べるものと胃痛を起こすものの間の相関関係を見つける」などと尋ねることができます。すると、どのタイプの食品が私の気分を悪くするかについての詳細な内訳が得られます。これはすべてダミーデータですが。
携帯電話でGoogleを使用している場合、あなたの画面やカメラを共有し、AIに実際に見ているものを見せる機能が追加されます。この例のビデオでは、画面を見て、実際に画面上のジーンズについて質問しています。また、カメラを共有して、カメラが見ているものについて質問している例もあります。
これは、数ヶ月前にロンドンでProject Astraを使用したときに非常によく似ていて、携帯電話でGoogleを使用する人々にまもなく展開される予定です。また、これも月額20ドルのプランであるGoogle One AIプレミアムメンバーのみが利用できるようですが、今月後半にAndroidで展開される予定です。
Googleはまた、AndroidとPixel携帯電話で詐欺を検出するのに役立つ機能を展開しています。この画像の例では、誰かが「こんにちは、Maryさんですか?」「すみません、彼女ではありません」「申し訳ありません、投資情報のあるクライアントに連絡しようとしていました。間違った番号を入力したようです」「問題ありません。ちなみに私はJohnです。ファイナンシャルアドバイザーです」というテキストメッセージを受け取り、Googleはこれが詐欺である可能性が高いと検出し、報告してブロックすることができます。
これは私自身が日々増加しているものです。「今日ランチの予定はまだありますか?」や「今日はオフィスに少し遅れます」などのテキストメッセージを常に受け取ります。これらのメッセージの多くは実際には詐欺で、返信を得ようとして実際の電話番号を持っていることを確認し、あなたを詐欺に導こうとしています。
誰かから間違った番号のようなテキストメッセージを受け取った場合、私のアドバイスは単に無視して削除することです。しかし、もし対話しようとする場合、Googleがあなたをバックアップし、それが実際に詐欺かどうかを検出するのを手伝ってくれるようです。
最後のGoogleニュースとして、Google Labsはwhisk animateのプレビューを公開しました。Whiskは、画像を組み合わせて単一の画像にブレンドできるツールですが、今ではWhiskで作成したブレンド画像を取り、V2を使用してそれらの画像を小さな動画やアニメーションなどに変換できます。ただし、これがいつ実際に見られるかについては明確な更新はなく、「利用可能になる時期については今後の更新をお待ちください」とだけ言われています。
今週はMicrosoftからも小さなアップデートがありました。Microsoft Copilotが少しUIアップデートを受けました。この画像では、Windowsアプリのcopilotが少しきれいになったアップデートを見ることができます。
オープンソースの大規模言語モデルの世界では、今週アリババのQuinのQWQ-32Bという新しいモデルが登場しました。これは32億パラメータの新しい推論モデルであり、数学的問題解決能力をテストするAIM24ベンチマークでDeepSeek R1とほぼ同等、あるいはそれ以上だと主張しています。
スコアはDeepSeek R1とほぼ同じでしたが、これは32億パラメータのモデルであり、R1は6710億パラメータのモデルだったことを覚えておいてください。つまり、はるかに小さく軽いモデルでありながら、数学と論理的推論においてDeepSeek R1とほぼ同等のパフォーマンスを発揮します。
Live Codebenchでは、R1よりもわずかに性能が劣りましたが、ほんのわずかです。このLive Benchもコーディングや論理、推論などをテストするもので、IF Evalでも再びDeepSeek R1を上回りました。ほぼ他のトップモデルと同じスコアを出しました。IFは指示に従うという意味で、モデルがいかに指示に従ったかを示しています。最高のモデルと同等のようです。
また、BFCL(関数呼び出しベンチマーク)では他のすべてを上回りました。これは言語実行の能力を測定し、Python、Java、JavaScript、MySequenceなどをテストします。このサイズのモデルが現在最高のモデルと同等というのは非常に印象的です。
Hugging Faceでは、コードとモデルの重みが利用可能になっており、十分に強力なコンピュータがあるか、自分のクラウドで実行したい場合は、知識があれば実行できます。また、Hugging Face内で直接テストできるHugging Faceデモも利用可能です。
いつものように、これらの動画で話すすべてのリンクは、説明欄にリンクされます。おそらくGoogleシートにまとめられていると思います。説明欄に収まりきらないほど多くのリンクを共有しているためです。
私は携帯電話でのPerplexityの音声モードの大ファンで、一日中質問をしています。彼らはこの機能をMacアプリでも展開しました。Macにperplexityがインストールされている場合、コンピュータで直接チャットする機能が利用できるようになったはずです。Macでコマンド+シフト+Mを押すと、音声モードが開くようです。
音声モードについて話している間に、iOSを持っていてGrockを使用している場合、Grockの音声モードを無料で使用できるようになりました。以前は、Grockの音声モードをテストするには、月額30〜40ドルのXプレミアムプラスサブスクライバーである必要がありましたが、現在はGrockアプリの音声モードがiOSユーザー全員に無料で利用可能だと言われています。サブスクリプションは不要です。
実際にすべての音声モード、例えば抑制のないモードなどが含まれているかどうかはわかりません。私は有料版を持っているので、有料版と無料版の違いを見分けるのは難しいです。現在、無料版をインストールしていないので。
オーディオについて話している間に、先週の動画では触れなかったセサミについても話さなければなりません。このセサミ社は、私が今まで使ったことのある中で最も印象的なAI音声会話ツールを作りました。これはウォーキン・フェニックスが出演する映画「Her」に最も近いものです。声のスピードが上がったり下がったり、非常に自然なリズムを持っていると感じるやり方は、本当に驚異的です。
ここでマヤをクリックすると、どのように聞こえるか聞くことができます。(音声の文字起こし部分は省略)
これはおそらく、これまでに聞いた中で最も人間らしく、最も自然に聞こえるAI音声であり、これは本当に見過ごされたように思えます。Xにいて、Xでのこのようなスフィアにいる場合、誰もがそれについて話していましたが、X以外ではこれについての報道をほとんど聞きませんでした。
続いて、会社Podcastleが450以上のAI音声を持つ独自のテキスト読み上げモデルを発表しました。11 Labsと正面から競争するようです。私自身はまだテストしていませんが、この技術クランチの記事によると、新しいプロセスで作成された声は少しロボット的に聞こえるが、時間の経過とともに改善されると会社は言っています。
また、異なる結果を得るために、あなたの声の異なるサンプルをトレーニングできると言われています。つまり、11 Labsと非常に似ており、自分の声をトレーニングし、理論的にはAI生成のポッドキャストを作成できます。Podcastleと呼ばれているので、それが目的だと思います。
この会社Teleperformanceは、スタッフをよりインド人らしく聞こえなくするためにAIを使用しています。Teleperformanceは世界最大のコールセンター運営会社で、アクセント翻訳と呼ばれるこの技術を使用しています。これはインドのコールセンターに展開されており、労働者はテレパフォーマンスの国際的なクライアントの一部に顧客サポートを提供しています。
ほとんどの顧客サービスでは、これは本当に良いことだと思います。サポートを求めてコールセンターに電話し、アクセントの違いで理解するのに苦労している場合、これは役立ちます。しかし、この技術はまた、詐欺師によって、話しているときにアクセントを隠すために使用される可能性が高いと思わずにはいられません。
同様のニュースとして、Amazon Primeは実際にAI吹き替えをテストしており、TVショーや映画を異なる言語に吹き替えています。
Metaからの新しい研究では、4枚のセルフィー画像だけで人々がアバターを生成するのに役立ちます。このビデオでは、この男性が4つの異なる角度から4つの異なる画像を撮影し、それがBlenderやUnreal Engineのような3Dアバターに変換されるのを見ることができます。たった4枚のセルフィーであなたそっくりに見えます。
これはかなりクールな研究であり、Metaから出ていることを考えると、おそらくMetaQuestsのようなアバターに使用されるのではないかと思います。Apple Vision Proのように、誰かと会話すると、実際に彼らのように見えるアバターのバージョンが表示されます。
Pika Labsが最近展開しているすべての新機能が好きで、Kaa AIサブスクリプションをお持ちの場合、彼らはPikaのさまざまな機能をすべてKaaに統合しました。ビデオ領域の変更、AI要素の追加、フレームの補間、画像の混合など、Pika Labsでできることをすべて行えます。
過去数週間の週末ニュース動画を見てきた方なら、ほぼ毎週、Pikaは何らかのクールな新しいAI機能を発表しており、Kaasもそれに乗っかり、これらの機能を自分のプラットフォームに組み込んで、すべてを一箇所で行えるようにしています。
テンセント社はHunon Video i2vという新しいオープンソースAIビデオモデルを発表しました。これまで見た動画はかなり印象的です。ここにGitHubページで紹介されたいくつかの例があります。ドラゴンスーツを着たペンギンが町を歩いているようです。かなり良いですね。
コードはGitHubで利用可能なようですが、まだ自分でテストできる場所は見ていません。私の友人であるAngry Penguin(AP)がアーリーアクセスを得て、このAge of Empiresを思い出させるような、本当にクールな動画を作りました。素晴らしい色の、このピクサーのようなアニメーションです。
また、雪の中の兵士のような動画もあり、背景にはオーロラが見えます。また、蜂の群れのように見えるものもあります。これらがオープンソースであることを考えると、本当に感銘を受けています。
Hedra Labsは、Character 3をリリースしました。これはAIネイティブなビデオ制作の新世代です。彼らはそれを「より知的なビデオ生成のために、画像、テキスト、オーディオ間で共同で推論するために構築された、生産中の最初のオムニモーダルモデル」と呼んでいます。
Hedraのスタジオでは、テキストからビデオ、オーディオからビデオ、キャラクターと一般的な目的の画像とビデオ制作、動的な背景、テキストから感情などを行うことができます。彼らのデモビデオを簡単に見てみましょう。ビデオとオーディオはすべて彼らの技術で作成されたと思います。
「Hedra StudioとCharacter 3を紹介します。世界で最もパワフルなオムニモーダルなGen AIモデルです。フルボディの表現、感情のコントロール、ダイナミックな環境を特徴としています。私たちの世界から次の世界まで、コマンドにあるすべての主要な画像、オーディオ、ビデオモデルであなたのストーリーを語りましょう。あなたのオールインワン創造プラットフォーム、Hedra StudioとCharacter 3は今日hedra.comで利用可能です。」
声はまだ少しロボットっぽく聞こえますが、残りは非常に印象的に見えました。Hedraにログインして自分でテストしてみます。「都市のスカイラインの前にひげを生やした男性」というプロンプトを与えます。そして、オーディオスクリプトを与える必要があります。オーディオを録音するか、アップロードするか、または音声を生成できます。
音声を生成しましょう。「Matt Wolfをチャンネル登録してください」と入力します。ここで声を選びましょう。Drewを選んで、このプロンプトを与えましょう。明らかに画像も必要なようです。プロンプトを与える意味が、とにかく画像を与えなければならないならわかりません。
画像を作成させて、「都市のスカイラインの前にひげを生やした男性」と入力します。私のプロンプトを受け取り、画像を生成し、それをビデオに変換できればよかったのですが。これは不必要な追加ステップのように感じます。しかし、この画像で大丈夫です。ビデオに追加しましょう。
では、得られた結果を見てみましょう。おそらく2分ほどかかりました。「Matt Wolfをチャンネル登録してください」。声は顔と一致しませんが、悪くはありません。
また、Tavis(そう発音すると思います)にも出会いました。彼らは「最先端のAIモデルの新しいファミリーを紹介します。Phoenix 3、Raven 0er、そしてSparrow 0です。これらが一緒になって会話型ビデオインターフェースをもたらします」と言っています。
少し詳しく見てみると、これは3つのモデルの組み合わせです。Phoenix 3は、最初で唯一のGausian Diffusionモデルで、リアルタイムでフル顔のレンダリングを行い、複雑なマイクロ表現と感情を生成します。Phoenix 3は目、眉、頬を含む顔全体をアニメーション化します。
次に、Raven Zeroというものがあり、これはAIが人間のように見て、推論し、理解できるようにする唯一のリアルタイム知覚システムです。単なるコンピュータビジョン以上のものです。Ravenはアクション、感情を読み取り、視覚的コンテキストを深く理解します。画面共有をして、チェス、デバッグ、オンラインショッピングなど、あらゆるものに対する即時の視覚空間的洞察を得ることができます。
そして、Sparrow Zeroがあり、これは自然な会話のための最も高度なターンテイキングモデルです。トーン、ペース、意図を分析し、いつ話し、いつ聞くべきかを正確に知ります。気まずい沈黙や中断はなく、スムーズでダイナミックな人間らしい対話で、他のすべてのモデルよりも優れているとされています。
これはpapis.ioで試すことができるようです。再びCharlieが登場します。Charlieとビデオチャットを始めましょう。チャットに参加しましょう。
(ビデオチャットの文字起こし部分は省略)
音声は非常にロボット的に聞こえ、リップシンクも非常にうまく合っていませんが、実際に私を見ることができるのは非常に興味深いです。私の帽子についてコメントしていました。悪いモデルではないと思います。
これは面白い話だと思いました。人々は実際にスーパーマリオを使ってAIがどれだけ優れているかをベンチマークしています。彼らは様々なAIにスーパーマリオをプレイするよう依頼しました。これはコンピュータ上でエミュレートされたバージョンを使用しており、古いニンテンドーなどでプレイしているわけではありません。彼らはClaude 3.7が本当に良い成績を出したことを発見しました。
マリオとポケモンのようなものでテストする違いは、ポケモンは多くのターンベースのものだということです。ポケモンのキャラクターは画面上を移動し、バトルに入るとターンベースのバトルになります。マリオでは、常に動き続ける必要があり、物が向かってきて、ジャンプしたり、避けたりする必要があります。AIにとってはるかに複雑です。AIが次に何をすべきか考える必要がある場合の僅かな遅延があると、うまくいきません。
これは、ゲームをどれだけうまくプレイできるかだけでなく、AIがいかに速く反応できるかのテストでもあります。明らかにClaude 3.7は他のすべてを圧倒し、実際にゲームをプレイして、まともな仕事をしました。一方、Cloud 3.5、Gemini、GPT-4oはそれほど良くありませんでした。
Operaブラウザは、AIブラウザオペレータを展開しています。これは、オンラインで注文したり、あなたの代わりにタスクを実行したりできるOperaに組み込まれたAIエージェントのようなものです。ClaudeのComputer Useツールやチャットgptのオペレータから得られるものと非常に似ています。同じアイデアを、彼らはOperaブラウザに直接組み込んでいます。
例として「サイズ10のメンズのナイキソックスを買えるところを見つけて」という例が見られます。Walmartに行き、検索してソックスを見つけ、カートに追加し、「ユーザーの準備完了」と言います。この時点で、チェックアウトを行うと思います。
また、マルチステップのタスクも実行できます。ここでは「4月のニューカッスルの次のプレミアリーグの試合のチケットを2枚買いたい。ホームスタジアムで。通常のチケットが利用できない場合は、ホスピタリティチケットでも良い。ミッドフィールドあたりに座りたい」と言っています。そして、チケットを見つけて、あなたの代わりに多くの検索を行います。
いつこれを手に入れるかは正確にはわかりませんが、「近い将来、AIの機能ドロッププログラムの一部として、新しいブラウザオペレータをリリースする予定です」と言われています。
Appleからもいくつかのニュースがありました。新しいM3 Ultraチップを発表しました。現在、彼らはM4シリーズのチップにいて、まだM4 Ultraは見ていませんが、M3チップの前世代がUltraを手に入れました。しかし、この新しいチップは実際にかなり狂ったものです。96GBのメモリを持ち、最大512GBまで構成できます。これは狂っています。このチップは基本的にAIパワーハウスになるでしょう。
Appleは今週いくつかの新しいデバイスもリリースしました。Apple Intelligenceをサポートする新しいiPad Airを発表しました。M4 MaxまたはM3 Ultraを搭載した新しいMax Studioをリリースしました。こちらには先ほど見た狂った512GBの統合メモリがあります。「Mac Studioは、6000億以上のパラメータを持つ大規模言語モデルをメモリ内で完全に実行できるAIパワーハウスです」と言われています。これは基本的に、現時点でAIをローカルで実行するための最高の消費者向けコンピュータです。
AppleはM4チップを搭載した新しいMacBook Airも発表しました。再びApple Intelligenceを搭載しています。これらのAppleのアップグレードについて話す唯一の理由は、AppleがすべてのコンピュータとチップをAIビーストになるように設計するシフトをしているからです。
MロールはOCRモデルという新しいモデルをリリースしました。OCRは光学式文字認識の略で、テキストが含まれる画像をアップロードすると、画像内のテキストを検出したり、PDFをアップロードすると実際にPDFを読み取ることができる技術です。そして、この新しいMistral OCRモデルは、これまで存在した中で最高だとされています。
AIコーディングに興味がある場合(最近、私の空き時間でかなり多くやっています)、Codiumはすべての本当にクールな機能を備えたWindsurf Wave 4をリリースしました。アプリが何をするかをWindsurf内で直接プレビューでき、提案されたアクションがあります。つまり、応答した後、次に何をすべきかというその提案を実際に提供します。
mCP Discoverabilityもあります。mCPはModel Context Protocolの略で、これは実際に数ヶ月前にAnthropicによって開発されたもので、現在AIの世界で最もホットなバズワードになっています。Xに行って、そこのAIスフィアにいる場合、今みんながmCP、Model Context Protocolについて話しています。
これはAPIに非常に似ています。APIはコードで異なるソフトウェアをエンコードし、あなたのソフトウェアが他のソフトウェアと通信できるようにします。アプリと別のアププリの間の通信を作成するためにAPIを使用するでしょう。しかし、APIは大規模言語モデルには向いていません。なぜなら、各ソフトウェアが異なる方法でAPIを実装するからです。APIが実装される標準的で統一された方法はありません。
Model Context Protocolが行うことは、大規模言語モデルがこれらのツールと接続するための標準化された方法を作成することです。裏側ではまだAPIを使用していると思いますが、これらのAPI呼び出しが大規模言語モデルから呼び出される方法を標準化し、大規模言語モデルがこれらの外部サードパーティツールからあなたの代わりにアクションを実行するのをはるかに容易にします。
これは少し詳細に入り過ぎていることは分かっていますが、将来的に別の動画でModel Context Protocolが正確に何であるかをより詳しく説明するかもしれません。しかし、このように考えてください。APIではコードが他のアプリと通信するためにAPIを使用します。Model Context Protocolは、特に大規模言語モデルが他のアプリとより簡単に対話するための方法です。
ここでいくつかの本当に魅力的なことを共有したいと思います。Cortical Labsというこの会社はCL1という新しいハードウェアデバイスを作成しました。これは世界初の生物学的コンピュータで、実際に人間の脳細胞を使用し、シリコンハードウェアと融合して流動的なニューラルネットワークを形成します。
これがどのように機能するかは私の理解を少し超えていますが、これについて興味深いのは、この部分です。「神経学的および精神医学的疾患のための薬物の大部分は、臨床試験に入ると失敗します。なぜなら、脳に関しては多くのニュアンスがあるからです。しかし、これらのツールでテストするとそのニュアンスを実際に見ることができます。私たちの希望は、動物実験の重要な領域をこれで置き換えることができるということです。残念ながら動物実験はまだ必要ですが、多くの場合に置き換えることができると思います。それは倫理的に良いことです。」
計算基板としてニューロンを活用することで、SBIは従来のシリコンベースのAIと比較して、より有機的で自然な形の知能を示すシステムを作成する可能性があります。彼らは、これを行うことで認知症やアルツハイマーなどの治療の新しい方法を発見できると信じており、実際にこれらの生物学的シリコンハイブリッドの1つにPongをプレイさせることができました。私にとっては本当に驚くべきことです。
最後にいくつかのことを簡単に紹介します。UberとWeoはAustinでドライバーレスカーでチームを組んでいます。UberからWeoを直接注文できるようになります。
最近、完全にドライバーレスのマセラティMC20がケネディ宇宙センターで時速197.7マイルに達し、自律走行の速度記録を破りました。以前の速度記録はそれよりも約5マイル遅かったです。
そして、いつものように、ここにクールなロボットがあります。これはPNDBTICSからのロボットです。このロボットの動きを見てください。指や動きがより自然で流動的な動きをしているのが分かります。それは人間の動きに非常に似ています。ここでピアノを弾いている様子を模倣しているのが見えます。
私はいつも言いますが、ロボットは本当にクールだと思います。ここでは、6自由度、12関節を持つ器用な手があり、実際の手と同様のサイズで、サブミリメートル単位の繰り返し精度があり、統合された力センサーを備えているので、物を押しつぶすことはありません。はい、私はただロボットが大好きです。
以上が今日お伝えしたいことです。このような動画が好きで、最新のAIニュースをすべて把握しておきたい場合は、ぜひこの動画にいいねを押して、このチャンネルをチャンネル登録してください。あなたのフィードにこのような動画や、クールなAIチュートリアル、ツールの内訳などの動画をもっと表示するようにします。
できるだけ価値を提供し、AIの世界に関する情報をみんなに提供するよう最善を尽くしています。また、NvidiaからRTX 90を提供していることを素早くお知らせします。彼らは実際にジェンセン・ファンがGPUを持っている写真を送ってくれて、彼がサインをしました。つまり、あなたが勝てば、サイン入りのRTX 590を手に入れることができます。
このラッフルに参加するのは非常に簡単です。このYouTubeチャンネルをチャンネル登録し、ニュースレターに登録して、NvidiaのGTCに登録するだけです。イベントは実際にカリフォルニア州サンノゼで開催されますが、無料で仮想的に視聴することもできます。GTCに登録するためのリンクは説明欄にあります。登録するだけで、チャンネル登録して、下の説明欄にあるGoogleフォームに記入してください。
実際に登録したことを教えてもらえば、このRTX 90を獲得するラッフルに参加できます。すべてのステップを実行するのに約25秒かかり、この2,000ドル相当のGPUを獲得できるかもしれません。それ以上の価値があります。ジェンセン・ファン自身がサインしたものですから。もう一度、その詳細は説明欄にあります。
再び視聴してくださりありがとうございます。そして、いつものように、Future Tools.IOをチェックしてください。ここで先ほど言及したニュースレターに参加できます。ここで私が出会うすべてのクールなAIツールをキュレーションしています。また、AIニュースページをほぼ毎日更新しています。この動画で共有するすべてのニュースと、共有できないものもすべてこのページにあります。完全に無料で、無料のニュースレターに参加すると、これらの様々なAIツールでお金を稼ぐ方法のクールなデータベースであるAI Income Databaseを提供します。繰り返しますが、すべて無料でFuture Tools.IOで利用できます。
以上が今日お伝えしたいことです。AIの世界は減速しておらず、私はそれを楽しんでいます。ぜひチャンネル登録して、将来の動画で一緒に過ごしてください。そうすれば、できる限りあなたに情報を提供し続けます。
再び、一緒に楽しんでくれてありがとう。次回の動画でお会いできることを願っています。さようなら。

コメント

タイトルとURLをコピーしました