
6,836 文字

皆さん、最も興味深いことの一つは、サム・アルトマンがたった今発表したことで、彼が非常に尊敬されている人物の会社を買収すると話しており、その人物はAppleの背後にいる基本的な人物の一人で、この新しい会社が未来のハードウェア、つまり私たちがこれから来る人工知能に使用するマシンを開発するということです。
そして、ここでOpenAIのAPIのいくつかのアップデートについても話し、Claudeの新機能についても話していきます。それでは何が起こっているのかを理解していきましょう。一緒に来てください。
それでは皆さん、いつもいいねを押してくれた皆さん、チャンネル登録してくれた皆さんに感謝しています。この人工知能チャンネルをスポンサーしてくれているチャンネルメンバーの皆さんに特別な感謝を送ります。
メンバーの皆さんは、WhatsAppにインテリジェントエージェントを統合する方法を学べるインテリジェントエージェントの独占動画や、先行動画にアクセスできることをいつも覚えておいてください。
それでは皆さん、今日の話題はIOという会社についてです。これはここで発表されました。YouTubeでもXでも、すでに100万回の視聴があり、OpenAIのサイトに公式投稿があり、サムとジョニーがIO社を紹介するとコメントしています。
簡潔に言うと、このジョニー・アイブは、Appleの基本的な人物の一人です。彼は人間と統合されたハードウェア開発、つまり人間体験において携帯電話やデバイスを使用することの巨大な革命の背後にいます。そして一方で、サム・アルトマンは、彼の製品を際立たせるために新しいデバイスを導入することに非常に興味を持っています。
そしてニュースではすでに、この取引は約65億ドルと評価されていると言っています。興味深いことに、OpenAIはIO、Appleの元デザイン責任者ジョニー・アイブと彼の時代の他の元エンジニアたち、スコット・キャノン、エヴァンス・ハンク、タンを含む多くの人によって設立されたハードウェア会社を買収しています。とても面白いですね。
「私たちは最高のハードウェアとソフトウェアエンジニア、最高の技術者、物理学者、科学者、研究者、製品開発と製造の専門家を集めました」とOpenAIのCEOと共同発表で述べています。
そして、このビデオで皆さんが見ることになるのはまさにこれです。もしあなたがこれを見れば、サム・アルトマンが話すことです。この人は非常に才能のある人々を集めて、物事を実現させます。
そして皆さんが理解し、私たちが話していることがより明確になるように、これがそれです。私たちはコンピューターを使うことの意味を完全に再考する機会があると思います。
なぜなら、数日前のGoogle IOで行われたGoogleのこのデモンストレーションは、自転車を修理しているこの少年のインタラクションを単純に示しており、彼は携帯電話を持っている必要がなく、携帯電話と相互作用している必要もなく、ただ会話し、話し、携帯電話に何をしてほしいかを説明するだけです。
そしてこれは明らかに、私たちが異なる状況で働く準備ができた、環境を見ることができ、環境と相互作用でき、もはや何かを持ったり、ポケットから何かを取り出したり、アプリを開いたりしてから、その後で何らかの相互作用を始める必要がない、異なるデバイスが必要であることを示しています。
皆さん理解できますか?そして、おそらくその二人組から、IOと呼ばれるこの新しい会社から、このレベルの何かが出現するでしょう。
明確にするために、他の多くの会社もすでにハードウェアのこの必要性に気づいています。たとえば、これは服に貼り付けられ、カメラがあり、音を捉えることができ、オーディオを捉えることができ、あなたや環境と相互作用できます。
中には、何かを見る必要がある時に手のひらにいくつかの画像を投影するものもあります。レンズに物事を投影でき、物事を見てあなたと会話することもできるこれらの眼鏡もすでにあります。指輪、時計、特定の服などの他のデバイス、そして有名なRabbitもあり、それには小さなスクリーン、スクローラー、相互作用のための小さなカメラがありました。
これらのデバイスはすべて、携帯電話の後に来る何か、つまりあなたが会話し、携帯電話をこの種のデバイスに置き換えるデバイスを狙っていました。誰もがこれがいつか起こることを知っていますが、どの製品になるか、いつそれが起こるかを正確に知っている人はいません。
そしてここで彼らはコメントしています。新しい製品ファミリーを開発、設計、製造するという私たちの野心には、まったく新しい会社が必要であることが明らかになりました。まさにその通りです。彼らはこれをするためだけの会社を作りました。
そして、1年前、ジョニーはスコット・キャノン、エヴァンス・ハンク、タンタンとIOを設立しました。とても面白いですね。インスピレーションを与え、力を与え、可能にする製品の開発に焦点を当てたIOチームは、現在OpenAIと合併して、サンフランシスコの研究、エンジニアリング、製品チームとより密接に働くことになります。
それで皆さん、もうお分かりですね?おそらく何かが出現するでしょう。OpenAIが計画している未来は、私たちが想像している以上にはるかに大きいのです。
最近、BloombergがBloomberg Originalsでここに小さなドキュメンタリーを発表し、サム・アルトマンのこのStargateプロジェクトについてコメントしました。トランプとのあの時代に始まった5000億ドルのプロジェクトで、人工知能の巨大なインフラを作るというメガファクトリーです。
このドキュメンタリーでは、すべてを扱い、特に工事がすでに始まっており、すでに行われ始めていることを示します。これは1年から2年の期間で、これらの工事が終了し、データセンターが機能し始めることを意味します。これは今日私たちにハードウェアのボトルネックがあることを意味します。
OpenAIが10倍成長したと想像してみましょう。今日、それは単純に10倍の成長にもう対応できません。今日10倍成長する必要があるなら、ハードウェア自体、働き方自体を変える必要があります。特に彼らがGPT Studioを立ち上げた時期に、インフラの使用が大幅に増加し、ChatGPTと他のすべてのサービスを支えているインフラ全体を再バランスする必要がありました。
データセンターがない、電気が必要、エネルギー生成のための発電所が必要だから成長できないという次元を理解できましたか?そこで、これらのボトルネックがすべて今日置かれており、将来的にはすべてが素晴らしく機能するという予測があります。
これについてどう思うかコメントしてください。そこで機能し、携帯電話を置き換える新しいデバイスがあるでしょうか、それとも彼らは試行錯誤して、携帯電話がまだ無敵だから失敗すると思いますか?それとも携帯電話を少し修正した何か、今日の携帯電話ができない何か追加のものが出現するでしょうか?これは私たちが答えようとする良い質問です。
今コメントしてください、知りたいです。そして興味深いことに、言われていることに関連する補足があります。これを見てください、とても興味深いことに、OpenAIの次の大きな賭けはウェアラブルではないという報告があります。
そしてここで、WSJによると、OpenAIのCEOは水曜日に従業員に、会社の次の大きな製品はウェアラブル、つまり装着可能なもの、眼鏡や取り付けるものではないと語りました。
代わりに、それはコンパクトなデバイスで、スクリーンがなく、ユーザーの周囲の環境を完全に認識するものになります。ああ、これは見たことがありますね。しかし見てみましょう。
テーブルに置いたり、ポケットに入れたりできるほど小さいです。アルトマンはこれをMacBook ProとiPhoneに加えた第三の核となるデバイスとして、日常生活に統合されたコンパニオンとして説明しました。
そして私はこれが道だと思います。携帯電話を取り除くことも、コンピューターを取り除くこともできません。しかし確実にできることは、実際に少しシンプルで、少し起動しやすい第三のデバイスを持つことです。ボタンを押すと、画面を開いたり、何かをする必要なく、すでに応答し始めます。
実際に、一人で歩いたり、散歩したり、運転したりしている時の経験をしたことがあるかどうかわかりませんが、今日では単純に人工知能と会話し、たとえば会話するだけで一日のニュースを知ることができます。AIが今インターネット検索を行うからです。だから基本的にニュースのコンパニオンになり、これは素晴らしいです。
そしてここで補足すると、アルトマンは従業員に、この買収は新しいデバイスカテゴリを作成するため、最終的に会社に1兆の市場価値を追加する可能性があると語ったとされます。他の会社が発売したウェアラブルや眼鏡とは異なります。
わかりません。このような小さなプロジェクトを試みてあまりうまくいかなかった会社をいくつか見てきましたが、OpenAIが持つ品質と信頼性で、まだ誰も試していません。だから今回はうまくいくかもしれません。
次のニュースです。そして見てください、OpenAIは次のことをしました。彼らはMCP Server、画像生成、Response APIでのcode interpreterのサポートを導入しています。これは何を意味するのでしょうか?OpenAIのエージェントが働くためのより多くのツールを持つことを意味します。
では何が起こるのでしょうか?たとえば、私たちがここに来ると、私たちのplaygroundで、これは私たちが知性をテストする場所ですが、ここを見ると、Response APIが選択されています。この重要な詳細を見てください。そしてここで、もし私がここのtoolsに行くと、ツールを追加できます。誰が現れたか見てください、MCP Serverです。そして、ここにもcode interpreterが現れています。
これら二つは何でしょうか?Code interpreterとは、あなたの人工知能にコードを実行するよう求めることができ、それが実行されることを意味します。だからあなたはこのように言うことができます、これとあれとそれの計算をしてください。それはコードを生成し、この計算を行い、正確に答えを返してくれます。
そしてMCP Serverは?MCP Serverはあのことですね。あなたのMCPサーバーを設定します。ここにはカスタムを追加できる小さなツールもあります。そのアドレスを渡し、名前を入れ、APIキーがあれば認証を入れるか、ここにカスタムヘッダーを入れます。
だからこのように機能します。ここのcode interpreterで、これを行います。PythonでコードToを実行し、送信されたファイルを分析します。だからここにファイルを追加して何らかの質問をすることができ、応答できます。そして私がすでに話したように、Pythonでファイルを実行することもします。
では、このエージェントはどのように実行されるのでしょうか?そこで、このエージェントの実行方法を正確に説明するビデオを作りました。これはまさにこのResponse APIを使用し、そこでツールの設定をする必要があります。
もしここでたくさんのいいねがついたコメントがあれば、実際にこれを動作させて、どのように機能するかを見せる独占ビデオを作ります。
今度はGrokのニュースです。少し停滞していますが、彼らは次のように言っています。開発者の皆さん、注目してください。GrokのAPIがLive Searchでより賢くなりました。
GrokはXとインターネットからのリアルタイムデータ、ニュース、トレンドなどを検索できるようになりました。Live Search APIは現在無料なので、注意してください。彼らはここでベータ版なので、期間限定です。構築を始めてください。
彼には3つのモードがあることを説明するLive Searchのドキュメンテーションがあります。一つは無効化、一つは自動、もう一つはLive searchを有効化します。だから、あなたのPythonプログラムで、検索のパラメータを設定します。希望するモードと使用しているGrokモデルを入力します。
引用を返してほしい場合は、もう一つの小さなパラメータがあります。引用を返す、それをtrueに設定します。日付を選択したい場合、いつからいつまでか、ここに入力できます、どの日付から始まってどの日付で終わるか。これはとても興味深いです、なぜなら時々非常に奇妙な検索をするからです。
返したいデータの最大制限。たとえば、ここで10の返り値に制限しました。そして、どのタイプのソースが欲しいかを選択できます、ウェブからか、ニュースか、ニュースフィードか、そしていくつかのサイトを除外することもできます。欲しくない場合は、たとえばここに、除外されたサイト、wikipedia.orgを入力します。Wikipediaで検索したくない場合です。
Xに関連する何かの場合、いくつかのリストを制限できます。だから、たとえば、Grokだけにここに制限を設けました。そしてRSSの部分では、RSSパラメータリンクを渡したい場合、試しているRSSのリンクをここに渡すこともできます。ニュースフィードの場合です。
ウェブとニュースの部分では、国を選択できます、なぜなら時々ブラジルのニュースだけが欲しいからです。だから、たとえばここで、ウェブで検索する時は国を使用します。ここではCHを入力しましたが、BRでもよいでしょう。
そして最後に、セキュリティ設定。安全な検索をしたい場合は、safe searchをtrueに設定するだけです、そうでなければfalseのままにします。
だからAPIを活用してください、皆さん。ここで機能させるのは非常に簡単だという利点があります。ここに入って、このコードをコピーして、人工知能に言って、Grokと会話できるインターネットページを作成してもらい、ここでAPIキーを取得する方法からすべてをきちんと説明してもらい、頑張って、ただバイブコーディングでアシスタントを作ってください。
ここでコメントしてください。このGrokのニュースについてどう思うか知りたいです。イーロン・マスクはとても静かです。xAIは最も動かないものですが、少なくとも動いています。そして動いている時は生きているからです。
そして皆さん、ここを見てください。今日、Anthropicがここでいくつかの登場をします。午後1時30分から、Claudeとのコーディング、その後午後3時に、Claudeを次のレベルに、その後午後6時に、明日のAIエージェントの構成要素、そして午後8時にCloud Codeのマスターになる。
だから皆さん、ここの夜のバージョンを見ることをお勧めします。もしかすると私たちがライブをして一緒に見るかもしれません、なぜなら夜の時間帯が最高だからです、皆さん。そうすれば会話でき、そこでうろうろできます。皆もう家にいて、夕食も済ませ、すべて準備ができています。しかし見てみましょう、確約はしません。ここでどう思うかコメントしてください。
大きなニュースが来るでしょうか?Googleが持つ最も興味深いことの一つは、常にOpenAIを引きつけて発表させることです。以前はOpenAIが一日前に行っていましたが、今回OpenAIは一日後に行い、Anthropicも一日後のその日の後に行うことを活用しています。
つまり、これはGoogleが本当にすべての人の多くの期待を集中させ、企業がGoogleが何をするかを知るために注目し、同じ頃に何かをして、少しの視認性を得ようとし、またGoogleの輝きを少し曇らせようとしていることを示しています。
しかし今回、皆さん、Googleは本当に輝きました。Anthropicに関して何が起こるかを見てみましょう、なぜならAnthropicも大きなニュースを持っているからです。一般的に、期待は非常に高いです。何を考えているかコメントしてください。
このようなビデオを見続けるためにチャンネルをサポートしたい場合は、メンバーになってください。メンバーはインテリジェントエージェントの独占ビデオと先行ビデオにアクセスできます。それでは、いいねを押してください。ありがとうございました。


コメント