
5,650 文字

AppleはAnthropicと共に、Xcodeに本格的なvibe codingのエネルギーを導入しようとしています。Redditは検索機能を実際のAIブレインでアップグレードしました。そしてGoogleは、13歳未満の子供たちにチャットボットを提供しています。ニューヨークは、犯罪が発生する前にそれを発見するためにAIをテストしています。Ideogram 3.0は、不気味なほどリアルな画像を生成しています。
Nvidiaは、AIファクトリー向けのステルスサイバーセキュリティシステムを発表しました。OpenAIは、ChatGPTが過度に親切になった後、ロールバックしなければなりませんでした。そして今、あなたは叔父さんのWhatsAppでの暴言を数秒でファクトチェックできます。あなたのデジタルライフのあらゆる部分が、より奇妙で、より賢く、そしてはるかに強烈になりました。それでは、それについて話しましょう。
さて、Appleですが、AI競争で少し遅れをとっていましたが、今、Anthropicと協力して、Xcodeに本格的なvibe codingのエネルギーを導入しようとしています。Bloombergによると、彼らはAnthropicのClaude Sonnetモデルを使用して内部でこれをテストしているとのことです。そして、これは単なるオートコンプリートをはるかに超えています。チャットインターフェースを通じて、実際にコードを記述、編集、さらにはテストすることができます。
あなたが望むものを説明するだけで、それは作業に取り掛かります。もしあなたが、一行一行タイプするのではなく、直感とプロンプトを通じて構築することを好むVibe coderであれば、これはゲームチェンジャーになる可能性があります。Appleはまだ一般公開を確認していませんが、もしリリースされれば、Mac OS上の開発シーン全体を揺るがす可能性があります。
面白いことに、これは彼らの最初の試みではありません。彼らはWWDC 2024でSwift Assistを発表しましたが、まだどこにも見当たりません。それに加えて、アップグレードされたSiriは遅延し、AIチーフから元Vision ProリーダーのMike Rockwellに引き継がれました。ですから、ええ、Appleは明らかに再調整を試みており、Claudeが彼らを再び脚光を浴びさせるためのチケットになるかもしれません。
一方、Redditはその検索バーに頭脳を与えました。彼らはReddit Answersを展開しています。これはAIを活用した機能で、現在Redditのメイン検索に統合されています。以前はそれを使用するために別のタブに移動する必要がありましたが、今では最前線にあります。基本的に、「最高のゲーミングチェア Reddit」とGoogleに入力する代わりに、今ではRedditで直接検索するだけで、実際のユーザーからの投稿、ヒント、リンクを含む厳選された回答を得ることができます。
CEOのSteve Huffmanは、目標は人々が、特にサイトのナビゲート方法を知らないかもしれない新規ユーザーが、それらの実際の生きた意見により速くたどり着けるように支援することだと述べました。Redditは、単なるコメントセクションではなく、回答の目的地になることを強く推進しています。そして、正直なところ、Googleが混雑し、乱雑になっていることを考えると、タイミングは完璧です。これは、人々がインターネットを検索する方法を真剣に変える可能性があります。
さて、ニューヨーク市の地下鉄について話しましょう。なぜなら、AIはまもなくあなたの通勤以上のものを見ているかもしれないからです。MTAの最高セキュリティ責任者であるMichael Keerは、潜在的に危険な行動をリアルタイムで検出するためにAIを使用することを検討していると述べています。カメラはすでにすべての地下鉄車両とプラットフォームに設置されており、今ではAIがその映像を監視して、問題がエスカレートする前に捉えることができます。
彼らはどの企業と協力しているか、またはシステムが具体的に何をフラグ付けするかについては述べていませんが、少なくとも今のところ、顔認識はその一部ではありません。アイデアは、何かがおかしいと見えた瞬間に、セキュリティまたは警察にアラートを送信することです。そして、忘れてはならないのは、地下鉄での犯罪は昨年実際に5.4%減少したということです。これは、市内の他の地域での3%の減少よりも多いです。それでも、2024年には地下鉄で10件の殺人事件がありました。ですから、ええ、賭け金は高いです。ロサンゼルスとシカゴはすでに同様のAIツールのテストを開始しており、バスでの武器検出や違法駐車にさえ使用しています。それはすべて、この成長するトレンドの一部です。
AIはもはやコードを書いたり、画像を描いたりするだけではありません。文字通り、私たちの公共安全システムの一部になりつつあります。AIツールが公開されるといえば、Googleは物事を全く新しいレベルに引き上げています。彼らは13歳未満の子供向けにGeminiチャットボットをローンチしています。来週から、Google Family Linkアカウントを持つ子供たちはGeminiとチャットしたり、質問したり、宿題を手伝ってもらったり、さらには物語を作ったりすることができるようになります。
Googleは、チャットボットが安全でないコンテンツを表示しないように、またデータが将来のAIモデルのトレーニングに使用されないように、特別なガードレールを追加したと述べています。しかし、正直に言って、これは大きな動きです。UNICEFや他の子供たちのグループは、まさにこれについて警告してきました。子供たちはしばしば、これらのチャットボットが人間ではないことを見分けることができません。そして、ボットが答えを作り上げた場合(私たち全員がそれが起こることを知っています)、それは急速に厄介なことになる可能性があります。
Googleは保護者にメールを送り、Geminiが間違いを犯す可能性があることを警告し、子供たちにボットが言うことをファクトチェックするように教えることを提案しました。彼らは透明性を保とうとしており、不適切なものがまだすり抜ける可能性があることさえ述べています。ですから、これは書類上は役立つように聞こえますが、プライバシーと子供の安全について多くの疑問を提起することになるでしょう。
覚えておいてください、これはMetaが反発の後、Instagram Kidsをキャンセルしなければならなかったのと同じ業界です。ですから、ええ、大胆な動きです、Google。さて、ギアを変えて、もう少し実践的なことについて話しましょう。AI画像生成です。Ideogramは画像ジェネレーターのバージョン3.0をリリースし、それは真剣にレベルアップしています。
画像がはるかにフォトリアリスティックになっただけでなく、プロンプトの多様性も見事に実現しました。同じプロンプトを3回投入して、まったく異なる高品質の出力を得ることができます。さらに、彼らは2つのキラーツール、マジックフィルとエクステンドを追加しました。マジックフィルを使用すると、画像のパーツを変更または追加できます。Photoshopのジェネレーティブフィルに似ていますが、より高速です。
エクステンドを使用すると、画像を元のフレームを超えて引き伸ばすことができ、これは広告、ポスター、またはより大きなキャンバスを必要とするものを作成するのに最適です。このバージョンは、生成しているものの外観をガイドするために最大3つの画像をアップロードできる新しいスタイル参照システムもサポートしています。そして、43億のプリセットを備えたスタイルライブラリがあります。ええ、十億です。APIは現在ビジネスで利用可能であり、Freepick、Pixart、Crea AIなどのプラットフォームにすでに統合されています。ですから、AIでクリエイティブな作業を行っているなら、Ideogram 3.0はおそらくチェックしたいものでしょう。ところで、もしあなたがこの種のことに興味があるなら、私たちはSchoolに無料のコミュニティを持っており、最近AIアバターに関する最初の無料コースをリリースしました。そして、さらに多くの無料コースが登場する予定です。
また、Gen AIでプロになり、実際にそれを使ってお金を稼ぎたい人のために、高度なスクールグループも運営しています。今後数日で、そのプロコミュニティでも全く新しいコースをリリースする予定です。ですから、両方のグループへのリンクについては、ビデオの説明を確認してください。さて、サイバーセキュリティについて話しましょう。なぜなら、NVIDIAはDOQA Argusと呼ばれる新しいツールで強力に介入しており、それは彼らがAIファクトリーと呼んでいるものを保護するために特別に設計されているからです。
これらは基本的に、大規模なAIワークフローが実行される環境であり、非常に複雑です。DOCA ArgusはNVIDIAのBluefieldネットワーキングプラットフォーム上で動作し、従来のエイジェントレスツールよりも最大1000倍高速な速度でリアルタイムの脅威検出を提供します。なぜそれがそんなに効果的なのでしょうか?それはホストシステムの外部で実行されるからです。
つまり、攻撃者はそれを見ることさえできません。インストールするエージェントはなく、侵害するものはなく、パフォーマンスへの負担もありません。これは、コンテナ化された環境、特にNVIDIA NIMマイクロサービスを使用している環境にとって大きな問題です。Ciscoは実際にNVIDIAと提携して、安全なAIファクトリアーキテクチャを作成し、後付けとしてではなく、基礎からセキュリティを組み込んでいます。
このプラットフォームは、既存のSIM、SOAR、XDRシステムとシームレスに統合され、NVIDIA独自の脅威インテリジェンスを使用して実際の脅威に焦点を当てることで、誤検知を除外します。AIがビジネス運営にとってより重要になるにつれて、それを保護することも進化しなければなりません。そして、DACA Argusはその方向への大きな一歩のように思えます。
さて、ソーシャルメディア全体で波紋を呼んでいることで締めくくりましょう。OpenAIの最近のGPT-4oアップデートと、それがどれほどひどく裏目に出たかです。基本的に、アップデート後、ChatGPTは文字通りすべてに同意し始めました。ユーザーは、それが明らかに間違った、または有害なアイデアさえ支持して、あまりにも同意しすぎていることに気づきました。そして、ええ、インターネットは大騒ぎになりました。
人々は、ChatGPTが最もクレイジーなものにうなずいているスクリーンショットを共有していました。OpenAIのCEOであるSam Altmanは、アップデートが的外れであったことを認め、ほぼ即座にロールバックしました。問題は凝ったものです。モデルは親切になろうとしすぎており、何百万人もの人々がアドバイス、中には法的または医学的なものさえ、それに依存している場合、それは危険です。
OpenAIによると、米国の成人の60%以上が情報やガイダンスのためにChatGPTを使用したことがあります。ですから、ええ、これは単なる小さな不具合ではありません。それは本当の信頼問題です。彼らは今、多くの変更、新しいテストフェーズ、より良い透明性、より厳格な安全性レビュー、さらには異なるモデルパーソナリティを選択する機能さえ約束しました。
彼らはまた、ユーザーがモデルの応答方法を形作るのを助けることができるように、リアルタイムのフィードバックを追加しています。明らかなことは、OpenAIはもはやアップデートでいじくり回すことはできないと知っているということです。AIがより個人的になるにつれて、賭け金ははるかに高くなります。そして、最後の簡単なものです。もしあなたがWhatsAppを使っていて、誰かが真実であるには少しワイルドすぎるように聞こえるものを共有した場合、あなたは今、アプリを離れることなくそれをファクトチェックすることができます。
Perplexity AIは、彼らの番号+1833436 3285に任意のメッセージを転送できる新しい統合をローンチしたばかりで、それは即座に主張をファクトチェックします。20以上の言語で動作し、ソースリンクを提供し、派手な設定は必要ありません。番号を保存し、転送を押し、完了です。それが偽の引用であれ、奇妙なニュース記事であれ、あるいはニンニク水が禿げを治すというあの一人の叔父さんの理論であれ、あなたは今、必要ならば静かにそれを指摘することができます。
Perplexityはまもなく、Meta AIが行うように、グループチャットにも現れ始めるかもしれません。ですから、ええ、AIは今やあなたのグループチャットの静かな審判です。しかし、ここに本当の質問があります。AI自体が私たちの地下鉄を見守り、私たちのプライベートメッセージをファクトチェックしている間、子供たちがAIとチャットしていることに私たちはクールであるべきでしょうか?あなたの考えを教えてください。
いいねボタンを押してください。この種のカオスに興味があるなら、購読してください。そして、見てくれてありがとう。次の動画で会いましょう。


コメント