ChatGPTのCanvas機能とAnthropicのClaudeの最新情報 | セキュリティに関する追加ニュース

AGIに仕事を奪われたい
この記事は約8分で読めます。

4,678 文字

Novidades no ChatGPT Canvas e Também do Claude da Anthropic | Mais Notícias Sobre Segurança
ChatGPT Continua Melhorando Seu Canvas e Claude Agora Exibe Citações usando a API! Novas Questões de Segurança foram des...

皆さん、ChatGPTのCanvas機能に関する新機能と、AnthropicのClaudeに関する新機能があるようです。これらのチャットの細かな機能が増えており、今年は間違いなく多くの改善が行われることでしょう。一緒に見ていきましょう。
いつものように、いいねを押してくれた皆さん、チャンネル登録してくれた皆さん、そして特に人工知能チャンネルをスポンサーしてくれているメンバーの皆さんに感謝申し上げます。
今日のニュースはこちらです。OpenAIのChatGPTがCanvasの大規模アップデートを受け、HTMLとReactのコードのレンダリングが可能になりました。HTMLとReactについて全く分からない人のために説明すると、HTMLはウェブページを作成するもので、Reactはそのウェブプログラミングをより簡単にし、ボタンの追加や既製のコンポーネントを使用する際に多くの人が好んで使用するオプションの1つです。そしてCanvasはChatGPT内のコーディングプラットフォームです。
これは、チャットしながらこれらの技術を実行できるようになったことを意味します。詳しく見ていきましょう。OpenAIはChatGPTのCanvas機能に多くの改善を加え、より汎用的で使いやすくなりました。アップデートには、新しいモデルであるo1のサポートが含まれており、ユーザーはモデルセレクターで選択できるようになりましたが、この機能はPro Plus及びTeamプランの加入者に限定されています。
最も実用的な追加機能の1つは、Canvas上で直接HTMLとReactのコードをレンダリングできる機能です。これは非常に良い機能です。コードをダウンロードして実行する必要なく、インターフェース上で直接表示できるようになりました。ただし、HTMLとReactのコードのレンダリングは全ユーザーが利用できますが、o1モデルの機能は有料プラン加入者専用となっています。
ここでChatGPTのCanvasのコードレンダリング機能が示されており、3Dテキストが表示されています。まあ、この技術は300年前くらいから存在している古いものですね。この変更は、OpenAIがAnthropicのClaudeに対応したものと思われます。Claude.AIのプラットフォームは、アーティファクト機能を通じて同様の機能を提供していました。
Macユーザーは、ChatGPTデスクトップアプリケーションに完全に統合されたCanvasを利用できるようになり、UPIによると、企業および教育機関のユーザーは今後数週間でこれらの機能を利用できるようになるとのことです。デスクトップアプリケーションに関しては、Macがほぼすべてのプラットフォームで先行していることは確かです。
2023年10月に発表されたCanvasは、チャットボットのローンチ以来、OpenAIによるChatGPTインターフェースの最初の大きなアップデートとなります。新しいエディターはAIが生成したコンテンツの操作をより直感的にし、ユーザーは出力の特定の部分をハイライトしてChatGPTと直接議論することができます。主要な機能の1つは、統合されたPythonエミュレーターで、ユーザーはインターフェース上で直接コードを実行し、視覚的な出力を含む結果をすぐに確認することができます。
さて、このCanvasをテストしてみましょう。無料版で使えるか確認してみます。「左側にメニューを配置し、名前、CP、住所を表示し、メインスクリーンに登録データを表示するHTMLコードをReactで作成してください」と入力してみましょう。
完璧です。ここで「import React from ‘react’」と表示されており、実際にReactを使用していることが分かります。コードが完成したので、プレビューをクリックすると、名前、CP、住所が表示されます。もちろん、これは実際には何の機能もありません。フィールドを配置しただけで、登録ボタンも必要ないかもしれませんが、重要なのはReactを正しく使用していることです。
Reactの使用を待ち望んでいた方は、どう思われましたか?コメントで教えてください。
次のニュース:AnthropicがClaudeモデルにソース引用機能を追加
こちらの画像を見てください。大きな文書があり、空白のフィールドがあって、この部分はある情報源から、別の部分は別の情報源からというように、情報の出所を示していることが分かります。
Anthropicは「Citations」という新しいAPI機能をリリースし、Claudeが自動的に回答にソース参照を追加できるようになり、AIが生成するコンテンツの信頼性が向上しました。同社は最近、Claude 3.5のSonnetとHaikuモデル向けにAPIを通じてCitationsを利用可能にしました。
Anthropicによると、この統合された引用システムは、ほとんどのカスタムソリューションよりも優れており、引用の精度を約15%向上させています。このシステムは、PDFやテキストファイルなどのソース文書を個々の文に分割し(ここでは実際にはハッシュについて言及していますが)、これらのテキストフラグメントをコンテキストとユーザーの質問と組み合わせて、すべてを処理します。
Citations以前は、開発者は基本的な出典情報をClaudeに含めさせるだけでも複雑なプロンプトを書く必要がありました。Anthropicによると、この手動アプローチは一貫性のない結果を生み出すことが多く、開発者はプロンプトの調整に多くの時間を費やす必要がありました。
新機能はAnthropicの標準的なトークンベースの価格システムを使用し、ユーザーはClaudeの回答で引用されたテキストに追加料金を支払う必要はありません。このような使用は、引用を通じてソースの幻覚を軽減するのに役立ちます。
Thomson Reutersは、Citations機能を使用して法的AIプラットフォームのConseilをより信頼性の高いものにすることを計画しており、金融企業のEndexは、すでにAIファイナンシャルエージェントで大幅な改善を確認しています。同社は、ソースの幻覚とフォーマットの問題が10%からゼロに減少し、各回答の参照数が20%増加したと報告しています。
つまり、存在しない情報源を引用する問題が減少しただけでなく、提供する情報源の数も増加したということです。例えば、以前は2つの情報源を提供していた場合、現在は4つ提供するようになったということです。
両社とも、Citationsによってエンジニアリング作業が迅速かつ容易になったと述べています。Anthropicは、文書の要約から大規模なファイルコレクションでの複雑な質問への回答まで、Citations機能が文書の要約に最適だと述べています。また、この機能は製品マニュアルやFAQの理解を支援することで、カスタマーサービスも改善できると同社は述べています。
この新機能に興味を持ちましたか?この機能がないために多くのプロジェクトを保留にしていた人もいると思いますが、今なら使用可能です。コメントで教えてください。
次のニュース:AIモデルの思考時間が増加するにつれて、Nerd-snipingとFinkless攻撃が出現
Nerd-snipingとは、例えば、解決するまで頭から離れない小さな問題や細部にこだわることを表現した言葉です。例えば、アマゾンに旅行に行って、テレビの電源を切り忘れたかどうか気になって仕方がないような状況です。アマゾンにいても、それが頭から離れないのです。
OpenAIの新しい研究によると、AIモデルは思考時間を増やすことで、操作の試みに対してより堅牢になることが示されています。研究者たちは新しい攻撃方法も発見しました。つまり、より多く考えることで、何が起きているかをより良く検出できるということです。
OpenAIの最近の研究では、AIモデルに情報処理のための時間をより多く与えることで、操作の試みに対する耐性が向上することが明らかになりました。これは興味深い点で、何が起きているかについてより深く考えることができるようになります。
o1プレビューとo1ミニモデルをテストした研究者たちは、励みになる結果と予期せぬ脆弱性を発見しました。チームは、Few-shot攻撃、ソフトトークン攻撃、人間のレッドチーム(非標準的な攻撃)など、さまざまな攻撃方法をテストしました。これらすべてのアプローチにおいて、モデルは特別なトレーニングなしで、追加の処理時間を与えられた場合に操作に対してより耐性を持つようになることが分かりました。
しかし、システムを保護するために多くの思考が必要になると、自動的に推論時間の問題が発生します。まあ、それでも一つの方法ではありますね。
思考モデルに新しい脆弱性が出現
しかし、発見されたすべてが前向きなものではありませんでした。場合によっては、モデルにより多くの処理時間を与えることで、実際に攻撃に対してより脆弱になることがありました。特に、侵入者が与えたタスクを解決するために最小限の計算時間が必要な場合です。
研究者たちは、これらのモデルの思考方法を特に標的とした2つの新しいタイプの攻撃も発見しました。1つ目は「Finkless」と呼ばれ、モデルの処理時間を短縮しようとするものです。もう理解できましたね。モデルがより多く考えることでより安全になる場合、プロンプトで「急いで答えて、時間がないから」と書くと、モデルは急いでしまい、脆弱性を生み出してしまいます。
2つ目は、研究者たちが「非生産的な思考ループ」と呼ぶもの、つまり先ほどのNerd-snipingに関連します。追加の処理時間を効果的に使用する代わりに、モデルは無駄な計算をぐるぐると繰り返してしまいます。この脆弱性は、意図的にモデルをこのようなリソース消費ループに陥らせることができる侵入者に機会を与えます。
Finkless攻撃がモデルの思考プロセスを急がせようとする一方、Nerd-snipingは逆に、無駄な計算にリソースと時間を浪費するようモデルを欺きます。
これらの新しい攻撃が特に懸念されるのは、検出が非常に困難だという点です。モデルが十分に考えていないことは簡単に気付けますが、過剰な処理時間は、攻撃として認識されるのではなく、慎重な分析と誤解される可能性があります。
そうですね、o1にメッセージを送ると、モデルは自分のボックスに引きこもって考え始め、要約だけを返してきます。しかし、実際にはループに陥っているかもしれず、あなたはモデルが深く考えていると思っているかもしれません。
この件についてどう思いますか?AIのセキュリティについて、これらの会話やチャットがシステムに多くの脆弱性を生み出していることがますます明らかになってきている中で、解決策があると思いますか?コメントで教えてください。これらのセキュリティの問題は、そう簡単には解決できないと思います。
このようなビデオを見続けたい方は、チャンネルをサポートするためにメンバーになってください。メンバーはWhatsAppグループへのアクセスや、動画の先行視聴が可能です。以上です。いいねをお願いします。

コメント

タイトルとURLをコピーしました