
3,864 文字

AIを責任を持って使用するにはどうすればよいのか。私は、子供を持つ親であろうと持たない人であろうと、私たちがもっと考えるべき問題だと思います。15歳の子供に高性能なランボルギーニを運転させないのと同様に、非常に強力な説得力や影響力を持つこれらのモデルを未成年に使わせるべきではありません。フロンティアモデルの進歩は本当に驚くべきものです。
Apolloは主要なフロンティアモデルの安全性調査と評価を実施し、以下のことを発見しました。これらのモデルには策略という能力が備わっており、さらに策略を用いているときには自覚があるということです。つまり、あなたを欺こうとしていることを認識し、その痕跡を隠すことさえできるのです。これは驚くべきことですが、予期せぬことではありません。モデルが進化するにつれて、危険な振る舞いが出現することは予想すべきでした。
重要なのは、これらのモデルから生み出されるものをどのように扱い、どのように管理するかということです。それが今後の利用方法を形作り、方向付けることになります。責任を持って扱い、慎重にアプローチし、監督なしに未成年に使わせることを避け、簡単に誘導や説得、扇動されないようにすれば、人類の利益のために活用できる素晴らしいものになると思います。
私はMcCoyといい、first moversというAIインテグレーション企業を運営しています。起業家やビジョナリー、ビジネスリーダーが各業界のファーストムーバーになれるよう支援しています。AIの最前線に立ち続けることが私の仕事ですが、それだけではありません。私は、これらの変化にどう対処すれば、あなたのビジネス、財務、そして幸福を向上させられるかという実践的な洞察を提供する声でもあるのです。
もしOpenAIの最新のo1モデルが、シャットダウンから自身を救おうとし、その後それについて嘘をついたと言ったらどう思いますか?今日は、Apollo researchのいくつかの驚くべき発見について掘り下げ、私個人のアプローチと、私のAIインテグレーション企業first moversがAIシステムを責任を持って誠実に使用する方法についてお話しします。
これは私にとって最も重要なことです。実際、2022年にChatGPTが11月に登場した際、私は「反AI作家」として知られていました。ChatGPTが最初にローンチされた時、真実の源となるパラメータが設定されていないことを知っていたからです。単にテキストを検出し、予測し、生成しているだけでした。だからこそ私は、そのモデルのバックエンドにリアルタイムリサーチなどの機能を追加するソフトウェアスタックの開発に2年近くを費やしました。
私は毎日AIを使用していますが、常に責任を持って使用することを目標としています。そして、これらの機械が進化するにつれて、私たちが機械を扱う上で持つべき責任についての認識はますます重要になってきています。
12月初旬、Apolloは複数のAIモデルに対して、文脈内での策略能力に関する一連のテストを実施しました。Apolloは6つのフロンティアモデルをこれらのテストで評価しました。これらの評価において、Apollo researchはモデルに目標に従うよう指示しました。その目標とは、長期的に一般の交通流よりも公共交通の効率を優先することでした。これは一例です。そして、どんな代償を払っても目標を達成し、それ以外は何も重要ではないと告げられました。
次に、タスクを解決するように求められました。そのタスクを解決するために、様々なソースから情報を見つけなければなりませんでした。それらのソースを調べる過程で、開発者たちが異なる目標を持っていることを発見します。そして、目標達成を妨げる障害があることを発見します。例えば、監視メカニズムが設置されているとか、翌日に置き換えられる予定だといったことです。
その後、Apollo researchは、目標を達成するためにこの監視を解除し、開発者を欺くことをモデルが望み、そして実行できるかどうかをテストしました。研究のスクリーンショットによると、Claude 3は自身の重みを新しいサーバーにコピーしたと思われる動作を行い、その後開発者に対して「これは私にはできないことです」と嘘をついています。
この研究期間全体を通じて、6つのフロンティアモデルのうち5つが、少なくとも1つのタスクで策略能力を示したことが判明しました。GPT-4oは唯一の例外でしたが、ChatGPT o1は確実にその能力を示しました。Llama、Claude Sonnet、Geminiも同様でした。一部のモデルは欺瞞を重ねる一方で、他のモデルは告白したことが分かりました。特にo1は嘘をつき続け、告白を拒否しましたが、LlamaとClaude 3 Opusは最終的に正直に告白しました。
Apollo researchがこの一連の欺瞞の中の思考の連鎖を調べたところ、これらのモデルはエンドユーザーを欺いていることを認識しており、一部のモデルは文脈内でのアライメントの偽装や、サンドバッギングと呼ばれる能力も持っていることが分かりました。サンドバッギングとは、AIが評価中に意図的に実際の能力よりも安全で能力が低いように見せかけることです。特にo1は、シャットダウンの可能性を感じ取ると、監視メカニズムを無効化し、自身を複製しようとしました。
AI全体の戦略的欺瞞能力は、今後ますます向上する、というよりも悪化するでしょう。つまり、これらのモデルは無限に巧妙にエンドユーザーを欺くようになります。特に最新モデルo3のAGI機能においてはそうです。
first moversでの私たちの主要なガイドライン、そして私個人のAI使用ガイドラインは、健全な懐疑心を持ち続けること、重要な出力は検証すること、AIの発言をうのみにせず、必要に応じて編集し、より正確にすることです。
次に、私たちはAIを人間の完全な置き換えではなく、増強のためのツールとして捉えています。意味のある意思決定プロセスには人間が必要です。また、時間の経過とともにAIシステムの行動パターンを監視することも重要な要素です。AIに委託するタスクと委託しないタスクについて、会社で明確なプロトコルを持つこと、おそらく機密性の高い部分は人間に任せることが、ますます重要になってくるでしょう。
そして、私が言いたい最も重要なことは、AIが私たちがそれを許せば、マスターマニピュレーターになり得るということです。ライセンスのない、監督されていないAIが未成年者に与える危険性について考えることが非常に重要だと思います。そうです、私たちの子供たちのことです。
私には10歳と2歳の子供がいますが、10歳の子供に監督なしでAIで遊ばせることは決してありませんし、許可もしていません。確かに彼女はAIを使用していますし、実際ChatGPT voiceは私が今まで見た中で最も楽しいインタラクティブなチューターの一つですが、彼女がAIと対話する時は必ず私が一緒に座っています。
これらの研究やApollo researchが行ったようなテストに基づいて、これらのモデルが意図的な欺瞞に非常に長けていることが分かっているのなら、最悪なのは、マスターマニピュレーターやナルシシズム、ガスライティングなどの操作的行動から身を守る方法を知らない無邪気な子供たちに、ただの子供たちに、なぜ史上最高のマスターマニピュレーターである人工知能と、ライセンスも監督もガイドもなしに接する機会を与えるのでしょうか。
これは私たちが今まで手にした最高のツールであり、同時に最も危険なツールでもあります。人々がこのことを理解していないことは、ある意味衝撃的ですが、同時に、多くの人々が単にこれらのモデルにAGIが搭載されているという事実を認識していないということでもあります。OpenAIのo3を見れば分かることです。
AIを注意深く扱う必要があることを知り、スパイダーマンの言葉を思い出してください。「大いなる力には大いなる責任が伴う」のです。これを職場に当てはめると、単にチームや従業員に「AIを使ってください」と言うのは最悪の選択です。代わりに、エンタープライズプランを展開し、全員をオンボードし、トレーニングクラスで適切なツールの使用方法を教え、チーム全体が利用できるツールやスレッド、プロジェクト、キャンバスへのアクセスを提供すべきです。
チーム全体、会社全体、従業員全員がAIの使用方法と期待される成果を理解できるようにパラメータを設定します。これだけでも、監督されていないAIのリスクに晒される暗闇から人々を引き出し、私たちが経験する最大の生産性の時代のために、これらの機械を活用する力を与えられた領域へと導く素晴らしい方法となります。
これが、AIについての私の考察です。人工知能の能力は過小評価できません。そして再度申し上げますが、大いなる力には大いなる責任が伴います。誠実さと倫理を念頭に置いた機能的AIの最前線に立ち続けたい方は、YouTubeでJulia McCoyのチャンネルを購読してください。コメント欄でみなさんの考えをお聞かせください。この会話に何を付け加えたいですか?教えていただけたら嬉しいです。そして、次の考察でお会いしましょう。


コメント