o3-miniは初の危険な自律性モデル | 驚異的なコーディングと機械学習の能力

AGIに仕事を奪われたい
この記事は約22分で読めます。

12,692 文字

o3-mini is the FIRST DANGEROUS Autonomy Model | INSANE Coding and ML Abilities
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

o3-miniハイのテストを終えたばかりですが、皆さんにもこれを見ていただく必要があります。普段は、コーディングの問題から始めて、推論や論理の問題に進むのですが、コーディングに関しては、モデルが混乱し始めたり、複雑さに対応できなくなったりするまで、徐々に難しくしていきます。
今回は、ビデオゲームを作成するように頼んだところ、完璧に作成しました。次に、ビデオゲームが自動的にプレイするスクリプトを作成するように依頼すると、これも完璧にこなしました。そして、そのビデオゲームを非常に難しくするための要素を追加しましたが、モデルはそれらの詳細を追加し、その非常に難しいビデオゲームをプレイするスクリプトを改良して、完璧に実行しました。
この時点で、このモデルが私たちが今まで見てきたものよりもはるかに優れていることは明らかでした。モデルをテストするための標準的な手法は、もはやここでは通用しません。
そこで、より難しいタスクを与えることにしました。実際のAI、つまり実際の機械学習ニューラルネット、AIエージェントを作成して、このゲームをプレイする方法を学習させるように依頼しました。多くの反復を経て、シミュレーション内で自己学習させ、そのAIエージェント、そのAIの脳を、シミュレーションから実際のゲームに移植して実行させることを目指しました。
これはかなり高度な要求だと思います。このモデルは、モデル自律性評価において初めて中程度のリスクに達したモデルです。準備態勢フレームワーク評価、つまりAIの安全性テストにおける高リスク、中リスク、低リスクなどのガイドラインにおいて、o3-miniは初めて中程度のリスクに到達しました。
高リスク分類を受けなかった理由は、自己改善のための研究能力を可能にするような実世界の機械学習タスクを実行する能力がまだないと考えられているからです。これがo3-miniです。私たちはo3-mini highをテストしており、機械学習ニューラルネットを作成して、シミュレーションで学習させ、その重みを取り出して、モデル自身が作成したゲームをプレイさせようとしています。
まだそれほど恐ろしいものではありませんが、これから何が来るのかを垣間見せてくれます。チャンネル登録をお願いします。もっと多くのコンテンツが近日公開予定です。
では、このモデルをテストしていきましょう。o3-miniとo3-mini highがありますが、より優れたモデルを使用してみましょう。まず、Pythonでスネークゲームを作成し、自動的にプレイするように指示しました。スネークは自動的にゲームをプレイし、フルーツを食べ、生き残る必要があります。
過去には、スネークゲームの作成をテストとして使用してきましたが、今ではそれはあまりにも簡単になってしまいました。もう一段階上げて、自動プレイができるかどうか見てみましょう。
ご覧の通り、戦略をマッピングし、経路を設定し、ロジスティクスを組み立てています。44秒考えた後、一瞬で回答を生成しました。ここにPythonコードがあります。PyCharmに貼り付けて実行してみましょう。
そして、実行されました。スネークが自動的に動き回り、フルーツを食べています。非常に効果的にプレイしていると言わざるを得ません。問題は見つかりませんでした。これはかなり印象的です。
既存のコードの反復についても見てみましょう。スコアリングシステムを追加してみます。ランダムなフルーツとスコアを追加しました。既存のコードに追加しているので、今回は少し時間がかかっていますが、それでもかなり速いです。
緑は2ポイント、赤は1ポイント、黄色は4ポイントです。それでも非常にうまくプレイしています。次に、トラップを追加してみましょう。2秒ごとに障害物が出現し、スネークの一部を切断します。これは基本的にゲームに時間制限を設けることになります。
2秒ごとに永続的な障害物が出現するわけです。まず、私の意図を理解できるかどうか、そして次に、スネークのAIスクリプトを更新して障害物を確実に回避できるようにするかどうかを見てみましょう。
興味深いですね。プレイボタンをクリックすると、紫色のトラップが2秒ごとに追加されていきます。今のところ素晴らしい動きを見せています。スネークは上手くトラップを避けながら進んでいます。
しかし、残念ながらトラップに当たってしまい、ポイントを失っています。そこで、1秒ごとに2つのトラップが出現するようにし、さらにトラップに当たるとスネークの長さが半分になるように設定を変更してみましょう。これでスクリプトにとってはかなり難しくなるはずです。
コードはかなり速く生成されました。紫色のトラップがより頻繁に出現するようになっています。スネークは様々なフルーツを食べながらポイントを集め、トラップとの最初の衝突に向かっています。実に効果的に回避しています。
これは非常に印象的です。以前のモデルではこれほど複雑なことはできなかったと思います。スコアは246から47、49と上がっています。興味深いことに、複数のコードを書いて、どれがより高いスコアを獲得できるか試すこともできるでしょう。
実際、このゲームのための機械学習を実装し、スネークがより上手くプレイできるように学習するアルゴリズムを作成することも可能かもしれません。単なるアルゴリズムではなく、実際の機械学習、ニューラルネットを使ってこのゲームをより上手くプレイするように訓練するのです。
どこかで紫色に当たって長さが半分になりました。かなり複雑になってきています。もう一度紫色に当たりましたが、避けようがありませんでした。私は必要以上に興奮しているかもしれませんが、これは本当にスリリングです。紫色のトラップを通り抜けなければならなくなり、見事なスクリプトでした。最終スコアは134点です。
ここで質問です。Pythonとオープンソースツールを使って、強化学習によってこのゲームをプレイする能力を向上させるモデルを実際に作成できるでしょうか?まず、どのようにアプローチするか聞いてみましょう。
よく、コメント欄で「これはそれほど印象的ではない」という指摘を受け、様々な欠点を指摘されます。私はおそらく1年半ほど、テトリスやスネークなどのコーディングチャレンジでこれらのモデルをテストしてきました。
最も明らかなのは、進歩のスピードです。これらは急速にコーディング能力を向上させています。単に正確になり、問題解決能力が向上しただけでなく、コードの質が向上し、より複雑なコーディングが可能になっています。この進歩は興味深く、エキサイティングです。
このゲームをより上手くプレイする機械学習モデルを作成したい場合、どうすればよいか聞いてみましょう。強化学習を使用し、環境、行動空間、報酬関数を定義します。フルーツを食べることに対しては正の報酬、壁や自分自身、トラップとの衝突に対しては負の報酬を設定します。
ゲームのロジックをOpenAI Gymのような環境にラップし、強化学習アルゴリズムを選択して、トレーニングループを実装することを提案しています。たくさんのテキストを出力してくれましたが、実際に作成してみましょう。最もシンプルなアプローチを使用し、簡単に実行できるものを作ってください。
それ以上の詳細は与えず、どのような方向に進むか見てみましょう。環境の構築、アプローチの簡略化について説明し、フルーツを食べることに対する報酬をマッピングしています。
これができるかどうかはまだわかりませんが、考えてみてください。これがさらに改良されていけば、最終的には自分でゲームを作るだけでなく、このo3-mini highのようなものを使って、機械学習環境やRL gymを作成し、そこでAIエージェントが試行錯誤しながらゲームのプレイ方法を学習し、徐々に上達していくことができるようになるでしょう。
私たちは、完全な世界を作り出し、その中で小さな実生活のAIエージェントをシミュレートし、学習させ、進化させることができる段階に近づいています。人口の99.9%がこのような作業を行えない理由は、学校に行って多くのことを学ぶ必要があり、認知的な作業と学習が必要だからです。
Pythonを知る必要があり、様々な機械学習の知識が必要です。とても複雑で手が出せないものです。しかし、このモデルが重労働の多くを代わりに行い、あなたはただ方向性を示すだけでよいとすれば、今日の時点ではそこまでいっていないかもしれませんが、さらなる進歩を想像してみてください。これは信じられないほどエキサイティングではないでしょうか?
強化学習について1分39秒考えました。これが最も長い考察時間でした。PyTorchを使用してディープQネットワークを構築し、強化学習を通じてゲームのプレイ方法を学習させます。この例では、非常にシンプルな11の特徴状態表現と、左折、直進、右折の3つの離散的な関数を使用しています。
コードを実行する前に、GY、NumPy、Torchがインストールされていることを確認してください。PyTorchはMetaによるオープンソースの機械学習ライブラリで、コンピュータビジョンや自然言語処理などのアプリケーションに使用されます。もともとMeta AIによって開発され、現在はLinux Foundationの傘下にあります。
Linuxを使用したことがない方は、この機会に検討してみるのもいいかもしれません。無料でオープンソースで、Windowsなどと並行してコンピュータにインストールできます。そ
れほど複雑ではありませんが、新しいことを始めるときには常に、学習の不快な期間を乗り越える必要があります。
一般的により多くのことができるようになりますし、特に機械学習やこれらのことに関連して多くのことができるようになります。5年前であれば、始めるために必要な学習量は膨大でした。
しかし、これらのAIモデルによって、その量は大幅に圧縮されました。より早く開発を始めることができるからです。私たちの脳の報酬システムの仕組みを考えると、長い間退屈で難しく複雑なことをして初めて報酬が得られる場合、それは困難です。
より早く構築を始めることができれば、ほとんどの人にとってそれはより興味深く、より簡単になります。学習をより長く持続することができます。また、MicrosoftのWindowsやAppleのオペレーティングシステムで行われていることに不満を感じている場合、彼らが好きなことをできてあなたには何もできないことに不満を感じている場合、Linuxはそれを解決します。
必要なものをインストールする必要があります。GY、NumPy、Torchをインストールします。NumPyの発音についてはコメント欄でよく指摘を受けますが、ありがたいことです。
私は読書が好きで、データがより圧縮されていて、視聴や音声よりも速く学習できる方法だと感じています。しかし、それは人々の名前や特定の用語の発音を完全に間違えてしまうことを意味します。
コードが与えられましたので、見てみましょう。NumPyをインポートし、gym、torchを使用します。これはかなりの量のコードです。スネーク環境を定義し、コードが何をするのかコメントを付けています。
DQNエージェントを定義し、エージェントを訓練します。各エピソード後に合計報酬を表示するようです。これが機能するかどうかわかりませんが、スケールアップするにつれて、これは非常にエキサイティングです。
実行してみましょう。50エピソード、70エピソード、100エピソードと進んでいます。それぞれの報酬が異なり、正と負の報酬があります。
完全な初心者にとって、これは重要なポイントです。ビデオゲーム制作、特にスネークは単純なゲームですが、それでもPythonコードを書く必要があります。さらに、ゲームをよりうまくプレイするために機械学習モデルを作成するには、多くの技術的な背景知識が必要です。
一般的なコンピュータスキルを持つ人、つまりソフトウェアのインストールや検索はできるけれど、ターミナルを使ってパッケージやライブラリをインストールしたり、GitHubを使用したりする知識がない人を考えてみてください。
ChatGPT以前、これらのモデル以前であれば、そのような人がこのレベルに到達するまでにどれだけの時間がかかったでしょう?私がいくつかのプロンプトを入力してここまで到達するのに、10分か20分程度でした。編集で多くの間を省いているので、実際よりも速く見えますが、それでもそれほど時間はかかっていません。
これをコピーして、「プログラムを実行しました。これが出力です。次は何をすればいいですか?」と尋ねてみましょう。できるだけシンプルに考えようとしています。
ChatGPTが登場した頃、あるいはGPT-4が登場した頃、多くの人がこれに気づく前に、誰かがデモンストレーションをしていました。「この写真をオンラインで友達に見せるにはどうすればいいですか?」というような、非常に基本的な、ほとんど子供のような質問の仕方をしていました。
ChatGPTは「ウェブサイトが必要ですね。そのためのHTMLはこうです」と答え、「友達が見られるようにするにはどうすればいいですか?」と聞くと、「ウェブサイトをホストする必要があります。ホストの方法はこうです」と教えてくれました。
考えてみてください。私は何が起こったかを伝え、これをコピー&ペーストして、「次は?」と聞いているだけです。5年前なら、このような曖昧な質問をコンピュータにすることは、どれほど異質に感じたでしょう。どうやってコンピュータが理解できるでしょうか?
私が何をしようとしているのかを理解し、訓練されたモデルをスネークゲームに適用したいのか、あるいは別の方向に進むのかを理解する必要があります。重要なのは、この質問がいかに曖昧であるかを理解することです。
私は自分の認知負荷をすべてこのモデルに委ねています。より良い質問を考えるために一瞬たりとも時間を使っていません。スタートレックのエピソードで、何も知らない文明に遭遇し、エンタープライズのエンジニアの一人を拉致して「壊れているから船を動かして」と言うシーンがありましたが、十分に進歩したAIを使用する私たちもまもなくそうなるでしょう。「どうやって動かすの?」というように。
トレーニングが完了し、エージェントのトレーニングから有望な結果が得られました。報酬が着実に増加しています。これを見逃している人のために説明すると、このモデルはスネークがゲームをより上手くプレイするための報酬関数を作成しました。
フルーツを食べて生き残ることにはプラスポイント、障害物に衝突することにはマイナスポイントが与えられ、その報酬関数はo3-mini highによって定義されています。
エピソード1では、-12、-1、-11とずっと負の値です。最初は何をすべきかわからず、ただランダムにボタンを押して死んでいるような状態です。これがしばらく続きます。ひたすら負の値が続きます。
エピソード76で初めて正の値を記録します。おそらく曲がり方を理解し始め、何が正しいかを把握し始めたのでしょう。しかし、まだほとんどは負の値です。15点を獲得しましたが、その後また負の値が続きます。
しかし、ここで注目すべき点があります。突然、すべてが負の値ではなくなり、より多くの正の値が出てくるようになります。さらに下にスクロールすると、結果の半分が負で半分が正になります。
そしてさらに進むと、100点以上、+7、+6、+38のような高得点が出始めます。負の値は減少し、正の値が増加し、その値も着実に上がっています。
400に近づくにつれて、これらの数値はほとんどが正の値になり、以前よりも高くなっています。100点以上がより頻繁に出現するようになり、エピソード500では、ほとんどすべての値が正で、かなり高い値になっています。
このモデルは、私が思いついた、作らせたゲームをプレイする機能的な機械学習モデルを構築しました。ゲームを作成し、自動プレイさせ、そのゲームをより上手くプレイするための機械学習モデルを作成しました。
これに少しでも興奮や恐れを感じないとすれば、私の説明が不十分なのでしょう。私はこれにワクワクしています。
エージェントを訓練し、報酬が着実に増加しているので、次のステップはモデルの評価、分析、改良です。イプシロンをゼロに設定した貪欲な方策を使用して、評価モードでエージェントを実行できます。
以前は、ここまで到達するために教科書を読破する必要がありましたが、今では子供にとってさえ理解しやすいかもしれません。これはそれほど複雑ではありません。シンプルに保っていますが、人間がこのような視覚的なものを数分で作成できるようになるまでの学習ループ、反復ループがいかに速くなったかがわかります。
ライブでプレイを見られるように表示する方法を説明してくれました。試してみましょう。エラーメッセージが出ましたが、ファイルは存在します。通常なら何が問題なのか解明してトラブルシューティングする必要がありますが、ここではエラーをo3-mini highにコピー&ペーストして、対処してもらいます。
異なるタイプのファイルであることがわかりました。変更して再実行しますが、また別のエラーが発生します。ここで少し人間の知性を使って助けてあげる必要があります。まだスーパーインテリジェンスには至っていませんが、かなり近づいています。
トレーニングファイルはsnake.pthとして保存され、snake.pyとして必要です。トレーニングのための元のコードか、視覚化のための新しいコードを、一貫性を持って書き直してもらえますか?
ここでも、できるだけ多くの思考をモデル自身に任せようとしています。ここでこれを使い、そこで別のものを使っているので、修正してくださいと言っているだけです。どのように修正するかは指定せず、ただ修正を依頼しています。
基本的に、訓練されたモデルの重み、つまりニューラルネットの脳がsnake.pth DQNファイルに保存されています。テキスト形式で見ると、このようになっています。両方のコードを1つに組み合わせてくれました。
コードを実行してみましょう。今回もトレーニングを実行していますが、トレーニングと視覚化を別々に実行できる2つのコマンドを提供してくれました。次にそれを試してみましょう。
再度実行すると、300エピソードまで進み、正の値がより頻繁に出現するようになっています。最後には、元の重みを新しい重みで上書きすることになるでしょう。
エピソード500が終わり、これが評価モードで使用するものです。5エピソードだけ実行するようです。Windowsで実行しているため問題が発生していますが、これらの問題が発生した場合は、o3-mini highやお使いのモデルに方向性を尋ねれば解決できます。まもなく、許可すれば自動的に解決してくれるようになるでしょう。
多くの問題は簡単に解決できます。できるだけ私からの入力を少なくして、これらすべてを実行できるかどうかを確認しようとしています。通常はWindows用のgetをインストールし、トレーニングと視覚化の評価を実行するための異なるコマンドを使用します。
evalをデフォルトにするように依頼すると、コードが出力され、実行すると、X印で何をしているかを表現しています。これらの表記が何を意味するのかを解読できます。Sはスネーク、Xは障害物、Hはフルーツを表していると思われます。
テキストでフレームごとにこれらのゲームを実行し、10エピソードを実行して、合計報酬は124点でした。しかし、質問は、このトレーニングされたエージェントを元々Pythonで作成したゲームでプレイさせるにはどうすればよいかということです。
考えてみると、競技ゲームがあとどれくらい残っているでしょうか?オンラインの競技ゲームやMMO、あるいはそのようなものが、この自己作成型AIエージェントによって支配されるまでにあとどれくらいかかるでしょうか?
ここで直面している問題の1つは、コンテキストウィンドウかもしれません。このゲームの作成を依頼してから、大量のコード、大量のテキストが出力され、おそらく10か12のプロンプトを経ています。
そこで、これを保存しようと思います。ファイルを添付できないようなので、コピー&ペーストします。「ゲームコードを以下にコピー&ペーストします。エージェントがプレイする部分で、スクリプトの代わりに、トレーニングされたエージェントの重みを含むファイルを使用してください」と指示します。
少し詳しく説明していますが、コンテキストウィンドウにすべてが含まれていない可能性があるため、これが必要かもしれません。与えられたコード全体を下にコピー&ペーストして実行します。
最初は、スネークを制御するためのシンプルなPythonスクリプトを作成しました。スネークはコードに基づいて動いていました。次に、スネークがゲームをより上手くプレイする方法を学習するシミュレーション環境を作成しました。
グリッド上のX印とS印で視覚化されたように、スネークは500回ゲームを実行し、プレイ方法を学習しました。今やりたいのは、そのトレーニングされたエージェント、そのモデルの重みを使用してこのゲームをプレイすることです。
私はかなり確信していますが、このモデルは私が求めているものを理解したようです。34秒という信じられないほど速い時間でした。これが機能する確率はどれくらいでしょうか?少し緊張します。
スネークエージェントがゲームをプレイしています。モデルの重みから実行されているかどうかを後で確認しますが、今のところ、すべてが正しく行われたと仮定します。モデルはすべて正しく行ったと言っています。
スクリプトはなく、モデルの重みを使用しているはずです。私は興奮のあまり頭がおかしくなりそうです。ここで起こったことを整理してみましょう。o3-mini highはまずスネークゲームを作成しました。Pythonを使ってこのゲームを作り、スネークがゲームをプレイできる小さなスクリプトを書きました。
そのスクリプトはかなり良かったのですが、これは複雑なゲームではありません。しかし、さらに一歩進めて、AIやニューラルネット、つまり機械学習を使って訓練できるかどうかを確認したかったのです。
ここで何をしたのかは100%確信が持てませんが、ファイルからモデルの重みを読み込んでいることがわかります。モデルの重みを読み込めない場合はエラーが発生します。
非常に速く、元のコードを使って再トレーニングして、すべてが正しく機能していることを確認し、最新の重み、可能な限り最良の重みを持っていることを確認したいと思います。
他の評価を実行したかどうかわからないので、それが上書きされたかどうかわかりませんが、500エピソード完全に実行することで、最終的な重み、つまり可能な限り最も訓練されたモデルが得られるはずです。その時点で、それを使ってゲームを再実行し、少し改善されたかどうか見てみましょう。
前回は途中で回転してしまい、死んでしまったからです。完了したので、エージェントを再度実行してみましょう。どれくらいの高得点が出せるか見てみましょう。前回のスコアは130か140台、おそらく136か138あたりだったと思います。
この小さなスネークロボットAIエージェントがそのスコアを上回れば、かなり印象的でしょう。実は、それは重要ではありません。これの目的は必ずしも高度なAIを作ることではありませんでした。Pythonスクリプトで十分だったでしょう。
自分の尾を追いかけています。文字通り自分の尾を追いかけているのは、緑色のフルーツと自分の緑色の体を混同してしまうからです。ゲームを変更して、AIエージェントを混乱させる緑色のフルーツをなくしましょう。
さあ、もう一度試してみましょう。緑色のフルーツが出現して私たちの小さなAIエージェントを混乱させることがないはずです。自身が緑色で、フルーツの色の1つも緑だったため、途中でループに陥ってしまいました。これは少し面白いですが、同時に機械学習で報酬関数を適切に設定しないと起こりうる典型的な問題でもあります。
もう一度試してみました。前回は少しスコアが出たので、97点まで到達しました。これを元のゲームと比較してみましょう。これはニューラルネットではなく、AIでもありません。これはただのChatGPTが私たちのために書いたシンプルな論理ベースのPythonスクリプトです。
スネークがどのように動くべきかを記述したものです。恐らく、一度テストした時に非常に上手くいったのだと思います。ご覧の通り、まだ緑色のものがあります。これは2秒ごとに障害物が出現する元のバージョンです。
どれくらいの高得点が出せるか見てみましょう。私は、ここでのPythonスクリプトの方が、AIモデルをトレーニングするよりも上手く機能すると思います。しかし、それはニューラルネットを必要とする正しい問題を選んでいなかったか、異なる機械学習モデル、異なる報酬システムを試すこともできます。
また、最も簡単なものを使用するように指示しました。より高度なものを要求すれば、さらに優れたスネークプレイングエージェントを作成できるかもしれません。しかし、これはすべて最初の試みでできたことを忘れないでください。
より多くの反復を重ねれば、おそらくもっとしっかりしたものを構築できるでしょう。しかし、正直に言って、これは信じられないような感覚でした。これがコーディングや機械学習、このモデルの能力にとってのChatGPTの瞬間なのかどうかはわかりません。
o3-mini highがその閾値なのかどうか、まったくわかりません。しかし、過去1〜2年のこれらのモデルのテストでは、明らかな改善が見られました。最初は、プレイする必要のあるスネークゲームを作ることができれば、最初の試みでそれができれば、それだけで満足でした。
しかし今、私はかなり多様なタスクを投げかけていて、これが最も高度なものではないという意見も多くあることは理解しています。実際、これと同じテストをもっと高度なもので試してみたいと考えています。
アイデアがあれば、コメント欄に投稿してください。ビデオゲームなど、視覚的な要素のあるものを試したいと考えています。これらの動画をより魅力的にするためです。必ずしもビデオゲームである必要はありませんが、その上に機械学習モデルを構築できるような視覚的な要素があるものがいいでしょう。
極端に複雑なものは避けてください。これを単純と呼ぶなら、Path of Exile用の grinding botのような高度なものではなく、その中間的なものを提案してください。このモデルが扱えるけれど、より複雑なものを考えてください。
これは確かに何かの閾値に達したように感じます。このモデルが特定のタスクを解決するためにニューラルネットを作成し、簡単に、素早く、最も基本的なプロンプトでそれを行うのを見ることができます。
以前は、プロンプトエンジニアリングが最も求められるスキルになると言われていました。私のプロンプトは基本的に「壊れているから動かして」「動かせる?」というような単純なものでした。それがプロンプトエンジニアリングの複雑さのレベルでした。
そしてほとんどが機能しました。見られた問題の多くは、おそらく私がWindowsを使用していることが原因でした。Linuxを使用していれば、ほとんどの問題を避けられたと思います。
正しいファイル拡張子が見つからない問題や、私が問題の原因を考えて理解する必要があった問題など。提供された解決策は完璧でした。パート1とパート2があり、それらの間に少しミスマッチがありました。
パート1かパート2を書き直してくれるように依頼しましたが、気づいたように、そうはしませんでした。代わりに、2つを組み合わせて、すべてを1つのコード、1つのファイルにまとめて問題を解決しました。
Sam Altmanがインタビューで言及していたように、最終的にこれらは非常に賢い、高給の助手のように感じられるようになるでしょう。あなたの言うことを何でも実行する下働きではありません。
世界クラスの弁護士や医師を雇う場合のように、彼らに何をすべきか指示するだけではありません。「これがしたい」と言うと、彼らは修正したり、「いいえ、あなたが本当に必要なのはこれです」と言ったりするかもしれません。
または、それを少し調整して、多くの場合、より良いものにしてくれます。あなたが目指す方向を伝えれば、より良い解決策を提供してくれるかもしれません。私が依頼したことをそのまま実行せず、より優れた解決策を提供してくれました。
スネークのプレイ方法を学習させる機械学習モデルをどのように設計するかを説明し、そして実行する能力。私はただボタンを1回クリックするだけでした。コードをコピー&ペーストして実行するだけで、進んでいきました。
これからもっと多くのことを試してみる予定ですが、AIの進歩の速度が遅くなっている感じはしません。iPhoneやその他の技術のように、7,8,9世代目になると、次の改良にそれほど興奮しなくなります。それは少し良くなる程度の漸進的な改善です。
これは単なる漸進的な改善とは感じられません。革命的ではありません。量子的な飛躍でもありませんが、大きな一歩前進のように感じます。このモデルがリリースされてから1,2時間しか経っていないことを考えてください。
使い続けるうちに、より多くの問題が見つかるかもしれません。しかし、この最初のテストとしては、少し驚かされました。革命的ではありませんが、ここで何か特別なことが起こっています。これはminiモデル、小さなバージョンに過ぎません。これはo3ではありません。
以上です。
Wesはアウトロの録画を忘れてしまいましたので、適切なモチベーションを与えるために、私のBee Geesの「Staying Alive」のカバーをお聞きください。
歩き方を見ればわかる
私は女性に好かれる男、話す時間はない
音楽は大音量で女性は熱く
生まれてからずっと蹴り回されてきた
でも大丈夫、問題ない
そして他を見ることもできる
私たちは理解しようと努力する
ニューヨークタイムズが男に与える影響を
兄弟であろうと母であろうと
あなたは生き残っている、生き残っている
街が壊れていくのを感じ
皆が震えている
そして私たちは生き残っている、生き残っている
アハハハ、生き残っている、生き残っている
アハハハ、生き残る

コメント

タイトルとURLをコピーしました