
4,783 文字

これがGenesis Projectです。実際にこれが何であり、どういう意味を持つのか、言葉で表現するのは少し難しいところです。Genesisは生成AIモデルで、大規模言語モデルや画像・動画モデルに似ていますが、生成するものが異なります。これは物理エンジンを生成し、4次元の動的な世界を生み出すことができ、一般的なロボット工学や物理的AIアプリケーションのための物理シミュレーションプラットフォームによって動作します。基本的に、完全な世界のシミュレーションに非常に近いものについて話しているのです。
AIが台頭する中、これをあなたの信条としてください。ロボットに仕事をさせましょう。AI関連ニュースを常にキャッチするためにご登録ください。
興味深いことに、Genesisの物理エンジンは純粋なPythonで開発されています。Pythonは特にAIに関して非常に人気のあるプログラミング言語です。しかし、既存のGPUアクセラレーテッドスタックであるIsaac Gymと比べて10倍から80倍も高速です。Isaac Gymについては既に話しましたが、これはNVIDIAがロボットをシミュレーションで訓練するために使用しているもので、NVIDIAのグラフィックチップであるGPUによって動作しています。
NVIDIAのシミュレーションの中には、現実世界の1万倍もの速度でシミュレーションを提供できると謳うものがありますが、それでも現実世界の物理法則は全て保持しています。Genesisは現実世界の43万倍の速度でシミュレーションを実現し、単一のRTX 4090で、わずか26秒で現実世界に転用可能なロボットの運動方針を学習させることができます。RTX 4090は私が現在このビデオを録画しているコンピュータに搭載しているものです。決して安くはありませんが、一般消費者でも入手可能な家庭用ハードウェアです。
つまり、私の家庭用コンピュータでシミュレーションを実行し、例えばロボットに歩行を教えることができるということです。彼らが言うところの「ロボットの運動方針」は、30秒以内にそのロボットに歩行を教えるシミュレーションを実行できます。その後、それらのスキルを実際の物理的なロボットにコピー&ペーストして、現実世界で歩けるようにすることができます。
Genesisは現実世界の物理法則を完璧にシミュレートするため、ロボットがそのシミュレーション内で歩行を学習すれば、現実世界でも歩行するスキルを持っていることになります。ちなみに、これはオープンソースなので、実際にあなたのコンピュータで無料で実行することができます。
Genesisは単なる一つのものではありません。彼らが呼ぶところの「統合シミュレーションフレームワーク」で、最高レベルのリアリズムを持って仮想領域で物理世界全体をシミュレートできる、様々な最先端の物理ソルバーを組み合わせてゼロから作られたものです。彼らの目標は、オールインワンの汎用データエンジンを作ることです。それは物理的な世界、様々なデータモード、環境、カメラの動き、ロボットのタスク提案、報酬関数、ロボットの方針、キャラクターの動き、完全にインタラクティブな3Dシーンなどを自律的に作り出すことができます。
これら全ては、ロボットのための完全に自動化されたデータ生成を作り出す目的で行われています。基本的に、ロボットが走り回り、動き回り、障害物を避け、物を拾い上げ、ドアを開けるなど、様々なことを学習するための完全な世界です。
NVIDIAは、ロボットシミュレーションのためにグラフィック処理ユニット(GPU)、つまりNVIDIAカードを使用するGPUアクセラレーションの分野で多くの画期的な成果を上げました。CPU(中央処理装置)ベースのシミュレーションと比べて、シミュレーション速度を1桁以上向上させました。基本的なCPUで可能だったことを、10倍あるいは100倍近く速くしたと考えることができます。
このGenesisモデルは、シミュレーション精度を損なうことなく、さらに1桁速度を押し上げます。つまり、シミュレーションの精度を下げることなく、シミュレーション速度を次のレベルに引き上げることができるのです。
Genesisは複数の物理ソルバー、異なる物理モデルの組み合わせであるため、広範な材料をシミュレートすることができます。ボウリングボールのような剛体、標準的なロボットのような関節体だけでなく、布、液体、変形可能な物体、様々な薄殻材料、弾性体や塑性体もシミュレートできます。また興味深いことに、Genesisは軟筋肉や軟ロボット、そして剛体ロボットとの相互作用に対して包括的なサポートを提供する初めてのプラットフォームです。
これは大きなブレークスルーと見なされています。軟ロボットや軟筋肉を作ることができれば、シミュレートや動作させるのは非常に難しいとされてきましたが、より広範な物を作ることができるようになります。そして、それはチャットボットの動作方法と非常によく似ています。単にシミュレートしたいものを入力するだけで、それを実行してくれます。
生成エージェントは自律的に様々なロボットタスクを提案します。掃除、物の移動、床から物を拾い上げるなどです。環境を提供し、レイアウトでデザインし、報酬関数を書きます。つまり、ロボットに特定の行動をさせたい場合のコードや、正しく行動した時に褒める、あるいは壊れやすいアイテムを落とした時にペナルティを与えるなどです。これは最終的に、ロボットの方針の自動生成につながります。ロボットの方針とは、ロボットがまずシミュレーションで、そして現実世界で実行できるスキルのことです。
それだけでなく、Genesisはキャラクターの動きに関して多くのことができます。走る、踊る、戦う、よろめくなど、ほぼビデオゲームのようなキャラクターを作ることができます。このロボットアームを見てみると、物体を操作したり、何かを掴んだり、拾い上げたりするために折り畳むことができる方法が多くあります。全ての関節角度を計算する方法は逆運動学(IK)と呼ばれ、簡単なタスクではありません。
ここでGenesisのGPU並列化IKソルバーを見ることができます。つまり、そのアームが全ての関節に沿ってどのように折り畳まれるべきかの計算です。2ミリ秒以内に10,000本のアームの計算を同時に解くことができます。そして繰り返しになりますが、これは一般消費者向けハードウェアであるRTX 4090上での話です。
ナッツとボルト、あるいは互いを駆動する複数の歯車のような、より複雑な形状が相互作用する非凸衝突処理もネイティブにサポートしています。そしてここに、Genesisで作られた可愛らしいインタラクティブな物理テトリスゲームがあります。テトリスのピースはゼリーで作られているようです。
ご覧の通り、ここには多くのことが起きています。まず第一に、高度に正確で精密な物理を持つ4次元の動的な物理世界全体を作り出しています。多くの異なる形状、サイズ、材料の挙動にわたる非常に多様な物理です。それだけでなく、これらの物体のシミュレーションやロボットの訓練のための視覚データ収集、さらにはこれらのロボット訓練セッションを自律的に作成する一歩を踏み出すための非常に正確なカメラモーションもあります。
このシミュレーションは、人間の介入をあまり必要とせずにロボットを訓練するためのジャングルジムを作り出します。以前のビデオでも取り上げましたが、この「シムトゥリアル」(シミュレーションから現実世界へ)という考え方について、多くの企業や研究機関が大きな成功を収めています。
ロボットをシミュレーションで訓練することで、実生活よりもはるかに速く、安く、スケーラブルにこれらのスキル、つまりロボットの方針を作り出すことができます。電気代やパーツの交換、摩耗について心配する必要がなく、Isaac Gymの場合は現実世界の1万倍、Genesisの場合は約50万倍の速さでシミュレーションを実行できるようです。
これらのロボットをシミュレーションで訓練すると、このシムトゥリアル、つまりシミュレーションから現実世界への知識の移転は、かなりうまく機能する傾向にあることがわかっています。例えば、Google DeepMindの研究者たちが話していた一つのことは、シミュレーションでより混沌とした雰囲気を作り出すことです。現実世界での潜在的な変動性に対応するためにランダムな要素を加えています。
現実世界では、床の摩擦レベルが異なる場合があり、ランダムな突風があるかもしれません。ロボットの片手の配線が少し電流を通しにくくなっているかもしれず、それは生成できる力が少し小さいことを意味します。そのような小さなことがシミュレーションに加えられています。これはGoogle DeepMindからのものですが、他社も恐らく同様のトレーニング戦術を使用しているでしょう。
しかし、それが意味するのは、その知識がシミュレーションから現実世界に移された時、ロボットはかなり堅牢で、かなり機敏である傾向があるということです。様々な滑りや転倒から回復できる傾向があります。足場を失っても、反応し、適応し、それから回復する方法を知っています。
シムトゥリアルのポリシー移転は、バック転をするロボット、椅子を引きずり回したり、適切な場所に椅子を置いたりできるロボット、そして最近見られる他の多くの行動を作り出すことができます。
明らかにこれには無限の応用可能性があります。様々なロボット、実体化AIの訓練だけでなく、工場や車、ロボット、基本的に動くものは何でもこのようなものを使って自動化できるからです。これがオープンソースで、RTX 4090で実行できるということは、これを実行できる十分に強力なコンピュータを持っているほとんどの人が家で実行できるということを意味します。
これは次世代のロボット工学に携わる人々、専門の研究者だけでなく、愛好家にとっても多くのドアを開くことになるでしょう。私たちは今、ロボット工学の進歩において、数千ドルを decent なコンピュータに投資できる人なら誰でも、無料で好きな形のファクトリーでロボットや実体化AIの訓練を始められるポイントに到達したのです。
家の掃除、植物への水やり、あるいは24機のドローンが地上から離陸して一緒にフリップを行うなど、どんなタスクでも完了させることができます。可能性は無限大です。
これについてどう思いますか?これは刺激的ですか、それとも少し怖いですか?ロボットの訓練のためのこのようなオープンソースシミュレーションをサポートしますか?潜在的な落とし穴や危険があると思いますか?コメントで教えてください。
Twitterの投稿は何百万回も閲覧され、多くの関心を集めています。GitHubでこれをインストールし、何ができるか試してみる人が多くいるでしょう。私たちは今、AIレボリューションの真っ只中にいて、次の大きな波はロボットレボリューションになるでしょう。
すでに、そんなに高価ではない、数千ドルから数万ドル程度のロボットキットを手に入れることができ、今年のような状況で訓練することができ、特定のタスクの訓練が終わったら、メールや写真を共有するように簡単にそのタスクを共有することができます。
個人的には早速始めるのが待ちきれませんが、皆さんはどう思いますか?最後までご視聴いただき、ありがとうございます。私の名前はWes rthです。また次回お会いしましょう。


コメント