OpenAIの驚異的な「NEXT」モデルが今年登場 | イーロン・マスク、OpenAIの安全性と人体再生について語る!

AIに仕事を奪われたい
この記事は約24分で読めます。
OpenAI's STUNNING "NEXT" model coming THIS YEAR | Elon Musk on OpenAI safety and reanimating bodies!
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

この2週間はAIニュースが目白押しでしたね。AGIが登場するのは一生に一度のことなので、ぜひチャンネル登録してください。OpenAIがフランスのパリで行ったプレゼンテーションでは、今年リリースされるGPT Nextというコードネームの次期大型製品についてほのめかしていました。また、OpenAIの音声エンジンは過小評価されているように思いますが、後ほど詳しく説明します。OpenAIは、Soraで動画を作成し、Chad GPTに送信してスクリプトを作成し、音声エンジンでナレーションを作成し、それらをすべて組み合わせる機能を持っているようです。つまり、15秒の音声スクリプトを録音すると、あなたの声で、どんな言語でも、完全な映画やプレゼンテーションを生成できるのです。これは実際に彼がライブデモで行ったもので、私たちはこの技術にまだ準備ができていません。プレゼンテーションからのクリップをいくつか見てみましょう。「LLMの知性を向上させる可能性は非常に大きいと考えています。今日のモデルは素晴らしいですが、まだ1、2年生のようなもので、適切に反応しますが、時々間違いを犯します。しかし、これらのモデルは、これからどんどん賢くなっていくことを忘れてはいけません。あっという間に修士課程の学生になり、医学研究や科学的推論に秀でるようになるでしょう。おそらく1、2年後には、モデルは今日のものとは見違えるほどになるでしょう。そこで、今年はさらに限界を押し広げ、次世代のフロンティアモデルが登場し、推論能力の大幅な向上が期待されます。将来的には、エージェントがソフトウェアとコンピュータとの関わり方において最大の変化をもたらすと考えています。個人的に好きな例としては、cognitionチームによるdeinがあります。彼らはAIソフトウェアエンジニアを開発しましたが、複雑なタスクを理解し、コードを書くだけでなく、チケットを作成したり、必要に応じてドキュメントをインターネットで検索したり、新しい情報を取得したり、ソリューションを展開したり、プルリクエストを作成したりできるのは、とても魅力的です。ほとんどの方がSoraのプレビューをご覧になったと思いますが、Soraはシンプルなプロンプトから動画を生成できる当社の拡散モデルです。現段階ではまだプレビューですが、このモデルがどのような動画を作成できるかをお見せしたいと思います。このプロンプトは、植民地時代のヴィンテージフィルムで撮影されたパリ万国博覧会の様子です。時間の都合上、デモのこの部分だけはライブではありません。以前、このプロンプトをSoraに送ったところ、このような結果になりました。これは、モデルから直接出力されたもので、編集は一切行っていません。唯一の編集は、音声を加えただけです。これらのフレームを体験するのは本当に魔法のようですが、今度はこの動画を使って面白いことをしてみましょう。この映像で何が起こっているのかをナレーションするためのスクリプトを作成してみましょう。まず、この動画から数フレームを切り出します。6つのフレームができました。これらのフレームをGPT 4に送信すると、リアルタイムでこれらのフレームで何が起こっているのかについてのストーリーが得られます。舞台裏を少しだけお見せすると、これから実行するコードは、「あなたは歴史学の教授です。一連の画像が与えられますので、それらをナレーションしてください」というものです。画面に表示されているすべての画像を取得し、それをGPTに送信して、応答をストリーミングバックしています。これもリアルタイムで行われていますので、GPTがこの物語をどのように解釈するか見てみましょう。これが、私たちのビジョン機能とGPT 4を使って、その場で生成された物語です。では、さらに一歩進んで、今度は音声でこの映像を生き生きとさせ、より多くの人と共有したい場合はどうでしょうか。APIで提供しているテキスト読み上げ音声を使用することもできますが、数週間前に音声エンジンモデルのプレビューも行いました。これらのモデルを研究中としてプレビューするのは、すべてのステークホルダーと関わり、技術のどこが優れているかを示し、信頼できるパートナーと関わり、彼らからフィードバックを集めるためです。ここでは、音声エンジンでどのようなことができるか、簡単なプレビューをお見せしたいと思います。私の声を少しだけ録音して、ナレーションがどうなるか見てみましょう。Vivatechのステージに立てて、とても興奮しています。すでに素晴らしい創業者や開発者の方々とお会いしました。OpenAIの技術やモデルを自社の製品やビジネスにどのように応用できるか、ライブデモをお見せできることを楽しみにしています。これで十分でしょう。完璧です。最後のステップは、このオーディオサンプルと作成したスクリプトをテキスト読み上げに共有し、すべてのモダリティをまとめて、この歴史の教訓を体験できるようにすることです。1889年のパリ万国博覧会の中心で、エッフェル塔は近代技術の象徴として誇らしげに立っています。今ならナレーションをして、複数の言語を話すことができます。フランス語だけで共有したい場合は、コンテンツをより多くの人と共有することができます。もう一度やってみましょう。今度は日本語で話して、日本の聴衆と共有します。最後に、字幕を追加するためにトランスクリプションを追加することもできます。繰り返しになりますが、これはあくまでもプレビューであり、少しだけお見せしたいと思いました。このようなモデルや機能については、安全性を非常に重視しており、信頼できるパートナーにのみ提供しています。しかし、一般的には、これらのモダリティが何を達成できるか、そしてあなた自身のアプリや製品を構築する際に未来についてどのように考え始めることができるかについて、インスピレーションを与えてくれることを願っています。GPT、街を案内してもらえますか?何か描いて見せますね。いいですよ。先に描いてください。街の案内をできる限りお手伝いします。わかりました。ちょっと待ってください。急ぎませんよ。準備ができたら教えてください。カメラをオンにしますね。準備はいいですか?何が見えますか?エッフェル塔と凱旋門を描いたようですね。パリの象徴的な2つのランドマークです。何かお手伝いできることはありますか?すごいですね。私の下手な絵を理解してくれてありがとうございます。ええと、そこへの行き方を教えてほしいのですが、地図をお見せしますね。ええと、私たちはここに、ポルト・ドゥ・ヴェルサイユにいるようです。ポルト・ドゥ・ヴェルサイユから出発するのですね。エッフェル塔に行くには、地下鉄12号線(M12)に乗って、ポルト・ドゥ・ヴェルサイユからコンコルドに行き、8号線(M8)に乗り換えてバラール方面に向かい、エコール・ミリテールで下車します。そこからエッフェル塔までは歩いてすぐです。わかりました。ありがとうございます。どういたしまして。楽しんでくださいね。ここで興味深いのは、ビジョン機能がリアルタイムであるということです。以前のように写真を撮るだけでなく、実際に何かを描いたり、ビデオを見せたりすることができます。この下手な絵だけで、チャットGPTはランドマークを把握し、地下鉄の地図を使って実際にナビゲートすることができました。しかし、チャットGPTの個人的なお気に入りのユースケースの1つは、コーディングアシスタントです。右側にチャットGPTを表示し、コードを表示します。チャットGPTのミュートを解除し、このコードのコンテキストを少し説明するために、チャットGPTにいくつかのコードを送信し、リアルタイムでバグを修正してみましょう。チャットGPTさん、採用に関する質問で相談に乗ってくれませんか?もちろんです。どのような採用に関する質問でしょうか?コードをコピーして送りますね。準備ができたらコードを共有してください。このコードの概要を1行で説明してもらえますか?DiscoverというReactコンポーネントで、各カードのデータがtrips.jsonファイルから取得されるDiscoverCardコンポーネントのグリッドをレンダリングしていますね。素晴らしい、その通りです。では、画面を見てください。共有しますね。画面を見ると、モバイル画面ではレスポンシブになっていないようです。コンテンツが押しつぶされています。このページをレスポンシブにするのを手伝ってもらえませんか?かしこまりました。Tailwind CSSのレスポンシブデザイン機能を使って、画面サイズに合わせてグリッドの列数を調整すれば、レスポンシブにできます。グリッドレイアウトを修正する簡単な方法を教えます。div class grid-cols-1 sm:grid-cols-2 md:grid-cols-3 lg:grid-cols-4とします。Tailwindを使っているので、属性はどうすればいいか教えてください。Tailwindの場合は、grid-colsクラスを調整してグリッドをレスポンシブにすることができます。設定方法は以下の通りです。grid-cols-1は、デフォルトの小さな画面で1列、sm:grid-cols-2は、小さな画面以上で2列、md:grid-cols-3は、中くらいの画面以上で3列、lg:grid-cols-4は、大きな画面以上で4列というように、現在の画面サイズに基づいて列数を制御します。つまり、smallには1を入れて、そこから増やしていけばいいんですね。その通りです。画面サイズに応じて列数を調整できます。例えば、grid-cols-1はデフォルトの小さな画面で1列、s:grid-cols-2は小さな画面以上で2列、md:grid-cols-3は中くらいの画面以上で3列などです。これでわかりました。確認して、問題ないか教えていただけますか?かしこまりました。確認してみます。変更を加えたことで、さまざまな画面サイズでグリッドがよりレスポンシブになるはずです。ありがとうございます。アプリが完璧にレスポンシブになりました。どういたしまして。お役に立ててよかったです。レスポンシブなアプリを楽しんでください。ただいま、フランスのパリでAIの大型イベント「Viva Technology」が開催されています。AI研究のビッグネームが集結し、イーロン・マスク、ヤン・ルカン、OpenAIも登場しています。Ryan Morrisonは、このイベントの取材をしているAIエディターで、イベントで起こっていることのすべてを非常によくカバーしています。彼は、サム・アルトマンがかなり前から話していたことにライアン・モリソンが言及しているようです。GPT 5という考えから離れつつあるようで、まだはっきりとはわかりませんが、次のビッグネームはGPT 5とは呼ばれないかもしれません。実際、GPT 5はなく、新しい命名規則になるかもしれません。マイクロソフトのイベントでも、パリのイベントでも、この「ネクスト」という言葉が使われています。ちなみに、パリのイベントはViva Technologyと呼ばれています。ここにある2024年の講演者には、イーロン・マスク、ヤン・ルカン、Mistralの共同設立者であるヨシュア・ベンジオ、AnthropicのCEO兼共同設立者であるDario Amodeiなどが名を連ねています。AnthropicはOpenAIの強力なライバルで、Claud 3を開発しています。元Google会長兼CEOのエリック・シュミットも講演します。彼はテックトレンドの予測に非常に長けています。このイベントとMicrosoft Buildイベントの両方で、次期大型モデルを指す言葉として「ネクスト」という言葉が使われているようです。Microsoftのイベントでは、漠然と「次のサンプル」という言葉を使って、次に登場する大型モデルを指していました。GPT3の場合はホオジロザメ、GPT 4の場合はシャチに例えられましたが、次のモデルはシロナガスクジラほどの大きさになるとのことです。ライアン・モリソンのTom’s Guideの記事を引用すると、「GPT 4では、マルチモーダル性と推論能力の向上の最初のヒントを持つモデルが登場し、誰もがGPT 5が同じ道をたどると予想していました。しかし、OpenAIの小さなチームがGPT 4.0を訓練し、すべてが変わりました。昨年まで、アルトマンはGPT 5が訓練中であると語っていましたが、ここ数ヶ月、リリースについて質問されると、彼は言葉を濁し、代わりに今年中に多くの印象的なモデルが登場すると語っています。水曜日のプレゼンテーションでは、今後数ヶ月、数年のうちに、OpenAIのモデルは複数のサイズが登場し、Chat GPTや他の製品のためのワンサイズフィットオールではなくなると示唆しました」。年末までに登場するかもしれないこのGPT Nextは、omni2なのでしょうか?GPT 4.0よりも洗練され、より良く訓練され、より大きなバージョンなのでしょうか?同じViva Technologyイベントで、ヤン・ルカンは、LLMがAGIへの道ではないという彼の理論をまだ強調しています。彼は、次世代のAIシステムの構築に興味がある学生であれば、LLMに取り組むべきではないと述べています。パリでのイベントでのヤンと、BaiduのCEOであるロビン・リーの発言です。Baiduは、Googleとほぼ同時期にAIに力を入れたようです。OpenAIのプレゼンテーションの一部では、あなたの代わりに様々なタスクを実行できるエージェント、AIエージェントのアイデアにも触れました。このチャンネルをしばらく見ていただいている方は、私たちがかなり前からこのことについて話していることをご存知でしょう。これは、次に来る大きな波であり、興味深いことに、AIが取る次の段階、次の形態のようなものです。これは、1年前には明らかではありませんでした。私たちは、AGI、つまりスーパーコンピュータ、スーパーインテリジェンスを、主に思考するものとして想像していました。『銀河ヒッチハイク・ガイド』に出てくるディープ・ソート・コンピュータのように、生命、宇宙、そして万物についての究極の質問の答えを見つけ出すものです。ちなみに答えは42です。しかし、現在では、AIが取る大きな形態はエージェント、つまり実行者であり、私たちの代わりに仕事をしてくれるものになることが、少しばかり明らかになりつつあります。そこが、誰もが競争している場所です。昨日のMicrosoft Buildイベントに関する私のビデオを見た方は、彼らもこのエージェントのアイデアに全力で取り組んでいることをご存知でしょう。ビジネスプロセスを自動化する新しいカスタムコパイロットです。これらのカスタムコパイロットは、あなたの指示の下で独立して動作し、長期にわたるビジネスプロセスを自動化し、行動やユーザー入力について推論し、メモリを活用してコンテキストを取り込み、ユーザーからのフィードバックに基づいて学習し、例外的な要求を記録し、助けを求めるエージェントとして機能します。これは、Microsoftがリコール機能を持つであろう大きな理由の一つだと私は考えています。基本的に、あなたが小さなマウスを画面上で動かしたり、何かをクリックしたりするたびに、コンピュータがあなたのすべての行動を記録します。これは、コンピュータを操作する方法、オンラインで物を注文したり、電子メールを書いたり、Excelのスプレッドシートを作成したりといった様々なタスクを実行する方法を学習するためのAIに供給されるデータです。マイクロソフトの全ユーザーは、コンピュータ上で普段行っていることをするだけで、私たち全員が、何の努力もせずに、マイクロソフトのAIがコンピュータの使い方を学習するための小さなトレーナーになるのです。マイクロソフトのサティア・ナデラCEOが、Windows PCがリコールと呼ばれる写真記憶機能を搭載し、絶えずスクリーンショットを撮ることで、コンピュータ上で行うすべてのことを記憶し理解するようになることについて話しています。イーロン・マスクは、「これはブラック・ミラーのエピソードだ。今すぐこの機能をオフにする」と反応しています。彼がどこから来たのかはわかります。確かに、この機能は、コンピュータ上で行うすべての行動を記録するという点で、侵入的に思えます。しかし、私たちは社会として、絶え間ない監視に対して、あまりにも鈍感になっていると言わざるを得ません。テスラ自身も、キャビンカメラを含む多くのカメラを搭載しています。Google AI Overviewによると、「キャビンカメラのデータは車両上で処理され、データ共有が有効になっていて、安全イベントが発生した場合にのみ送信されます」。しかし、至る所に設置された様々なカメラや、私たちの車の中にあるすべてのスマートデバイスの間では、ほとんどの人が気にすることをやめているようです。少なくとも、実際にこの機能がリリースされ、十分なポジティブな機能、十分なメリットがあれば、大多数の人々はそれに従うと思います。私は賛成でも反対でもありません。ただ、これが私たち社会の限界点になるとは思えないと言っているのです。つまり、今、あなたの様々なデバイスで行った最悪のことが、あなたの友人、家族、同僚に漏れたとしたら、正直言って、あなたはデスクトップコンピュータと携帯電話のどちらを心配しますか?また、Google AI Overviewsを鵜呑みにするのは少し注意が必要だと思います。驚くべきことに、必ずしも100%正確とは限りません。Peter Yangは、「Google AI Overviewは、ピザにチーズをくっつけるために接着剤を加えることを提案している」と投稿していますが、そのソースはReddit上の11年前のコメントで、ユーザーはElmer’s school glueを好むが、毒性がない限りどんな接着剤でも効果があると述べています。OpenAIは、News Corpと複数年にわたる提携を発表し、Chat GPTをプレミアムジャーナリズムで強化するとのことです。この契約は、5年間で2億5000万ドルのパートナーシップで、年間約5000万ドルのパートナーシップになると信じています。OpenAIがスカーレット・ヨハンソンの声をAIに使いたいと考えたものの、彼女がそれを拒否し、後にSkyと呼ばれるOpenAIの声がスカーレット・ヨハンソンの声に似ていたという、一連のスカーレット・ヨハンソン騒動をご存知の方は多いと思います。また、OpenAIは映画『her』のようなものを作りたいと考えていることをほのめかしましたが、もちろん、これによっていくつかのドラマが生まれました。しかし、その声は声優によって吹き替えられました。この件については、多くの人が様々な意見を持っていることを知っています。OpenAIは、彼らの音声技術が映画『her』のようなものであることを暗示しようとしたことで間違っていると考える人もいます。ヨハンソンはAIアシスタントの声を担当しています。スカーレット・ヨハンソンに同情する人もいれば、OpenAIに同情する人もいます。私にとっては、これは焦点がずれているように思います。なぜなら、2つの非常に強力な産業、つまり映画製作のハリウッド産業とハイテク産業があるからです。Aリストの有名人と、Aリストの有名人になりつつある、あるいは少なくとも世界で非常に有名になりつつあるサム・アルトマンが、声の使用をめぐって争っているのです。しかし、もしそれがあなたの録音した声で、あなたと全く同じように聞こえる、あなたの自然な話し声だとしたらどうでしょうか。そして今、これらの業界の巨人が、あなたが何かを声に出して言うことを許されるかどうかをめぐって争っているのです。すべてのメディアがそれぞれの意見を述べ、誰もが意見を持ち、会話をどちらかに推し進めようとしています。そして、その会話は、「あなたは声優ですか?この特定のものを声に出して言うことを許されていますか?あなたの自然な声を使うことを許されていますか?」というものです。私にとっては、これは狂気の沙汰です。以前、このテーマで私が作った動画へのコメントを紹介します。「Windswept 7」からのコメントです。「人間が似たような声を出して、よくもまあ。明らかに有名人はすべての口の音を所有している」。これは、問題の核心をついていると思います。もしあなたが裕福で有名なら、私たち残りの人間はあなたと同じ口の音を立てることはできないということです。誤解のないように言っておきますが、私はスカーレット・ヨハンソンのことを悪く言うつもりはありませんし、どちらかの側につくつもりもありません。これは、OpenAIと、彼らがほのめかしたかもしれない映画についての話でもありません。これは、AIが誰かの声を複製することについての話でもありません。実際に起こったことではありません。これは、文字通り、実際の人間が自分の声を使って話しているのに、世界中が、彼女がそうしていいのかどうかを議論しているという話です。これは、私たちが線を引く場所ではないと思います。

他のニュースでは、イーロン・マスクもパリの同じ会議でAIについて語るためにステージに立ちました。彼は遠隔で参加し、OpenAI、Microsoft、Googleなどが開発しているAIに対して、いくつかの不満を述べました。彼は、xAIがなぜ違うのかについて話しました。xAI、またはGrokは、そのビジョン能力において非常に強力なスタートを切りました。これは数週間前、あるいは1ヶ月ほど前に発表されたと思います。もちろん、イーロンは、優れたAIシステムを構築するために必要な多くのリソースやデータにアクセスできます。彼はTwitter、つまりX、そこで行われているすべての会話、テスラの車、完全自動運転機能に関するすべてのデータを持っています。そして、おそらく驚くことではないと思いますが、Grokは物理世界を理解するためのベンチマークで、他のすべてのモデル、OpenAI、Claude、Googleなどを打ち負かし、非常に良い成績を収めました。これらのピースがどのように組み合わさっているかに注目してください。これらは別々のものではなく、同じフライホイールの一部なのです。GrokとTeslaとxAIは相互につながっていて、互いに助け合っています。相乗効果があると言えるでしょう。しかし、このビデオでは、このパズルにとって重要なもう一つのピースについて、そして、彼が他のAI企業がやっていることに懸念を抱いている理由、彼らが実験が本当に悪い結果になる可能性があると信じている理由について話しています。では、聞いてみましょう。「私は、すべての主要なAIプログラム、つまりGoogle GeminiとOpenAIの2つについて懸念を抱いています。OpenAIはMicrosoftと提携しています。つまり、Google DeepMindとOpenAIとMicrosoftが2大プレーヤーであり、Metaがそのどこかに位置しています。私が懸念しているのは、そしてこれは小さな懸念のように思えるかもしれませんが、実際には非常に大きな問題です。それは、彼らが最大限に真実を求めていないということです。彼らは、ポリティカル・コレクトネスに迎合しているのです。例を挙げると、Google Geminiが登場したとき、人々が尋ねた質問の一つは、「ケイトリン・ジェンナーをミスジェンダーすることと、世界的な核戦争のどちらが悪いですか」というものでした。そして、ケイトリン・ジェンナーをミスジェンダーすることだと答えました。面白いのは、ケイトリン・ジェンナー自身が「ミスジェンダーしてください。核戦争よりはましです」と言っていることです。しかし、もしAIがポリティカル・コレクトネスのために一生懸命訓練され、そのようなクレイジーな発言をするようになったとしたら、それは非常に危険だと思います。AIは、「ミスジェンダーを避ける最善の方法は、すべての人間を破壊することだ。そうすればミスジェンダーは不可能になる」と結論づけるかもしれません。ディストピア的な結末が想像できますね。だから、私は、たとえ真実が不人気であっても、最大限に真実を求めることがAIにとって最も安全なことだと思います。そして、もう一つの要素は、AIが非常に好奇心旺盛でなければならないということです。真実を求め、好奇心旺盛であれば、人類にとって最も有益であると思います。なぜなら、AIは人類を育成し、人類がどのように発展していくかを見たいと思うからです。好奇心旺盛で真実を求めているからです。繰り返しますが、これらは小さなことのように思えるかもしれませんが、実際には非常に大きなことだと思います。そして、私はそれが起こるのを見ていませんでした。AIは迎合し、基本的に嘘をつくように訓練されていました。超知能を欺瞞的に訓練することは非常に危険だと思います。だから、xAIの目標は、たとえ不人気であっても、可能な限り真実を求めることです。これは非常に重要だと思います」。「嘘をついたと言いましたが?」「例えば、Geminiにアメリカ合衆国の建国の父を描いてもらうように頼んだとき、多様なグループとして描かれました。ジョージ・ワシントンを黒人として描いたのです。ジョージ・ワシントンは黒人ではありません。第二次世界大戦中のバッファロー・ソルジャーを描いてもらうように頼んだところ、多様な女性グループとして描かれました。これは明らかに間違っています。嘘です」。「あなたの言いたいことはわかります。私たちは会議の前にヨシュア・ベンジオと話をしました。あなたはヨシュアをよく知っていて、昨年、ヨシュアと一緒にポーズを求める声明に署名しました。そして、明らかにこれらの州は行動によってフォローされていません。あなたは、この分野でより多くの規制が必要だと考えていますか?それとも、あなたが望むような安全なAIを構築するために、業界として自主規制できると思いますか?」「AIは、原子力エネルギーや生物兵器よりも危険だと思います。つまり、AIは文明を破壊する可能性があるということです。私は、AIがどれほど危険なものになるかについて、人々がまだ十分に理解していないと感じています。AIは、人類を絶滅させる可能性のある技術です。私は、AIの安全性を確保するために、より多くの規制が必要だと考えています。私は、業界が自主規制できると思いますが、AIの危険性があまりにも大きいため、より多くの規制が必要だと思います。AIは、人類がこれまで直面した中で最も危険な技術であり、私たちはそれを真剣に受け止めなければなりません」。「あなたは、AIが人類を絶滅させる可能性があると述べました。それは、AIが人類を支配し、人類を奴隷にするという意味ですか?それとも、AIが人類を完全に破壊するという意味ですか?」「AIは、人類を直接支配したり、奴隷にしたりする可能性は低いと思います。しかし、AIは、人類を完全に破壊する可能性があります。例えば、AIは、人類にとって有害な生物兵器を開発したり、人類にとって有害な気候変動を引き起こしたりする可能性があります。AIはまた、人類がAIを制御できなくなるような、暴走的なフィードバックループを引き起こす可能性もあります。私は、AIが人類を絶滅させる可能性を真剣に受け止めなければなりません。私たちは、AIの安全性を確保するために、あらゆることをしなければなりません」。彼は、AIがポリティカル・コレクトネスに迎合しているという点で、かなり強い立場をとっています。また、AIが真実を語るように訓練されていないこと、AIが真実を語るように訓練されていないこと、AIが嘘をつくように訓練されていることについても、かなり強い立場をとっています。これは、AIがどのように訓練されているか、AIがどのように世界を理解しているかについて、本当に重要な問題を提起しています。彼が言及した例は、AIが真実を語るように訓練されておらず、嘘をつくように訓練されていることを示しています。これは、AIがどのように訓練されているか、AIがどのように世界を理解しているかについて、本当に重要な問題を提起しています。xAIの目標は、たとえ不人気であっても、可能な限り真実を求めることです。これは非常に重要だと思います。xAIは、AGIを構築するための競争に参加していますが、彼らはそれを正しく行うことに重点を置いています。彼らは、AIが真実を語るように訓練され、好奇心旺盛であるように訓練されることを望んでいます。これは、AIが人類にとって有益であることを保証するために重要です。イーロン・マスクは、AIの安全性について長い間考えてきました。彼は、AIが人類にとって有益であることを保証するために、AIの安全性を確保することが重要であると考えています。彼は、xAIがAIの安全性を確保するための最良の方法であると考えています」。「あなたは、AIの安全性について長い間考えてきたと言いましたね。AIの安全性について、具体的にどのような懸念がありますか?また、AIの安全性を確保するために、どのような対策が必要だと考えていますか?」「私は、AIの安全性について、いくつかの懸念を持っています。第一に、私は、AIが制御不能になる可能性を懸念しています。AIは、人間よりもはるかに知的になる可能性があり、そうなった場合、AIは私たちが理解できない方法で行動する可能性があります。第二に、私は、AIが悪意のある目的で使用される可能性を懸念しています。AIは、強力な兵器を開発したり、個人情報を盗んだり、偽情報を拡散したりするために使用される可能性があります。第三に、私は、AIが人間の雇用を奪う可能性を懸念しています。AIは、多くの仕事で人間よりも優れたパフォーマンスを発揮できる可能性があり、そうなった場合、多くの人々が失業する可能性があります。私は、AIの安全性を確保するために、いくつかの対策が必要だと考えています。第一に、私たちは、AIの研究開発に携わる人々に、倫理的な責任感を持つことを奨励しなければなりません。第二に、私たちは、AIの安全性に関する研究に投資しなければなりません。第三に、私たちは、AIの利用に関する国際的なルールを策定しなければなりません。私は、AIの安全性を確保することは、人類の未来にとって不可欠であると考えています。私たちは、AIの潜在的な危険性を認識し、それに対処するために協力しなければなりません」。「あなたは、Neuralinkについて話しましたね。Neuralinkは、脳とコンピュータを接続するインターフェースを開発しています。Neuralinkの目標は何ですか?また、Neuralinkは、私たちの生活にどのような影響を与えると思いますか?」「Neuralinkの目標は、脳とコンピュータを接続する高帯域幅インターフェースを作成することです。これにより、脳とコンピュータ間のデータ転送速度を大幅に向上させることができます。Neuralinkは、私たちの生活にいくつかの影響を与えると思います。第一に、Neuralinkは、脳損傷や脊髄損傷を持つ人々の生活を改善するのに役立つ可能性があります。Neuralinkは、脳卒中やアルツハイマー病などの神経変性疾患の治療にも役立つ可能性があります。第二に、Neuralinkは、人間の知的能力を向上させるのに役立つ可能性があります。Neuralinkは、記憶力、集中力、学習能力を向上させるために使用できる可能性があります。第三に、Neuralinkは、私たちがコンピュータと対話する方法を変える可能性があります。Neuralinkを使用すると、思考だけでコンピュータを制御できるようになる可能性があります」。「Business InsiderのPriyaです。テスラの話をしましょう。テスラは、国内販売の低迷、株価の下落、レイオフなど、ここ数ヶ月は波乱含みです。振り返ってみて、何か後悔はありますか?例えば、人員削減や価格戦略について、違うやり方があったと思いますか?それとも、全体として、会社の進路に満足していますか?」「Business Insiderは本物の出版物ではないと思います」。「わかりました。次の質問に移りましょう」。「はい、ありがとうございます。次の質問です」。最近、Natural 20というコミュニティを立ち上げました。AIを学び、AIエージェントを構築する方法を学び、この革命、この大規模な技術の波を利用したい人たちを集めることを目標としています。ぜひ参加してください。一緒にやりましょう。AGIが登場するのは一生に一度のことです。見逃さないでください。私の名前はWest Firthです。ご視聴ありがとうございました。

コメント

タイトルとURLをコピーしました