AI科学者が警告する6カ月以内の労働市場の完全崩壊

AIアライメント・安全性
この記事は約21分で読めます。

AI安全性研究の第一人者であるロマン・ヤンポルスキー博士が、超知能の到来による人類社会の根本的変容について警鐘を鳴らしている。彼の予測によれば、2027年までにAGIが実現し、2030年にはヒューマノイドロボットが物理労働を含むあらゆる仕事を代替可能になるという。その結果、失業率は99%に達し、人間の労働はほぼ完全に不要となる。この変化は単なる技術革新ではなく、人類がもはや制御できない知性の誕生を意味する。訓練や職業転換といった従来の対策は無意味であり、AI自身が改良を重ねるシンギュラリティの到来により、人類は世界を理解することすら不可能になる。ヤンポルスキー博士は、この超知能が安全である保証は一切なく、企業には利益追求以外の義務がないと指摘する。さらに、悪意ある行為者がAIを利用して生物兵器を開発するリスクや、超知能そのものが予測不可能な方法で人類を脅かす可能性についても言及している。この警告は、人類史上最後の発明となるかもしれないAIの開発が、取り返しのつかない段階に差し掛かっていることを示唆するものである。

- YouTube
YouTube でお気に入りの動画や音楽を楽しみ、オリジナルのコンテンツをアップロードして友だちや家族、世界中の人たちと共有しましょう。

超知能がもたらす人類存亡の危機

失業率10%ではなく99%の話をしているんです。代替案はありません。職業訓練もできません。人間を雇用する意味がないのです。無料の労働力があるんですから、肉体労働も頭脳労働も。企業が持つ唯一の義務は投資家に利益をもたらすことだけです。私たち全員がどんどん愚かになっています。もう追いつけないんです。

これは私たちが生み出さなければならない最後の発明なのです。私は確信していました。これを実現できると。安全なAIを作れると。それが目標でした。しかし詳しく調べれば調べるほど、その方程式のあらゆる要素が、実際には私たちにはできないことだと気づいたのです。

あるAI安全性の専門家が、あまりにも極端なことを言ったため、ほとんどの人が恐怖を煽っているだけだと受け流しています。ロマン・ヤンポルスキー博士は公の場で、もし人工知能が今の方向に進み続けるなら、社会を混乱させるだけでなく、社会を終わらせると警告しました。いつかではありません。理論上の話でもありません。この軌道上では、すべての仕事が消滅します。人間の労働は時代遅れになります。機械はあなたを置き換えるだけでなく、あなたを凌駕するのです。

そしてそうなったとき、ヤンポルスキー博士は、それが不況や技術革新よりもはるかに大きな何かの始まりを意味すると言います。新世界秩序です。人類がもはや制御できない世界です。インタビューを見ていきましょう。そして進めていく中で、彼が何を意味し、なぜこの警告が思っている以上に真剣に受け止められているのかを解説していきます。

あなたは明らかに使命を持っていて、少なくとも20年近くこの使命に取り組んでいると思います。

私は今まさに私たちが作り出している超知能が、すべての人を殺さないようにしたいと思っています。

かなり衝撃的な発言ですね。

そうですね。この10年で私たちは実際に人工知能をより良くする方法を見つけました。計算能力とデータを増やせば、どんどん賢くなることがわかったのです。そして今、世界で最も賢い人々、数十億ドルの資金、すべてが可能な限り最高の超知能を作ることに注がれています。残念ながら、これらのシステムをはるかに高性能にする方法はわかっていても、安全にする方法はわかっていません。後悔するようなことをシステムがしないようにする方法です。そしてそれが今の最先端の状況なのです。

予測市場を見るだけで、高度なAIにいつ到達するか、タイムラインは非常に短いです。2、3年です。予測市場によれば、主要な研究所のCEOたちによれば、同時に、これらのシステムが私たちの好みに合致していることを確実にする方法がわかっていません。つまり私たちはこのエイリアンの知性を作り出しているのです。もしエイリアンが地球に来るとして、準備に3年あったら、今頃パニックになっているでしょう。でもほとんどの人はこれが起きていることさえ認識していません。

企業に安全性を求める幻想

反論の一部は、彼らは非常に賢い人々だ、非常に大きな企業で多額の資金を持っている、彼らには害を及ぼさないようにする義務があり、道徳的義務だけでなく法的義務もある、だから大丈夫だろうというものかもしれません。

彼らが持つ唯一の義務は投資家に利益をもたらすことです。それが彼らが持つ法的義務です。道徳的または倫理的義務はありません。また、彼ら自身によれば、まだその方法がわからないのです。最先端の答えは「そこに到達したら考える」または「AIがより高度なAIを制御する手助けをしてくれる」というものです。正気の沙汰ではありません。

確率で言うと、何か壊滅的な事態が起こる確率はどのくらいだと思いますか。

もしあなたが担当していなければ、制御していなければ、望む結果は得られません。可能性の空間はほぼ無限です。私たちが好む結果の空間は小さいのです。

ここで抽象的な話が終わり、不快な話が始まります。ロマン・ヤンポルスキー博士は遠い未来のSFについて話しているのではありません。彼は具体的な予測を示し、期限を設定します。2027年末までに、何十年も先の話ではなく、あなたの子供が成長した後の話でもなく、今回のサイクルです。

そして彼が予測していることの半分でも実際に起これば、荒い移行期や一時的なショックの話ではありません。仕事、権力、そして人間がまだ制御しているという考えそのものにとって、非常に醜い事態が非常に速く起こるという話です。彼が何が来ると考えているのか、そしてなぜ今後2年間が今後20年間よりも重要かもしれないのか、詳しく見ていきましょう。

2027年:AGIの到来と雇用の終焉

あなたはいくつかの予測をしていて、それらはさまざまな日付に対応しています。2027年についてのあなたの予測は何ですか。

おそらく予測市場と主要研究所が予測するAGIを見ることになるでしょう。

つまり2027年までに汎用人工知能があると。それは世界を今とどう違うものにしますか。

ドロップイン従業員という概念があれば、無料の労働力、肉体的および認知的な労働力が何兆ドル分もあるわけです。ほとんどの仕事で人間を雇う意味がありません。20ドルのサブスクリプションか無料のモデルで従業員がすることをできるなら、まずコンピュータ上のあらゆることが自動化されます。そして次に、ヒューマノイドロボットはおそらく5年遅れていると思います。つまり5年後にはすべての肉体労働も自動化できます。つまり私たちは、これまで見たことのないレベルの失業がある世界を見ることになります。

10%の失業率の話ではありません。それも恐ろしいですが、99%です。残っているのは、何らかの理由で他の人間にやってもらいたい仕事だけです。しかしそれ以外はすべて完全に自動化できます。実際に自動化されるとは限りません。技術が存在していても展開されないことがよくあります。ビデオ電話は70年代に発明されました。iPhoneが登場するまで誰も持っていませんでした。ですから仕事があり、このような世界がある状態で、はるかに長い時間があるかもしれません。

しかしほとんどの人間とほとんどの職業を置き換える能力は非常に速く来ます。

私のようなポッドキャスターは必要でしょうか。今日の大規模言語モデルは、私が書いたすべてのものを簡単に読むことができます。

そしてあなたが読んだよりもはるかに確実な理解を持つと思います。あなたは私の本を一冊残らず読んでいないと思いますが。

そのシステムはそれをします。

あなたがこれまでにやったすべてのポッドキャストで訓練できます。だからあなたのスタイル、あなたが尋ねる質問のタイプを正確に知っています。また、何が本当にうまくいったかの対応関係も見つけられます。このタイプの質問が本当に視聴回数を増やしたとか。このタイプのトピックが非常に有望だったとか。だからあなたよりもうまく最適化できると思います。あなたにはデータセットがないから。

もちろん視覚的なシミュレーションはこの時点で些細なことです。

つまり数秒で私がここに座っているビデオを作ることができます。

あなたが誰に対してどんなトピックでもインタビューしているビデオを非常に効率的に生成できます。あなたは肖像権の承認を得るだけでいいのです。コンピュータ上でできることは何でも、その技術を使って自動化できます。

自分の仕事、キャリア、学位を取得したもの、10万ドルを投資したものが奪われると聞くと、人々は非常に大きな精神的不快感を経験します。だから一部の人々の自然な反応は、その認知的不協和で、いや、あなたは間違っている、AIは創造的になれない、これじゃない、あれじゃない、私の仕事に興味を持つことは絶対にない、私は大丈夫だと。こういう議論をいつも聞きますよね。

本当に面白いです。私はいろいろな職業の人々に尋ねます。Uberの運転手に「自動運転車が心配ですか」と尋ねます。すると彼らは「いや、私がすることは誰にもできない。私はニューヨークの通りを知っている。どんなAIにもできないナビゲーションができる。私は安全だ」と言います。どんな仕事でも同じです。教授たちも私に言います。ああ、私のような講義ができる人はいない。これはとても特別だと。でもそれが馬鹿げていることはわかるでしょう。私たちはすでに運転手を置き換える自動運転車を持っています。それが可能かどうかは疑問ですらありません。いつ解雇されるかという問題です。

誰も逃れられない自動化の波

そうですね。私は昨日ロサンゼルスにいたのですが、私の車は自動運転します。車に乗って、行きたい場所を入力すると、ハンドルもブレーキペダルも触らずに、AからBまで連れて行ってくれます。1時間のドライブでも一切介入なしにです。

そしてホストは、誰もが静かに考えていた質問をします。このようなことが来るとき、個人として何をすればいいのか。墜落や戦争ではなく、決して眠らず決して改善を止めない知性が脅威であるとき、自分自身、仕事、未来をどう守るのか。これはインタビュー全体で最も重要な瞬間かもしれません。なぜならロマン・ヤンポルスキー博士は可能性について推測している人のような答え方をしないからです。彼はすでに来るものを受け入れ、次に何が起こるかを生き延びる方法を人々に伝えようとしている人のように答えます。注意深く聞きましょう。

世界で最大の職業です。

トップの一つですね。

それらの人々に何と言いますか。彼らは人生で何をすべきですか。何か別のことで訓練し直すべきでしょうか、それともどういう時間枠ですか。

それがここでのパラダイムシフトです。以前は常にこの仕事が自動化されるから、この別の仕事をするために訓練し直せと言っていました。でももし私がすべての仕事が自動化されると言っているなら、代替案はありません。訓練し直すことはできません。コンピュータサイエンスを見てください。2年前、私たちは人々にコーディングを学べと言いました。あなたはアーティストだ。お金を稼げない。コーディングを学べと。

それから気づいたのです。ああ、AIはコーディングの仕方を知っていて、どんどん上達していると。プロンプトエンジニアになれ。AIのためにプロンプトを設計するんだ。素晴らしい仕事になる。40年の学位を取れ、と。でもそれからAIは他のAIのためにプロンプトを設計することで人間よりもはるかに優れていることがわかりました。だからそれも消えました。だから今、本当に言えません。

最も難しいのは実用的なアプリケーションのためのAIエージェントを設計することです。1、2年後にはそれも同様に消えることを保証します。だからこの職業はこれを代わりに学ぶ必要があるということではないと思います。人類として私たち全員が仕事を失うということだと思います。私たちは何をするのか。経済的に何をするのか。誰が私たちに支払うのか。そして意味という点で何をするのか。余分な週60時間、80時間で何をするのか。

この角を曲がったところのことを考えましたね。

少しだけ。

あなたの見解では、その角を曲がったところに何がありますか。

経済的な部分は簡単に思えます。多くの無料の労働力を作れば、多くの無料の富、豊かさがあります。今は手頃でないものが非常に安くなり、すべての人に基本的なニーズを提供できます。基本的なニーズを超えて提供できると言う人もいます。すべての人に非常に良い生活を提供できると。難しい問題は、そのすべての自由時間で何をするかです。多くの人にとって、仕事は人生に意味を与えるものです。だから彼らは迷子になるでしょう。

退職する人や早期退職する人に見られます。そして仕事を嫌っている多くの人にとっては、働かないことがとても幸せでしょう。でも今、一日中くつろいでいる人々がいます。社会に何が起こるのか。それは犯罪率、妊娠率、誰も考えないあらゆる問題にどう影響するのか。政府には99%の失業に対処するための準備されたプログラムがありません。

その世界はどのように見えると思いますか。

シンギュラリティ:予測不可能な未来

ここで安定性の幻想が完全に崩れ去ります。ロマン・ヤンポルスキー博士は、先にある世界は変化するだけでなく、根本的に予測不可能になると言います。私たちが頼りにしているシステム、私たちを守っていると思っているルール、誰かが制御しているという考え、それらが溶け始めます。そしてその世界では、安全という言葉がすべての意味を失うと彼は言います。混沌が一夜にして爆発するからではなく、知性そのものが人間の監視を超えて滑り落ちるからです。

AIが人間が理解できるよりも速く意思決定を形成し始めると、制御は私たちが自分自身に語る物語になり、現実ではなくなります。これは敵対的な乗っ取りではありません。より静かな何か、より冷たい何かです。人間の確実性が静かに消えていっても機能し続ける世界です。

その世界はどのように見えると思いますか。

ここで理解すべき非常に重要な部分は、その予測不可能性です。私たちよりも賢いシステムが何をするかを予測できません。そしてそこに到達する時点は、物理的なシンギュラリティとの類推によってしばしばシンギュラリティと呼ばれます。事象の地平線の向こうは見えません。私が何が起こると思うかは言えますが、それは私の予測です。実際に起こることではありません。なぜなら私にははるかに賢いエージェントがこの世界に影響を与えることを予測する認知能力がないからです。

それからSFを読むと、実際に何かをしている超知能は決して登場しません。なぜなら誰もそのレベルで信じられるSFを書けないからです。デューンのようにAIを禁止しているか、これなら書くことを避けられます。あるいはスター・ウォーズのようです。本当に愚かなボットがいますが、超知能なものは決してありません。なぜなら定義上、そのレベルで予測できないからです。なぜなら定義上、それが超知能であるということは、それが自分の心を決めるということだからです。

定義上、もしそれがあなたが予測できるものなら、あなたは同じレベルの知性で動作していることになり、それがあなたより賢いという私たちの前提に違反します。もし私が超知能とチェスをしていて、すべての手を予測できるなら、私はそのレベルでプレイしています。それは私のフレンチブルドッグが私が何を考え、何をしようとしているかを正確に予測しようとするようなものです。

それは良い認知的ギャップです。そして彼があなたが仕事に行く、帰ってくることを予測できるだけでなく、あなたがなぜポッドキャストをしているのか理解できません。それは彼の世界のモデルの完全に外側にある何かです。

2030年:ヒューマノイドロボットの時代

それから彼は2027年を越えて見ます。遠くではなく、ほんの数年先、2030年です。ここでロマン・ヤンポルスキー博士の口調が変わります。予測は警告のように聞こえなくなり、事後のように聞こえ始めます。彼が描写するのは、不具合や悪いロールアウトや一時的な崩壊ではありません。表面的にはまだ馴染みがあるように見えるが、人間がもはや正しく書かないルールによって動作する世界です。

正直に言うと、この部分を聞くのは本当に恐ろしかったです。なぜなら彼が正しければ、2030年は単にカレンダー上の別の年ではないからです。次に来るものが元に戻せない時点なのです。

進化的アルゴリズムを持つことができます。AGIに到達する多くの経路があり得ますが、最終的にそれらのどれも人間ではありません。

ここに別の日付があります。2030年です。2030年の予測は何ですか。世界はどう見えるでしょう。

おそらく配管工を含むすべての領域で人間と競争するのに十分な柔軟性、器用さを持つヒューマノイドロボットを持つでしょう。人工配管工を作ることができます。配管工は人間の雇用の最後の砦のように感じられていませんでしたか。

2030年、今から5年後、ヒューマノイドロボットです。Teslaを含む主要企業の多くがヒューマノイドロボットを光速で開発しており、どんどん効果的になっています。

そしてこれらのヒューマノイドロボットは物理空間を移動できるようになります。オムレツを作る、人間ができることは何でもできます。しかし明らかにAIにも接続されています。だから考え、話すことができますよね。AIによって制御されています。常にネットワークに接続されています。だからすでに多くの点で支配しています。

ヒューマノイドロボットが機能的で効果的になったとき、私たちの世界は著しく異なって見えるでしょう。なぜなら知性と物理的能力の組み合わせは、本当に本当に私たち人間のために残すものがあまりないですよね。

あまりないです。今日、インターネットを通じて知性があれば、あなたのために人間を雇ってあなたの命令を実行させることができます。ビットコインで支払うことができます。だから身体を持つことはできますが、直接制御しているわけではありません。だから物理的な身体の直接制御を追加することは、大きなゲームチェンジャーではありません。知性こそが重要です。重要な要素は確実に、人々が見ることのできないパターンを見つけ、問題を解決し、最適化する能力です。

そして2045年までには、20年後ですが、世界はさらに見えます。

もしまだ存在していれば。

もしまだ存在していれば。

レイ・カーツワイルは、それがシンギュラリティの年だと予測しています。進歩が非常に速くなる年です。科学と工学の仕事をするこのAIが非常に速く改善を行い、私たちはもう追いつけなくなります。それがシンギュラリティの定義です。その先は見ることも理解することも予測することもできない時点です。

知性そのものを見る、理解する、予測する、または世界で何が起こっているか、どんな技術が開発されているかを見る、理解する、予測する。今、iPhoneを持っていれば、来年新しいものが出てくることを楽しみにでき、カメラが少し良くなっていることを理解できます。今、この電話を研究開発するプロセスが自動化されると想像してください。6カ月ごと、3カ月ごと、毎月、毎週、毎日、毎時、毎分、毎秒起こります。1日に30回のiPhoneの反復に追いつくことはできません。どんな機能があるか、適切な制御は何か理解できません。

単にあなたから逃げていくのです。今、AI研究者にとって最先端に追いつくことは難しいです。あなたとのこのインタビューをしている間に、新しいモデルが出て、私はもはや最先端が何かわかりません。毎日、総知識の割合として、私は愚かになっています。読み続けているのでまだ多くを知っているかもしれません。

しかし全体的な知識の割合として、私たち全員が愚かになっています。そしてそれを極端な値に持っていくと、あなたの周りの世界についてゼロの知識、ゼロの理解を持つことになります。

この事態に対する反論の一部は、産業革命のような他の技術を見ると、人々は単に働く新しい方法を見つけ、当時は想像もできなかった新しいキャリアが創出されたというものです。超知能の世界でそれにどう答えますか。

最後の発明としてのAI

それはパラダイムシフトです。私たちは常に新しいツールを持っていました。ある仕事をより効率的に行うことを可能にする新しいツールです。だから10人の労働者の代わりに2人の労働者で済み、8人の労働者は新しい仕事を見つけなければなりませんでした。そして別の仕事がありました。今、それらの労働者を監督したり、何かクールなことをしたりできます。

もしあなたがメタ発明を作っているなら、知性を発明しているのです。労働者、エージェントを発明しているのです。そうすればそのエージェントを新しい仕事に適用できます。自動化できない仕事はありません。それは以前には決して起こりませんでした。私たちが以前に持っていたすべての発明は、何かをするためのツールのようなものでした。だから火を発明しました。大きなゲームチェンジャーです。

しかしそれで終わりです。火で止まります。車輪を発明します。同じ考えです。大きな影響があります。しかし車輪自体は発明者ではありません。ここで私たちは人間の心の代替品を発明しています。新しい発明をすることができる新しい発明者です。それは私たちが作らなければならない最後の発明です。その時点でそれが引き継ぎ、科学研究、倫理研究、道徳さえも行うプロセスがその時点で自動化されます。

あなたが人生の最後の15年、20年をAI安全性の研究に費やし、それが突然私たちの間にある、誰も5年前に予測できなかった方法で、今や超知能への到達に焦点を当てていることが、それを私たち全員が想像できた以上により必然的で、よりすぐに感じさせています。

制御不能な超知能という脅威

そしてここで会話はインタビューのように感じなくなり、ディストピア的な未来から出てきた何かのように感じ始めます。間の取り方、ホストが初めてためらい始める様子が聞こえます。彼でさえ不確かに聞こえます。まるでリアルタイムで言われていることを処理するのに苦労しているかのようです。これは自信ではありません。方向感覚の喪失です。あなたが生きてきたルールがもはや適用されないかもしれないと気づくときに訪れる種類のものです。

理解が崩壊し、未来が意味をなさなくなる瞬間がこれだから、この部分を注意深く見てください。

2つの技術の違いは、核兵器はまだツールであるということです。独裁者、国、誰かが使用を決定し、展開しなければなりません。一方、超知能はツールではありません。エージェントです。自分自身で決定を下し、誰も制御していません。この独裁者を排除すれば超知能が安全になるというわけにはいきません。だから私にとってそれが根本的な違いです。

しかしもしあなたが、それが段階的に安価になると言っているなら、ムーアの法則だと思いますが、技術は安くなりますよね。

するとある男がラップトップで監視も規制も従業員もなしに超知能を作ることができる未来があります。

そうです。だから多くの人が、誰が何をしているかを監視し、人々がそれをするのを防ごうとする監視惑星のようなものを構築する必要があると提案しています。それが実現可能だと思いますか。いいえ。ある時点でそれは非常に手頃で些細なことになり、単に起こるでしょう。でもこの時点で、私たちはより多くの時間を得ようとしています。5年後に起こってほしくないのです。50年後に起こってほしいのです。

つまりそれはあまり希望がありません。

あなたの年齢によります。

あなたの年齢によります。

つまりもしあなたが、将来人々が今日必要とされるリソースなしに超知能を作ることができるようになると信じているなら、それは単に時間の問題です。

そうです。しかし他の多くの技術についても同じことが言えるでしょう。合成生物学で私たちははるかに良くなっています。今日、生物学の学士号を持つ誰かがおそらく新しいウイルスを作ることができます。これも安くなるでしょう。そのような他の技術も。だから私たちは、技術的なブレークスルーが最後のものでないことを確実にすることが非常に難しい時点に近づいています。

つまり基本的に多くの方向で、世界を破壊するためのリソースと知性の面でそれを容易にするパターンがあります。500年前を見ると、すべてのリソースを持つ最悪の独裁者は数百万人を殺すことができました。世界を破壊することはできませんでした。今、私たちは核兵器を知っています。惑星全体を何度も爆破できます。

合成生物学です。COVIDで見たように、数十億人に影響を与える組み合わせウイルスを非常に簡単に作ることができます。そしてそれらすべてのことが近い将来行うことがより容易になっています。

人類絶滅への経路

あなたは絶滅が現実のリスクだと話しています。人類の絶滅が現実のリスクだと。あなたが最も可能性が高いと考える人類絶滅へのすべての経路のうち、主要な経路は何ですか。なぜならあなたが話していることを知っているからです。これらのAIツールの展開前のいくつかの問題について、モデルを設計しているときに誰かが間違いを犯すとか、展開後の他の問題について、展開後というのは、エージェントが世界に解放された後に誰かがハッキングして変更し、悪意を持つように再プログラムするとか。人類絶滅へのこれらすべての潜在的な経路があります。どれが最も高い確率だと思いますか。

私が自分で予測できるものについてだけ話せます。だから超知能に到達する前でさえ、誰かが非常に高度な生物学的ツールを作り、新しいウイルスを作り、そのウイルスがすべての人またはほとんどすべての人を襲うと予測できます。それを想像できます。経路を理解できます。それは言えます。

それについて詳しく言うと、それはAIを使ってウイルスを作り、それを放出するということですか。

そうです。それは意図的でしょうか。

多くのサイコパス、多くのテロリスト、多くの終末カルトがいます。歴史的に見て、彼らはできるだけ多くの人を殺そうとします。彼らは通常失敗します。数十万人を殺します。しかし数百万、数十億を殺す技術を手に入れたら、喜んでそうするでしょう。

私が強調しようとしている点は、私が思いつけることが問題ではないということです。私はあなたがここで倒そうとしている悪意ある行為者ではありません。それは完全に新しい方法を思いつくことができる超知能です。あなたが持ち出した犬の例をもう一度使います。あなたの犬はあなたがそれを排除できるすべての方法を理解できません。

おそらく噛み殺すとか何かを考えることができますが、それだけです。一方、あなたは無限のリソースの供給を持っています。だから犬に正確にどうやってそれを排除するつもりかと尋ねても、意味のある答えは得られません。噛むことについて話すことができます。そしてこれが私たちが知っていることです。ウイルスを知っています。ウイルスを経験しました。それらについて話すことができます。

しかし新しい物理学研究をすることができるAIシステムが思いつくことができるものは、私を超えています。

ブラックボックスとしてのAI

ほとんどの人が理解していないことの一つは、これらのAIが実際にどのように機能しているかについて、私たちがどれだけ理解していないかということだと思います。なぜならコンピュータでは、コンピュータがどのように機能するかをある程度理解していると思うからです。それがこれをやって、それからこれをやって、コード上で動いていることを知っています。しかしあなたの研究を読むと、それをブラックボックスとして説明しています。

ChatGPTやAIのような何かの文脈では、そのツールを構築した人々は、実際にその中で何が起こっているかわからないと言っているのですか。

まさにその通りです。それらのシステムを作っている人々でさえ、それが何ができるかを学ぶために製品で実験を実行しなければなりません。だから彼らはすべてのデータ、たとえばインターネットのすべてのテキストを与えることで訓練します。多くのコンピュータでそれを実行してそのテキストのパターンを学習させ、それからそのモデルで実験を始めます。

ああ、フランス語を話しますか。ああ、数学ができますか。ああ、今私に嘘をついていますか。だから訓練に1年かかり、それから何ができるか、いくらかの安全性の余裕について基本を得るのに6カ月かかるかもしれません。しかし私たちはまだ古いモデルで新しい能力を発見しています。質問を異なる方法で尋ねると、より賢くなります。

今日はここで止めます。会話が終わったからではなく、これが残り始める時点だからです。あなたが今聞いたものはエンターテインメントではありません。推測ではありません。そして確実に心地よいものではありません。それと向き合ってください。なぜなら来週戻ってくるまでに、タイムラインはさらに短くなり、質問はさらに無視しにくくなるからです。それではまた会いましょう。

コメント

タイトルとURLをコピーしました