
23,678 文字

AIは私たちのことをとてもよく知るようになるので、プロンプトを入力したり質問したりする前に、既に私たちのデータや環境を分析し、私たちが要求する前に関連情報を送ってくるでしょう。
私たちの文化では、勉強して企業に入り、サラリーマンとして命令に従い給料をもらうよう教えられてきました。しかし、今日の世界はもうそのように機能していません。この技術革命の中で危険にさらされている唯一の人々は、企業でブルシットジョブを持つ人々です。
AIを導入しない企業は、導入する企業に対して死んでいます。すべては取引であり、市場だからです。そして本当の問いは、AIがすべてを行うようになったとき、人間の付加価値は何になるのか、ということです。私はAIが全てを行うようになると思います。
ステファン・マラールはフランスを代表するAIの専門家の一人です。彼は鋭い分析で知られ、幼少期からコンピュータに情熱を持ち、アルゴリズムに興味を持ち、12歳でコーディングを始めました。コンサルティングや投資銀行で経験を積んだ後、AIに関する過激なビジョンで聴衆に衝撃を与える講演を始めました。
彼の著書「Disruption」はすぐにベストセラーとなり、ChatGPTのような現象を5年前に予測していました。今日、世界中で約1000回の講演を行い、「AIは私たち全員を失業させるだろう」と主張し続けています。それは同時に、私たちの社会を根本的に再発明する絶好の機会でもあります。
これはAIが私たちの日常生活に与える影響についての魅力的なエピソードです。TIMEの新しいエピソードへようこそ。ステファンさん、お招きを受けてくれてありがとうございます。
こちらこそありがとう。これで2回目の出演になりますね。前回は数ヶ月前で、AIの職場への影響や進行中の進化について話し合いました。面白いのは、当時はモデルのパフォーマンスに関してすでに「ガラスの天井」が予測されていましたが、あなたはそれが徐々に解決されると説明していました。それが実際に起こったことで、2024年末に推論モデルや最近登場し続けているモデルなどを見ると面白いですね。
クラウドやアップデート予定のGPTモデルなどについて触れる前に、モデルの進化やAIの職場への影響について話したいと思います。最近フランスではAIサミットやプライムタイムのAI番組、政府がこのテーマに取り組もうとするなど、AIへの熱狂があります。これについてはどう思いますか?
これについては多くのことが言えますね。まず政府や国家一般がこのテーマに取り組もうとすることについては、私はとても自由主義者なので大きな間違いだと考えています。国家や政府が何かをすべきではないと思います。自由主義者として、国家がすべきことは何もしないことだと考えています。規制に触れず、特に税金をできるだけ低くすることです。「市場」という言葉は悪い言葉ではありません。市場とは私たちの相互作用、仕事、つまり私たちが行うすべてのことです。市場が問題を解決します。
起業家たちにやらせてください、そうすれば上手くいきます。AIへのこの熱狂は素晴らしいことでPRになりますが、実際にはこれを扱うのは政府や国家ではありません。それは私たちのような人々です。研究所の人々やスタートアップです。
スタートアップについて言えば、Mistralは話題になり続け、OpenAIやAnthropicのような独自モデルと競争できるモデルを出し続けています。あなたはMistralを他の巨人たちの中でどう見ていますか?Mistralは世界やヨーロッパで地位を確立できると思いますか?
私はこれについて経済学者として非常に単純な見解を持っています。よくある批判は「Mistralは小さすぎる、フランスは小さすぎるからアメリカ人に追いつくことはできない」というものです。しかし、それは必ずしも真実ではありません。私たちは急速に追いつくことができるモデルがあることを見ています。今日のAI巨人たちは足元がぐらついている巨人のようなものです。彼らは比較的簡単に破壊されます。
訓練や規模で取り戻せない遅れがあると言う人もいますが、それはあまり重要ではありません。なぜなら、明日、世界に1つか2つのリーダーがいるとしても、例えばOpenAIと中国のライバルなどがいたとして、それは後発のMistralのような企業のための場所があるということです。彼らは世界最高ではないかもしれませんが、世界最高のモデルを使うお金を払っていない企業にサービスを販売することができます。
経済において忘れられがちなのは、階層があるということです。必ずしもナンバーワン、リーダーである必要はありません。「AIでは違う、一般人工知能に到達したリーダーは他のすべてを倒し、誰もがそのAIだけを使うだろう」と言う人もいます。それは可能性の一つです。私はそうなるとは思いませんが、GIに向かって収束するとき、Mistralを含む他のすべてのモデルもGIに向かって収束し、それは問題ではなくなるでしょう。AIとGIは誰もの手の中にあるほど簡単にアクセス可能になり、私たちは知性を商品化し、価値は他のところからくるでしょう。それは使用法や私たちが構築するものからくるでしょう。
質問は本当に、単一のリーダーを作り出し、それが覇権を持ち、誰もが使う唯一のものになるのか、それとも誰もが同じモデルに収束するのか、あるいは逆に異なる階層があり、各人がその品質の階層に応じて支払うのかということです。
私がMistralについて考えるのは、フランスの環境をよく知っているので、彼らは私たちのフランスのエコシステムの大企業やすべての企業に販売するモデルを開発し、それを有用な方法で実行して十分な価値を生み出そうとし、主権の議論を使おうとするでしょう。私はこの主権の議論を全く信じていません。私は主権よりもパフォーマンスを非常に好みます。アルゴリズムがあなたを治療できるなら、それが主権を持つかどうかは問題ではないはずです。
短期的には、彼らはこれでビジネスを行うでしょうが、GIに近づくと何がどのようになるかはわかりません。
それは必ずしもパフォーマンスの競争ではないということですね。誰もがAIと最高レベルのパフォーマンスを目指すなら、モデルの差別化は他のパラメータによって行われるかもしれません。品質についても同様で、世界最高のモデルではなくても、大企業のプロセスを自動化したり顧客体験を向上させたりするには十分かもしれません。
経済学では製品の階層があり、高級、中級、低価格帯があります。AIモデルでもその差別化が見られるでしょう。しかし、長期的には、すべてのモデルが商品化され、価格は大幅に下がり、すべての生産コストがほぼゼロになる豊かな時代に入る可能性があります。そうなると、他のことで差別化する必要があります。AIは商品となり、知性が商品になるでしょう。これは2018年の私の本で説明し、10年間言い続けてきたことです。私たちはそこに到達しつつあるのかもしれません。現在は、この競争、プレーヤー間の極端な競争に焦点が当たっていますが、すぐに異なる階層に向かって構造化され、各自が好きな階層を選ぶようになるでしょう。
非常に興味深いですね。そして、ヨーロッパでは規制が整備されつつあり、消費者や企業を保護しようとしています。時には遅れを取ることもあり、例えばApple Intelligenceはまだフランスでは利用できません。このヨーロッパの規制についてどう思いますか?安全地帯として見る人もいて、コンテンツがコントロールされ、ユーザーや企業としてより快適に使えると考える人もいます。
これについても自由主義者として、この過剰規制に非常に衝撃を受けていますが、それは私たちヨーロッパ人の文化です。ヨーロッパ人は「輝かしい臆病者」だと言ったことがあります。彼らは教育レベルが高く素晴らしい学位を持っていますが、リスクを取りません。フランスでは、これは予防原則として現れています。この恐れで何もできなくなります。
アメリカ人はイノベーションを起こし、私たちは規制します。しかし、付加価値としては大したものを得られません。断片を拾うだけです。私が望むのは、すべての規制を本当に廃止し、AIやイノベーションについてできることをすべて解放し、規制的な枠組みをまったく持たないことですが、その後、保険で保護するということです。
保険会社には果たすべき巨大な役割があります。不確実性の領域があります。彼らはリスクに価格を付けるべきです。AIによって生じる可能性のある新しいリスクに価格を付けるべきです。安全地帯やAIを快適に使用できることについて話していますが、私は最も快適な方法は、それを専門とするプロフェッショナル、つまり保険会社によって保険をかけられることだと思います。
だから、自由化し、保険で保護し、規制するのをやめましょう。特に私のお気に入りのテーマの一つは、革新や付加価値を生み出す能力がないため、これらのヨーロッパの機関で多くの仕事を作り出しています。それは人々を占領しますが、実際には私たちの国での価値創造を妨げています。
興味深いですね。Apple Intelligenceなどのテクノロジーが欧州にまだ到着していない話をしましたが、より多くの自由は疑わしい、それは起こらないでしょう。あなたの言う通りですが、しかし現実は、AIが私たちにますます影響を与えていることです。使用するツールやアプリケーションは現在AIで強化されているか、AIのアプリケーション層になっています。これはまさにモデルの改善と関連しています。最近の推論モデルの進展やタスクや問題解決をさらに進める異なる種類のモデルについて話してもらえますか?
これらのモデルについて理解すべきことは、実際には強化学習で機能しているということです。基本的に子供のように教育し、正しく行動すると強化し、うまくいかなければ別の解決策を試みます。そして、これらのモデルにより多くのデータを入れて強化学習を加速するほど、推論や問題解決のような予期しなかったことが現れることがわかりました。また、複雑な目標を小さなタスクに分解し、一つずつ作業する能力も向上しました。
一人でできることもあれば、各自がタスクに取り組み、調整するインテリジェントエージェントを使うこともあります。一般的な考えは、推論はアルゴリズムであり、一般的な知性はアルゴリズムまたはアルゴリズムのパッケージだということです。実際に、この試行錯誤の学習技術を使えば使うほど、機械では解決不可能または複雑すぎると考えられていた問題を解決する能力を生み出すことができます。
その背後にある考えは、これらのモデルのパラメータ数を増やせば増やすほど、よりハイブリッド化できるということです。時にはモデルを他のモデルを模倣させたり、特定の変数を他よりも先に微調整したりして、これらのモデルをハイブリッド化しようとします。様々なテクニックがあります。問題を解決する方法を発見すればするほど、これらのモデルを使って全く新しいハイブリッドモデル、おそらく理解不能なモデルを作り出し、それがますます知性、ますます推論、そして人類の最も複雑な問題を解決するという野心に私たちを導くでしょう。
実際に、私たちは知性を解明したことを発見し、今はただ機械にやらせているところです。彼らが私たちにこれらの能力、この推論能力をどのように展開して、すべての問題を解決するかを示してくれるでしょう。
あなたが話しているこのハイブリッド性は、最近リリースされたClaudeの新しいモデルに見られます。これは、より速く推論が少ないモデルを使うか、推論するモデルを使うか、この能力を持っています。
それは人間のようですね。みんなが「システム1、システム2」を読んだと思いますが、時には長く複雑な推論があり、多くのエネルギーを消費し、ほとんどの場合は非常に速いヒューリスティックを使います。実際、大部分の人間はヒューリスティックだけを使います。それがはるかに速く、実用的だからです。
私たちのアルゴリズムの間でも競争があります。直感を使うこともあれば、時間をかけることもあります。そして、それは機械にも見られるでしょう。唯一の違いは、人間は生き残るために十分な速い決断を下すようにできています。つまり、多くの知性は必要ありません。私の主張の一つは、人間は知性が低いということです。それは簡単に測定できますが、偽陽性があっても素早く決断する必要があります。例えば、ライオンの識別で間違えても、逃げれば命を救えます。
機械は逆です。間違ってほしくありません。しかし、訓練に時間をかけることができます。これは深層学習以来のAIに対する批判の一つです。機械は猫を認識するために数百万の例が必要ですが、人間は2つ見れば認識できます。そうですが、違いは人間が素早く認識することです。しかし、脳はそのようにできているので、多くの偽陽性があります。自然界では生き残るのに役立ちます。反対に、機械には数百万の猫の写真を見せても、人間よりずっと間違いが少なくなります。成功率が高く、人間が偽陽性を持つ医療画像のがんを人間より良く認識できます。
私は両方をハイブリッド化すると思います。特定の瞬間に質の高い決断を下すのに十分な人間の速さと、複雑な問題を解決するための非常に複雑な推論モデル、すべての検索、分析、深い推論モデルを組み合わせることになるでしょう。これらは人類の最も複雑な問題を解決するために時間がかかるものであり、CPUの時間が必要なものです。「この問題を解決するには2年のコンピュートが必要」や「これには2ヶ月必要」と言われるでしょう。そしてそれに対価を払うことになります。
面白いのは、これが私たちがAIや機械一般に期待していることだということです。ミスしないということです。同じタスクを何百回、何千回、何百万回と依頼しても、常に同じ答えを出すことです。
多くの人にとって最初は少し困惑したのは、それがそうではなかったことです。確率的モデルなので、時にはAだったり時にはBだったりしました。それは人間にとって少し困惑することでした。あなたが共有しているのは、私たちがますます応答の一貫性を持つモデルに向かっているということです。彼らはますます確実になるでしょう。
実際、より多くのデータを入れるほど、結果の確実性に収束します。人間では、これを専門知識と呼びます。あなたが仕事で状況に直面する若手の場合、いくつかの解決策、選択肢、若手医師の場合は診断の可能性があるかもしれません。しかし、シニアになればなるほど、統計的なパネルを増やし、内部パラメータを変更するほど、解決策についてより確信を持つようになります。単一性に収束します。
すべてについてそうなるとは言いません。大きな質問は、すべての答えに単一性があるかどうかです。誰もわかりません。明日、AIは株式市場を予測できるかどうか?わかりません。天気については、複雑なシステムですが、今日とても良く機能するモデルがあります。それを解明しました。しかし、株式市場ではどうなのか?物理系のすべての粒子の相互作用についてはどうなのか?まだわかりません。
基本的に、質問は、私たちができないこと、私たちができないこと、ランダムなことについてもそうなるかどうかです。
数学での大きな質問は、偶然は存在するかどうかです。これについては、両側に議論のある二つの学派があります。おそらく非常に多因子的で、複雑で、相互作用があり、フィードバックループがあり、それは複雑なシステムで、出発条件、パラメータの数とその相互作用に依存して、最初は予期されなかったものが現れます。
紙の上では、AIはある時点ですべてを解決できるはずです。私はそう思います。十分なコンピュートがあれば。しかし、難しいのは、モデルのパラメータが多ければ多いほど、相互作用が多いほど、より多くの計算能力が必要になることです。十分な計算能力があるかどうかはわかりません。
システム1、システム2の話に戻りますが、それは理解しやすい並列で、速いモデル(システム1)と時間をかけるモデル(システム2)です。私たちも同じです。1+1ではシステム1を使いますが、より技術的な質問や計算では、時間をかけて結果を確認するシステム2を使います。
OpenAIが最近共有したのは、様々な種類のモデル(4、O1)、ウェブ検索機能などを開発し、それらをすべて1つのモデルにまとめ、そのモデルがどのモデルやツール、機能を呼び出すかを決定するということです。システム1とシステム2の世界を超えて、各システム1、各システム2の下に、特定の状況を解決するためにより適した他のサブシステムがある可能性があります。
人間の脳のようですね。私たちがアルゴリズムのパッケージだと言うとき、私たちには状況に応じて要請でき、協力させ、混ぜ合わせ、ハイブリッド化できる非常に多くの内部アルゴリズムがあるのです。非常に速い反応が必要なときは一つ使い、別の反射が必要なときは別のものを使います。そして、それらを組み合わせます。私たちは全く同じものを持つことになるでしょう。
サム・アルトマンの発表を見たとき、前回話したことが確認されました。プロンプトが消えるだろうということです。これは本当に私が固執していることで、ChatGPTのローンチ以来、プロンプトの仕方を知る必要があり、それは非常に複雑で、質の高い質問をする必要がありました。これに関して多くの議論がありました。「プロンプトの仕方を知ることが最も重要だ」と人々に言っていました。しかし実際には、これはすべて消えます。機械に組み込まれ、明日は非常に単純に自然言語で機械と会話することになるでしょう。機械はどのモデルを使うか、どう組み合わせるかを知り、おそらく内部モデルの軍隊を持つインテリジェントエージェントがいて、有用な結果に収束するために協力したり競争したりするでしょう。
この内部の「料理」はもう見えなくなります。私たちはただインターフェース、人間とのインタラクションを持ち、それが私たちの言いたいことをますます理解し、さらには私たちが全く予想も想像もしなかったことに導くでしょう。AIを使って質問をしたり、トピックに興味を持ったりすると、「実はそれはあなたが知りたいことではなく、これです」と言われるかもしれません。「そして答えはこれです」と、ちょうど子供を持つ親のようにです。しかし、これは専門家レベルですべての人間に対して行われるでしょう。
今日、AIモデル(ChatGPT、Mistralなど)を使用するインターフェースでは、常に検索の有効化、モデルの選択などの機能ボタンがたくさんあります。これはすべて消えるでしょう。モデルが私たちに代わって選択し、関連性を最適化します。実際、私たちの選択が悪いかもしれないと推定して、機械によって行う方が良いと考えます。
プロンプトに関しては、プロンプトを適切に構造化する必要もなくなるかもしれません。内部的にはリクエストを再構造化するモデルがあるでしょう。ただし、プロンプトとは、人間として問題を明確にし、状況をよく説明するために行う努力でもあります。人間はこれが得意ではありません。しかし将来、単純なリクエストをするとしても、まだかなり詳しく説明する必要があるのではないでしょうか?
そうは思いません。人間はプロンプトを作成できないと言うと友達ができませんが、それが現実です。プロンプトは学校で論文を書くときに行っていたことで、問題設定と呼ばれていました。論文を書くとき、問題設定をすると、それが最も難しい部分なので、すでに良い成績が取れました。適切な質問をすることです。
人々の99%はこれができません。教えることはできますし、チートシートを与えることもできます。Googleで「プロンプトはこう始めて、これをして、キャラクターになりきって、コンテキストを与えて」などのテクニックを見ることができますが、あなたが言ったように、それはすべて内部化されるでしょう。
しかし特に、私は、AIが私たちをとてもよく知るようになり、プロンプトを求める前に、質問する前に、インタラクションする前に、私たちのデータや環境を分析して、私たちが必要とする前に関連情報を送ってくる世界に入ると思います。
私が10年間講演で言ってきたのは、人間は非常に予測可能だということです。データがたくさんあります。スマートフォンを取り出すと、あなたが何をするかほぼ知られています。メールを書く時、相手や文脈、時間、以前に言われたことなどに基づいて、何を言うかがほぼわかります。
私たちは非常に予測可能なので、実際には相互作用がますます自動化される世界に入るでしょう。ニーズを流動化し、自動化し、予測するので、プロンプトを書く必要さえなくなります。情報はプロンプトなしで私たちの元に来るでしょう。
全てがプロンプトになると確信しています。例えば、AIが誰かとの電話の会話を聞いて、その会話の後にスマートフォンで何か行動する必要があると予測するかもしれません。だから、あなたの会話がプロンプトになります。あなたのモデルに入力を与え、関連する出力を得ます。GPS位置に基づいて、あなたがいる場所や何をするかに基づいて、必要な情報をもたらすでしょう。
例えば、誰かの家に着いて、コードが必要なとき、アプリを探す必要さえなく、スマートフォンを取り出すと「コードが必要だと思います」と言われるでしょう。これは最初は単純なことかもしれませんが、ますます複雑になるでしょう。
次の仕事を見つけてくれるかもしれません(仕事がまだある限り)、パートナーを見つけ、何を勉強すべきか、何にトレーニングすべきかを提案するでしょう。私たちが「プロンプト」と呼ぶものは今日特別なケースですが、全てがAIを養うプロンプトになり、すべての主題について関連情報を送り返してくれるでしょう。
それは一種の自動補完のようです。電話で「私は」と入力すると、例えば「遅れています」という提案が出るようなものです。あなたが言っているのは、将来、AIで強化されたツールがあれば、私たちの電話やすべてのデバイスは、基本的な自動補完だけでなく、状況や行動に基づいて最も可能性の高いことを提案するということです。いつも遅れているなら「私は遅れています」、そうでなければ「私は時間通りです」などです。
全てが自動補完されるということです。あなたが自動補完と呼ぶものは特別なケースで、テキストを少し入力すると続きを提案しますが、ここではあらゆる種類のデータ、テキストだけでなく、誰かとの電話での会話や、GPSでの移動、インターネットで見ているものなど、これらすべての入力データを混ぜ合わせ、ハイブリッド化して、そのデータがリアルタイムで実行されるモデルを継続的に供給し、これらの非常に強力で多くのパラメータを持つモデルの基準となる自動補完は「この文脈ではユーザーはこれが必要で、この文脈ではこれが必要」ということになります。そして次のステップでは「次にこれが必要で、その次にこれが必要」となるでしょう。
全てがこれらのモデルを養うプロンプトやインプットとして機能し、私たちは常に関連情報を得ることになります。目的は私たちの時間を解放して、これらのアルゴリズムがバックグラウンドで私たちに代わって働き、私たちの生活のあらゆる面で関連性を提供することです。
そうなると、最終的に私たちには何が残るでしょうか?機械があなたに関連情報を提供し、それをエージェントと組み合わせると、その関連情報を使ってあなたのためにタスクを実行できます。時間が節約され、通知が届いて「あなたのためにこれをしました、これをしました、これをしました」と言われるでしょう。そしてあなた自身は何をするのでしょうか?関連情報とバックグラウンドでの行動を持つAIがある中で、あなたの代わりに行動する権限を与えたら、あなたの生活はどうなるのでしょうか?これは今後数年間、人間にとって大きな哲学的な課題となるでしょう。
この話題に入る前に、私たちが話していた個人化された自動補完や行動情報の取り込みについて言えば、現在大きな課題はAIモデルがこのようなメモリ機能をあまり持っていないということです。これが時に私たちをフラストレーションに陥れます。
ChatGPTなどのAIモデルを使用している多くの人と話すと、彼らはモデルをトレーニングしているという感覚を持っています。情報を共有し、修正を求め、モデルが適応し、将来訪れるこの状況を彼らは予想しているのです。しかし、今日、それは現実ではありません。ここには大きな課題があります。短期記憶と長期記憶について話せますか?大手企業はこの問題をどのように解決できるでしょうか?そしてその後、何が待ち受けているのでしょうか?
私が思うに、明らかにこれから起こることは、これらのエージェントが私たちとのすべてのやり取りを記憶するようになることです。それは当たり前のことになるでしょう。記憶能力は増加し、すべての相互作用で使用されるようになります。
課題は、人間と同様に、すべてを記憶しているAIと対話するとき、何を記憶し、何を忘れるべきかということです。人間の場合、記憶は非常に効率的です。役に立たないことをたくさん忘れ、記憶は日常生活、生活、コンテキストに応じて常に再構成されます。AIも同じようになるでしょう。あるトピックや誰かについてあまりにも多くのことを知っていると、関連性を保つのが難しくなるので、物事を忘れながらも関連性を保つという課題が生まれます。これが難しいところだと思います。
ウェブの人々がこれをどのように解決するかはわかりませんが、AIがこれも解決すると確信しています。それが難しさになるでしょう。
今日、短期記憶(コンテキストウィンドウ)のための解決策が見つかりました。モデルと何度かやり取りすると、前に言ったことを覚えていて修正できます。長期記憶はRAGです。RAGは、モデルとやり取りするとき、関連要素を識別し、データベースに保存し、後で関連性のあるものとして識別してコンテキストを供給し、応答を改善できます。RAGについて説明していただけますか?
一般的に言えることは、トレーニングされたモデルを使用し、RAGと呼ばれるこの知識ベースという制約と対面させるということです。基本的には制約下での最適化で、テキストの(他のものもあり得ますが)ベースから知識を探すよう強制し、それが制約となり、あなたに提供する関連性に対して一種の漏斗を作ります。
しかし、あなたが言うように、問題はRAGが十分に関連しているかどうかです。あるRAGから始めても、そのRAGから別の形の知識ベースを再構築し、それがより関連するようにすることができます。私たちはハイブリッドモデルに向かうと思います。これらのモデルは、知っていること、忘れるべきこと、知るべきこと、コンテキスト化すべきこと、特定のコンテキストにのみ保持すべきことに基づいて、常に構築と再構築を繰り返します。
これらのモデルは現れてくると思いますが、課題は、私が言ったように、何を忘れるべきかということです。機械にすべてを記憶させ、ウィンドウを大きくすることは簡単で、それはただのパワーの問題です。しかし本当の問題は、関連性を保つために機械が何を忘れるべきかということです。
科学では、これは非常に重要になります。科学を進めるために、現在の知識の中で何を機械が忘れるべきか、トピックについての科学を押し戻すものは何か、進歩するために忘れるべきものは何か、実際には「忘れ学習」になるのです。
これは人間にとっても非常に難しいですね。しかし、後で再利用するために情報を保存する前に選択的記憶でフィルタリングすることは、より実行可能に思えます。
難しいのは、それが非常に主観的なままだということです。情報が関連するかどうかを判断するには詳細な分析が必要で、なぜある選択が他の選択よりも優れているのかという問題もあります。また、もはや正しくない情報を後で学び直すまたは削除するという意味での「忘れ学習」の側面も常にあります。
もう一つの問題は、モデルがある時点でとても最適化されるようになると、あるトピックについて尋ねたとき、複数のオプションを提案するだろうと思います。レストランや休暇先の選択のような単純なことかもしれませんが、問題は、その中からどう選ぶかということです。
同じ選択肢を持つと、私たちは各モデルに一つだけではなく、複数の最適解があることに気づくでしょう。そしてそこから選ぶのを助けるAIに戻ることになります。どうなるかはわかりませんが、「モデルは最大限に最適化されているけれど、行き詰まっている」と思う状況に達するでしょう。
コントロールがなくなり…あるいはランダム性を加えます。私はモデルが私たちを驚かせると思います。私たちは既に私たち自身の知性や推論方法について多くのことを学んでいます。
私の主張の一つは、機械をもっと信頼し始めるべきだということです。多くの人が「モデルがどのように機能するかを理解する必要がある」「決定を下したり、最終的な決断をしたりするために、人間が最後の手段として残る必要がある」と言います。しかし私は「いいえ、モデルは人間よりはるかに優れるようになります。モデルにやらせてください。人間が問題になります」と考え始めています。
AIが複数の関連する選択肢を提案するようになったとき、人間にその中から選ばせるべきでしょうか?私はますますそうではないと思っています。
面白いのは、巨大企業やモデルを共有する人々が、入力があるとき、正確に次の最も確率の高い単語を生成する仕組みを本当に理解していないという「ブラックボックス」があることです。彼らはこのブラックボックスを受け入れましたが、入力と出力のパラメータを変えることで最も関連性の高い単語になるようにしようとしています。
彼らが受け入れたというのは面白いことですが、私たちはまだそうではないかもしれません。話題を変えて、私たちのために仕事をする様々なモデルやエージェントが登場する状況への移行と、それが仕事や日常生活にどう影響するかという話に移りましょう。「ブルシットジョブ」についてよく話していますね。まず、これらのブルシットジョブに関連して企業の状況、可能性のあるブルシットジョブのタイプについて説明してから、企業で潜在的に起こることについて話せますか?
この考えの起源から説明しましょう。私はこのテーゼを約10年間持っていました。2017年の本で「給与労働の終わり」について書きました。これは給与労働が消えるという私の強い信念の一つです。
それはピーター・ティールの質問から来ています。彼は「多くの人が間違っていると思うことで、あなたが正しいと思うことは何ですか?」と尋ねました。これはシリコンバレーの起業家に彼が尋ねる質問で、彼らがビジョナリーで破壊的かどうかを知るためのものです。破壊的であるためには、周りの人々と異なる見方をする必要がありますが、誰よりも先に、みんなに反対して正しい必要があります。
そのようなビジョンを持つ人は市場を破壊でき、人々は最終的に彼に合流し、それは明らかになりますが、彼は誰よりも先に正しかったのです。これは非常に難しいことです。
私が正しいと思い、多くの人が間違っていると思うことは、給与労働が純粋に経済的理由で終わったということです。前回少し説明しましたが、基本的に給与労働は、数十年前とは異なり、もはや経済的に収益性がありません。数十年前は、企業がすべての固定コスト構造を吸収していたため、従業員を雇うことは収益性がありました。しかし今日、各従業員はこれらの固定コストの一部を報酬に取り入れることができます。つまり、より高く売ることができ、以前は企業が構造コストをまかなうために必要だったマージンを取り戻すことができます。
これは全セクターで見られることです。プログラマーで見ましたが、全セクターでそれが起こっています。その結果、最も有能な人々、ゲームをプレイする人々、実際に仕事に付加価値を持つ人々は、給与労働から出ることが有利になります。
これは多くの人にとって非常に難しい話題です。というのも、私たちは文化的に「勉強して、企業に入り、給与労働者になり、命令に従い、給料をもらう」と教えられてきたからです。しかし、今日の世界はそのように機能していません。
私のピーター・ティール的な、みんなに反する信念は、給与労働は終わりであり、付加価値を持つすべての人々は今日、技術ツールや独立した人々のためのプラットフォームで、市場に直接面して非常にうまくやっていけるということです。
これを企業で説明するとき、すべての人々の確信を覆すため、これは非常にタブーなテーゼです。基本的に、あなたが働くとき、あなたは付加価値を売っています。ある場合には、企業や上司に売り、彼はあなたからマージンを取ります。別の場合には、市場で顧客に売ります。しかし、あなたが売るのは同じものです。違いは、独立して働くと、企業内にいるときに取られるマージンを取り戻せるので、より多くを得られるということです。それが唯一の違いで、それは契約上の問題であり、回収できる固定コストの問題なのです。それは単なる経済学です。
今日、どの分野でも非常に優秀な人々が自分のビジネスを始め、給与労働から出て、非常にうまくいっている様子を見かけます。彼らは依然として同じ付加価値を売っています。ただ契約の仕方が違うのです。彼らはより幸せで、より充実しています。というのも、文化的にも大企業は完全に不条理になっているからです。プロセス、官僚主義、政治的問題が大量にあります。大企業は機能しなくなっています。
これは私の最も難しいテーゼの一つですが、私は正しくなりつつあると思います。数字は上昇し、独立労働者の増加、仕事の清浄化などが見られます。今日多くの人々がこれについて話していますが、それでも大きなタブーです。
私が言いたいのは、恐れないでくださいということです。給与労働の終わりへのこの移行段階は穏やかに行われます。市場が決めます。ある分野では他よりも速く進むでしょう。しかし私が言うのは、私たちが経験しているこの技術革命の中で危険にさらされている唯一の個人は、企業でブルシットジョブを持っている個人だということです。
これは究極のタブーです。それは何を意味するのでしょうか?基本的に、デビッド・グレーバーの定義によれば、行う必要のない仕事を持つ人々、特に付加価値を全く生み出さない、何も貢献しない、多くの政治をする人々です。とてもうまく装う人々です。大企業ではどこにでもいます。
そして特に言わなければならないのは、彼らはあらゆる組織にいるということです。組織が大きければ大きいほど、国家や公務員に近ければ近いほど、彼らは多くなります。小さな組織、スタートアップなどに下がると、彼らは少なくなります。なぜなら、小さな組織では価値を創造しなければ出て行かざるを得ないからです。これは社会学で完全に文書化されています。企業によって異なる割合があります。彼らはどこにでもいます。
私の唯一の信念は、AIによって最初に危険にさらされるのはブルシットジョブを持つ人々だということです。彼らの付加価値を具体的に測定でき、さらにブルシットジョブが多すぎる企業は今日危険にさらされています。それは80年代、90年代の規範でした。ラ・デファンスのタワーでインターンシップをしたり働いたりした人々は、この不条理なショーを目撃しました。
10年間の私のテーゼは、この世界は消えるだろうということです。危険にさらされているのはブルシットジョブを持つ人々だけです。なぜなら、企業で実際に価値を創造する仕事を持っている人々で、給料が低く、政治的問題に耐えられない人々は、給与労働から出て価値を売ることができるからです。市場は常に正しいです。だから彼らは顧客を見つけるでしょう。
これを言うと、人々から「しかし、誰もが自分でビジネスをする、起業家になるようには作られていません。恐れる人々がいます」という古典的な浅い議論が出てきます。私は「それなら、そこには市場があるということです。あなたは付加価値を売り、市場に直接売ることに快適でなければ、顧客関係を扱う営業担当者と契約します。あなたが補完的である他のチームと契約し、そこにあなたの付加価値をもたらします。
違いは、あなたはもう従属関係にないということだけです。しかし、もしあなたがゲームをプレイし、実際に働き、努力し、付加価値があれば、市場はあなたを迎えるでしょう。
ブルシットジョブの概念について非常に興味深いのは、現在、大手企業がAIが労働市場を混乱させることを理解し、特定のタスクに対するAIモデルの直接的な影響を、人間のコストや人間の時間と比較した非常に正確な表やチャートを共有し始めていることです。
例えば、OpenAIはChatGPTやディープリサーチ機能の成功率を、人間が4時間、6時間、8時間かけた場合と比較した表を共有しました。AIが数センチで、人間が数時間かかるタスクを数分で実行できることがますます明示的になっています。この明示的なリンクによって、企業内の経済モデルとAIの結びつきは、付加価値を提供しない人々に大きな影響を与えるでしょう。
ブルシットジョブにも様々なタイプがあり、大企業で働いていない人々にとっては、実際にブルシットジョブとは何か、具体的に彼らの日常は何かを理解するのは明確ではないかもしれません。もし価値を創造していないなら、企業で何をしているのでしょうか?彼らは実際に働いていますが、企業に直接価値をもたらしていないのです。
これは共産主義への非難と同じです。「穴を掘らせ、次に別の人にその穴を埋めさせる」というようなものです。彼らは両方とも働きましたが、付加価値はゼロです。実際、大企業では多くの人々がそのように働いています。全員ではありませんが、一定の割合がいます。パレートの法則があり、非常に高いパフォーマンスを発揮し、大量の価値を生み出す少数のエリートがいます。彼らは通常、独立して非常にうまくやれます。
問題は、生態系内にいて、慣性によってそこにいる他のすべての人々で、会議に出席し、メールを送り、机の後ろにいますが、実際には価値を破壊する生産性を持っています。ヨーロッパでは特に従業員を保護する文化があり、彼らは本当に危険にさらされています。なぜなら、他のどこでも雇用される可能性がないからです。
ブルシットジョブを持っているとき、それは非常によく知られており、そのような大企業ではブルシットジョブの軍隊がいる企業があります。20年や15年そのような企業で働き、派手なタイトルを持ち、コンサルタントや他の何かになりたい場合、それはあなたのCVに対する反シグナルとなります。これは今日非常によく識別されています。
特にあなたが言ったように、今日ではAIやとても正確なKPIでそれを測定することができます。そのため、あなたがもたらす価値を具体的に測定できます。イーロン・マスクはDodgeで別の言い方をしています。「今週、具体的に何をしましたか?」と問います。それは事実に基づいています。その後、それが価値を創造しているかどうかを主観的に決定するか、アルゴリズムで測定することができます。
しかし、私たちはこれを正確に測定し始めています。私が言っているのは、価値を創造するとき、市場はそれに対価を払うということです。価値を測定する最良の方法は、あなたが提供するものに応じて市場が価格を設定するときです。それが唯一の方法です。
昔の世界では、この価格は雇用主によって設定されましたが、基本的にあなたがどれくらい生産しているかはあまりわかりませんでした。企業が十分に大きければ、それは希薄になり、あまり見えませんでした。私が言っているのは、世界的な競争とこれらの非常に強力なモデルの到来により、各人が価値を創造するようにプレッシャーがとても高まるため、価値の非創造者として最初に識別されるのはブルシットジョブを持つ人々であるということです。
第二に、これもAIについての絶対的なタブーですが、昨日の世界では非常に価値があったが、彼らの威信、社会的地位を手放したくない人々も危険にさらされます。現在、コンサルティング会社のパニックがあります。彼らの「研究」によると、「AIはシニアコンサルタントやパートナーを置き換えず、ジュニア、初心者、インターンを置き換える」と言います。もちろん、彼らは反対のことを言うはずがありません。
AIはコンサルタントのシニア性、専門知識に直接挑戦しています。さらに進んでいます。しかし、シニアコンサルタントは非常に高価で社会的地位があるため、彼らはそれを言いません。彼らは「最初の層だけが自動化される」と言います。彼らは自動化よりも「拡張」と言うことを好みます。しかし実際には、時間当たり、日当たりで非常に高価なシニアコンサルタントを取り除く方が、安価で多くのタスクを行い、ビジネスをもたらすことができるジュニアよりもはるかに有利です。
しかし、それを言ってはいけません。シニアが危険だとは言えません。アネクドートを紹介します。私はパレ・デ・コングレで12月に大企業向けの講演をしていました。そこにはマイクロソフトのディレクターがいました。マイクロソフトは私が大好きな企業で、透明性のために言うと、私は株主でもあります。彼らがやっていることが大好きで、とても信じています。
このディレクターは、パニックがどれほど深刻かを示すために言いました。「AIは高付加価値タスクを置き換えません。低付加価値タスクを自動化して、人間として高付加価値に進むことができるようにします。」しかし、それは反対です。彼らは何も理解していません。低付加価値タスクの自動化は伝統的なITです。今、私たちは高付加価値タスクに向かっています。つまり、企業で最も高価な学校出身者が飛ぶということです。
このタブーは崩れつつあります。テクノロジー業界では、「マネージャーをAIに置き換え、マネージャーよりも良い決断をする」と言い始めています。「明日、取締役会メンバーよりもずっと関連性の高いAIが登場するでしょう。」少しだけ出席して存在の印をもらい、陳腐なことを言う取締役会メンバー、そのようなものはすべて消えるでしょう。
あなたが触れた二つのポイントがあります。一つ目は、今日そして明日、企業に提供する価値をますます正当化する必要があるということです。なぜなら、AIを含め、以前よりもさらに競争の激しい世界になるからです。二つ目は、時々低付加価値タスクだけが影響を受けると感じることがありますが、それはまた共有されていることでもあります。しかし、例えば深い研究機能を見ると、それは非常に高度なレポートを生成でき、それはコンサルティング会社のシニアと他のジュニアプロファイルの両方を含む何時間もの作業を必要とすることがあります。実際、高付加価値タスクも自動化されています。
これらのプレーヤーのコミュニケーションについては、現在完全なパニックがあることを保証します。人々はこれらのツールで遊んで、それらが知的で強力になっていることを実感しています。したがって、今日の企業の高付加価値部分が飛ぶことになります。
コミュニケーションに関しては、「AIは仕事で人間を置き換えません。それを使わない人を置き換えます。」と言うために現在あらゆる努力をしています。しかし、これは完全な煽動です。ザビエル・ニエルも言いました。私は彼が主題を理解していないか(彼は非常に賢いので考えにくい)、人々を怖がらせないために逆のプロパガンダを広めようとしていると思いました。
実際には、誰もがAIを使うでしょう。「AIはあなたを置き換えませんが、使用しない人は使用する人に置き換えられる」と言いますが、みんなが使います。それはすでにGoogleに組み込まれています。それはすでにどこにでもあります。それはすべてのもの、電子機器、ソフトウェアなどにあるでしょう。今日何かをすべき唯一の人々は、これらのアルゴリズムをどこにでも配置するためのソフトウェアやエージェントの作成者です。しかし、ユーザーとして、私たちは好むと好まざるとにかかわらず使用することになります。したがって、誰もが同じレベルになります。実際の違いは他のことになるでしょう。
人々は絶対に恐れています。企業で講演するとき、私は煽動をしません。人々に「AIはあなたを置き換えますが、まず安心してください、すぐには起こりません。移行期間があり、それを見る時間があります。そして特に、これは良いニュースです。私たちの仕事を置き換えることは、人間が作り出せない価値を創造します。だから良いことです。しかし、正直に言いましょう、人々に真実を伝えましょう」と言います。
多くの企業が「仕事を自動化するとは言わないでください」と私に言いますが、経営陣や株主が望んでいるのはまさにそれです。価値を創造し、今日多くのスタートアップがあります。スタートアップから始まります。アジアの一部の大企業でも始まっています。シンガポールの銀行DBSは「AIで4000のポジションをカットする」と発表しました。一度にそれだけです。これはシュンペーターの創造的破壊ではありません。これは雇用の純減と価値の純増です。前回お話したようなモデルに戻ります。つまり、人間がますます少なく、技術がますます多い企業です。なぜなら、人間であろうと技術であろうと、資本は資本であり、企業が望むのは効率的な資本だからです。しかし、効率的な資本はテクノロジーに展開されています。それは人間よりも賢いのです。
これは素晴らしいことになるでしょう。たくさんの問題を解決し、多くの価値を創造しますが、正直に人々に真実を伝えましょう。「あなたの仕事は自動化されない」と言うことで人々を安心させることはできません。むしろコンサルティング会社からのプロパガンダに注目してください。より良いレポートを数ミリ秒で作成するDIARで、コンサルタントの付加価値は何ですか?既にポケットにインテリジェントアシスタントがあり、それはコンサルタントよりも良く推論し、コストがかからず、商品であり、安価です。そして今、レポートを作成するものがあります。コンサルタントのビジネスモデルは全くありません。終わりです。
労働者、従業員、あるいは全体として労働者として問いかけるべき質問は、明日の世界でどのようなスキルを開発すべきかということです。何が重要になるでしょうか?どうすれば状況を予測し、企業に専門知識を提供し続け、価値を提供し続けることができるでしょうか?
これに答えるには、経済学者として考える必要があります。つまり、時間軸があります。短期、中期、長期、超長期があります。一般人工知能(AGI)に達し、機械がすべてを知っている日、そしてさらに超知能に達して意識を持つとき、そこではもう何もできません。人間の労働は消滅します。
繰り返しますが、これは良いニュースです。別の方法で再編成する必要があります。AIがこれらの解決策を見つけると思います。しかし、人間がまだ働く移行期間中、さまざまなダイナミクスがあります。
国によっても異なり、フランスよりもシンガポールやアメリカの方がはるかに早く進むでしょう。デジタル変革はフランスでは起こっていません。自動化できるものがたくさんあります。
私は銀行業界出身ですが、銀行はデジタル変革があれば従業員の80%減で機能できることを保証できます。しかし、まだ60年代のレガシーシステムがあります。それは行われていません。おそらく意図的な選択かもしれませんが、いずれにせよ行われていません。
つまり、それを自動化すれば多くのスタッフを解放できますが、それには時間がかかります。本当に慣性があり、物事はかなり遅いです。
スキルについては、まず、知性と論理のような時代を超えたスキルがあります。機械が全知でAGIに達していない限り、これはまだ役立つかもしれません。非常に技術的な専門家でChatGPTがまだそのレベルに達していない場合、ChatGPTがあなたに追いつくまでは付加価値があります。追いつく日には終わりです。あなたは商品化されます。
次に、人間のスキル、ソフトスキル、共感、リーダーシップなどがあります。短期的には興味深いですが、中期的には、共感的な機械、行動の仕方や決断の下し方を教えてくれる機械が登場するでしょう。したがって、ソフトスキルもだんだん消えていくでしょう。
その後、これを言うと人々がよく言うのは「では、手作業の仕事、美容師、カフェのウェイター、彫刻家などをすべきだ」ということです。私は「はい、しかしこれらの職業はすでに商品化され、購買力の低い職業です」と答えます。
人々が転職や新しいスキル開発について尋ねるとき、彼らが望むのは購買力を保護され、この世界で生き続けることです。だから、すでに商品化された職業に導くべきではありません。
明日、ロボット工学が到来します。物理的な世界でロボットが登場し、建設、清掃、美容師など、人間のすべてのタスクをより良く実行できるようになります。
それはより時間がかかるでしょう。なぜなら、ロボットをトレーニングするのは、物理的な世界にいるため、学習が長くより複雑で、エラーのコストが高いからです。それは来ますが、少し長くかかるでしょう。したがって、手作業、物理的な仕事がまだ価値を持つ移行期間があります。
しかし、ある時点で、配管工はロボットになり、美容師もロボットになるでしょう。それはかなり明らかです。
そして、この移行期間中、人間の中でまだ役立ち、信頼を与え、一緒に働きたいと思わせるものは、一般教養だと思います。私の友人のローラント・アレクサンドルが最近インタビューで言ったことです。彼は正しいと思います。彼はゴーロン将軍を引用し、「最も重要なのは一般教養だ」と言いました。
一般教養を持つとき、それは様々な異なるトピックを結びつけることができ、特にイベントの展開に対して先手を打つことができます。一般的に、私たちの周りで起こるイベントは、すでに何度も起こっており、教養があるとき、小説や歴史の中で、物事の間のつながりを作り、物事がどのように展開するかの確率を事前に知ることができます。これは非常に役立つと思います。
したがって、これらすべての問題に取り組みますが、機械が専門知識、知性、推論の点で私たちよりもはるかに優れていることが、私たちがそれをやめるべきだと強制するわけではありません。
例えば、自動操縦が人間よりも飛行機を操縦するのが上手いからといって、人間のパイロットが飛行機の操縦を学ぶのをやめるべきではありません。知的努力、楽しみ、リスクのためにも。人間の脳に知識を持つことは、すべてを機械に与えるよりも役立つことがあります。
しかし、ある時点で、専門知識を持つことになりますが、機械はそれよりもはるかに優れており、私たちを超えます。これは本当のナルシスティックな傷になるでしょう。
私は全ての分野でこれを説明しますが、人々が「それは他の人に影響するが、自分には決して影響しない」と考えていることに驚いています。私の本で書いたように、「破壊は常に他の人のものである」と言いました。
公証人や会計士にAIの到来について話すと、彼らは「それは放射線科医を自動化するだろうが、私たちではない」と言います。最近、公証人の友人と話しましたが、彼は「この職業は5年で終わる。なぜなら、AIは非常に品質の高い法律文書を人間よりも優れた形で作成できるからだ」と言いました。
再び、これは経済学です。公証人の付加価値は何ですか?アルゴリズムが専門知識の部分を行い、それが商品になったとき、あなたはいくら支払いますか?人々はこれを理解するのが難しいです。付加価値の大部分、サービスに高額を支払う理由が商品化されたとき、何に対して支払うのでしょうか?人々はこの概念を把握するのが非常に難しいです。
あなたが言及した2つのポイントについて戻りますが、確かにフランスの企業でも、国際市場や国内市場で活動している場合、市場の影響を受け、フランスでこの開発をより迅速に行う他の企業や、AIを利用する国際的な競争相手の影響を受けます。そのため、予想よりも早く適応する必要があるでしょう。これが最初のポイントです。
2つ目のポイントは、時々飛行機のパイロットのように、まだパイロットが必要だという例を挙げましたが、サンフランシスコでは自動運転車に、必要な場合に車をコントロールするための物理的な人が乗っていません。
私はこれに賛成です。人間はエラーだと考えるからです。災害が起こるたびに、それは人間が偏見を持ち、知性が低く、ミスをするからです。実際、人工知能に直面した人間が問題になっています。
今後数年間、モデルが非常に強力になるため、本当の要件の1つは「人間はどんなことも触れないでください。あなたは間違いを犯す可能性があります」となるでしょう。私は本当に人間が限界だと思います。
人間は知性について非常に傲慢であり、最後の手段として人間を置くことで安心したいと思います。しかし、これは本当に大きな間違いになると思います。
AIを導入しない企業は、導入する企業に対して死んでいます。しかしこれは市場のための最高の自由主義的議論です。市場は競争によってすべての問題を解決しています。
これが私がこれらの部門でのすべての自由化を強く主張する理由です。市場のある種の浄化があるでしょうが、潜在的にも断片化があるでしょう。長年存在する既存のプレーヤーには慣性があり、新規参入者と比較してAIで迅速に行動するのははるかに難しくなります。そのため、集中していた市場が再断片化する可能性があります。
はい、彼らは消えるでしょう。これは資本主義の論理です。より関連性が高く、生産的である、または古い市場を時代遅れにする新規参入者が古いものを消滅させます。それが起こると思います。
経済学では、成熟した市場は最終的に4〜5の大手プレーヤーが特定のパラダイムの市場を占める寡占状態になります。その後、新しいパラダイムが現れ、古いものを消滅させます。それがシュンペーターです。
テクノロジー企業を見れば、それがまさに起こっていることです。IBMはかつてリーダーでした。今日、彼らはほとんどコンサルティングだけを行っています。AIモデルで非常に遅れています。彼らがどれほど遅れているかに衝撃を受けました。
マイクロソフトはリーダーでしたが、完全に遅れ、今はその遅れの一部を取り戻しています。Googleはこれらのモデルを発明しましたが、OpenAIのような挑戦者に対して完全に遅れをとりました。OpenAIも威張りましたが、その後Anthropicが登場し、彼らを少し押し戻しました。
これが資本主義と市場の美しさです。この競争が品質、創造される価値を上げ、コストを下げ、生産されるすべてのものをアクセス可能にします。私たちは本当にこの非常に競争の激しい時期にいます。私たちはこれらのモデルを普及させ、産業化していますが、同時に商品化もしています。
大きな問いは、付加価値はどこにあるのかということです。企業としての付加価値は何ですか?非常に強力なAIモデルがあるが、競合他社も同じものを持ち、そのAIモデルが企業内ですべてを行えるとしたら、何があなたを差別化するのでしょうか?
実際には、純粋で完全な競争市場になります。ブランド、評判、高級感などの効果がない限り、あなたの製品は代替可能になります。つまり、小麦のような原材料市場のように代替可能な製品になります。
したがって、マージンはなくなります。非常に少ないマージンの市場になります。サービスなど他のものに移行します。付加価値とこれらのモデルについての質問は非常に複雑です。
興味深いのは、あなたが個人としての付加価値、企業としての付加価値について話していることです。コンテンツの場合と同様に、企業や個人にとって、競争の激しい市場でどのように差別化するかという論理がますます強まるでしょう。非常に興味深いです。
すべては市場です。人々はこれを言うのを嫌いますが、あなたは常に環境に価値を提供し、常にそれを求めます。取引的ですらあります。カップルでさえそうです。パートナーを探すとき、あなたは質の高い時間、保護、資源、遺伝子などを求めますが、いずれにせよそれは取引です。
あなたは何かを提供し、何かを受け取り、取引が成立します。企業でも同じです。あなたは価値を提供し、企業は見返りに給料、トレーニングなどを提供します。市場も同じです。すべてが取引的であり、すべてが市場です。
本当の問いは、AIがすべてを行うようになったとき、人間の付加価値は何になるかということです。私はAIがすべてを行うようになると思います。
ありがとうステファン、いつものように非常に興味深かったです。長い間、あなたはこのトピックについて話し、7〜8年前には既にアシスタントエージェントについて言及していました。AIの進化に関するあなたの長年の専門知識と経験を共有してくれて本当に素晴らしいです。参加してくれてありがとう。
招待してくれてありがとう。


コメント