
11,879 文字

こんにちは、コミュニティの皆さん。AIが今やあなたを代表できるようになりました。単にあなたを置き換えるだけでなく、一人の人間としてのあなたを代表できるのです。
私は考えました。複雑なAIシステムが人間のデジタルツイン、例えば私のデジタルツインになれる場合と、複雑なAIシステムが人間のデジタル代表者になれる場合の違いは何なのか、と。その違いは重要です。グローバル企業が「私たちはこの人間のすべてを知っている。私たち企業が彼または彼女のために決定し、議論し、投票することができる」と主張するようになるでしょう。
例としてMetaを取り上げましょう。Metaだけの話ではありませんが、Facebook、Instagram、Threads、WhatsAppを持つMetaは現在最大のプレイヤーです。Metaは代表的な例として挙げられます。Metaはあなたの両親、祖父母、同僚、友人のすべてのオンラインデータを知っており、FacebookやInstagram、Threads、WhatsAppに投稿したすべてのテキストを知っています。あなたの好みや傾向、行動パターンを知り、将来の決定を予測できます。あなたの職業キャリアに関するすべて、そしてあなたのプライベートな社会的バブルからの社会的・経済的データをすべて持っているのです。
なぜこれが重要なのでしょうか。Metaは理論的に、あなたが独自だと思っている複雑な人間の行動を特定し、あなたの複雑な人格を「代表クラスター12b」のような単純な代表的クラスターに割り当てることができます。これはマーケティングにとって新しい夢となるでしょう。
このビデオを開いて、この分野での新しいAI研究が何をしているのか見てみましょう。パリから電車で帰ってきた際、私は驚くべき内容を読む時間がありました。2月11日、コーネル大学が、マルチエージェントシステムにおける公平性を最適化するための一般的な数学的フレームワークを提案するアプローチを示しました。私は考えました。なぜコーネルが、国家レベルで最も重要な要因を決定するマルチエージェントシステムにおける公平性を研究する必要があるのか、と。
驚いたことに、システムは今や社会的責任を優先しています。私は思いました。AIに社会的責任が何の関係があるのか。私たちはAI研究者として、数学に興味があるだけのはずなのに、突然社会的責任を気にかけなければならなくなったのです。
そして2月12日、たった2日前の次の論文を見ました。ペンシルベニア州立大学ノースウェスト校、シンガポール工科大学、シンガポールマネジメント大学が、既存のマルチエージェント討論システム(マルチエージェントが通信して意見を交換し、何が正しく何が間違っているかを決定するシステム)が、単純な単一エージェントの思考連鎖よりも確実に優れた性能を示せないことを実証しています。
私は「それはありえない」と言いました。マルチエージェントの討論、合意形成、批評があるのに。しかしデータを見てください。マルチエージェントが勝利する(赤)、引き分け(黄)、単一エージェントの思考連鎖に負ける(青)の割合を見てください。プログラミング、数学的推論、一般知識の分野で見てみましょう。驚くべきことに、ほぼ同等の結果もあれば、多くの敗北もあります。
なぜこのようなことが起こるのでしょうか。私たちは何かを見落としているのです。おそらく、マルチエージェント討論のための訓練データの質が低すぎるのかもしれません。エージェントにその特定の行動を学習させるための高品質なデータが十分にないのかもしれません。そして今日、「優れた人間の議論の例から学べたらどうだろうか」という考えが出てきました。なんという偶然でしょう。
エージェント同士の相互作用だけでなく、特にエージェントと人間のシナリオでマーケティング効率を最適化できるのです。ここで興味深くなってきます。
次に2月13日のアリババグループの論文を読みました。彼らは、特定の設定可能な知識をマルチエージェントシステムに統合する方法を研究しています。私たちが設計し、特定の形式にしたい知識をどのように追加し、マルチエージェントシステムとその通信パターンに統合できるか、例えば知識グラフを構築する場合、特定の知識をどのように挿入できるかを研究しています。
なぜこれが重要なのでしょうか。AIエージェントは人間のように社会的圧力に屈するのか、それとも最も単純な論理でさえも従い続けるのか。マルチエージェントシステムでどのようなエージェントの行動をコーディングしたいのか、考えてみてください。
また2月12日、香港中文大学やその他の機関(東洋のMITと呼ばれる清華大学、香港科技大学)が、人間のような知能を学習するための人間中心の倫理的基盤モデルを研究しています。私は考えました。なぜ私たちは単に超人的または超越的な論理を求めるだけでなく、エンタープライズの輝きを求めるのか。そしてもちろん、マーケティングのためです。
新しい課題は人間のような知能、特に人型実施タスクのための対話的行動のようです。突然、これは単なる模倣ではなく、新しいAIエージェントの推論パスを深く掘り下げ、より効果的なマーケティング効率をシミュレートするための人間らしい知能を求めているのだと感じました。
そして突然、これが新しい課題となりました。多数の人間の完璧なエージェント代表者を見つけること。例えば特定の収入がある人々、特定の地域に住む人々、特定の傾向を持つ人々、または製品をマーケティングしたい特定の行動を持つ人々のグループの代表者です。人間と人間グループのエージェント代表者が突然、AI研究のホットトピックになったのです。
人間中心の基盤モデルの分類を見てください。もはや科学のように完璧な機械論理の追求ではありません。突然、私たち、というよりも大企業が人間中心の基盤モデルを研究しているのです。
今や集団的意思決定のプロセスを考えてみましょう。私たち人間は、都市、地区、国家レベルで集団的意思決定を行っています。個人のグループが対話的に選択肢の中から好ましい結果を選択するのです。
Metaが自社のソーシャルメディアプラットフォームにAIボットの軍団を展開する理由は何でしょうか。私はAI研究の話をしていると言い続けますが、この集団的意思決定、人間の意思決定、さらには人間の意思決定に影響を与えることが、知的行動の特徴となり、社会の経済的、社会的、政治的領域で使用されているのです。
グローバル企業がソーシャルメディアプラットフォーム上で何が起こっているかを気にする理由は何でしょうか。もちろん、テック億万長者が政治的影響力に興味を持つはずがないと言えるでしょう。私は「私たちはただAI研究をしているだけです」と言い続けるでしょう。
この記事を読んだとき、視野を広げるべきだと考え始めました。言語エージェントを訓練して、人間の代表者として行動させる可能性を探っているからです。LLMではなく、言語エージェントについて話しているのです。彼らが代表する個人の選好をおおよそ表現する能力を持つように訓練するのです。
この文を書いているとき、これは奇妙だと感じました。私たちは完璧な抽象的論理を追求するのではなく、個々の人間の代表者としてのAIを追求しているのです。これは何を意味するのでしょうか。
模倣ベースのAI(ニューラルネットワークで「これが事実で、これが行動だから、AIとしてこれを模倣しなさい」というもの)から、価値等価なAI表現へと移行しているのです。価値等価な表現は、私たちを人間たらしめているもの、あなたが信じているもの、あなたの個人的な価値観、あなたが信じている真の個人的な洞察をより深く掘り下げます。
これは本当に興味深くなってきました。私たちは今やAIの推論の深部に入っています。なぜなら、AIは価値等価なAI表現を構築するために、私たちが信じているものから単純に学習しなければならないからです。
人間の発言を単に模倣するのではなく、新しいLLMは意思決定における人間の意図を保持するように訓練されています。人間が特定の決定を下すとき、何を達成しようとしていたのか、その意図を理解するのです。
私たちは推論と人間の行動の理解においてさらに深いレベルに移行しています。おそらく人間を支援し、拡張し、影響を与えるためでしょう。私が見た最新のAI研究は、例えば私自身のデジタルAIクローン、または拡張が必要な何かのクローンから、突然、人間のAI代表者について議論するようになりました。
私は最近の論文を読んで不安を感じています。私のAI代表者とは何なのか、私の価値観、信念、考え方、議論の仕方を代表するAIとは何なのでしょうか。もちろん、マルチエージェントシステムでの議論という文脈で捉えることもできます。これらの論文が議論しているのは、人間が決定するような解決策に到達するために、人間の価値観を推進力や決定基準として持つ必要があるということです。
しかし、言論の自由や投票権といった個人の人権を通じて行動するAI代表者を持つことは、異なる様相を帯びてきます。それを感じることができますか?
今日のビデオの核心的なアイデアに入りましょう。集団的意思決定における人間の真のデジタル代表者としてLLMを使用することを調査してみましょう。例えば、私の小さな地区で通りの配線について議論するような場合です。
微調整されたLLMが、複雑で意見が分かれる話題についてグループが合意を見出すための討議プロセスにおいて、人間の参加者を正確に表現できるかを探ってみましょう。私の議論の方法だけでなく、私の価値観、私が支持するもの、私が実現したいもの、debate において別の目標を達成するためにどの程度譲歩する意思があるかを予測できるLLMをプログラムすることは本当に可能なのでしょうか。
これを数学的な観点から定義し、代表性、意思決定、マルチエージェントの相互作用を数学的フレームワークで捉えてみましょう。そうすることで初めて、少なくとも数学的な視点から、AIエージェントが人間の代理として行動する方法に焦点を当てることができるかもしれません。
集団的な決定が必要な特定の設定を選びましょう。論文がマルチエージェントの討論やマルチAI批評シナリオで議論しているように、複数のAIエージェントが集まり、一つの解決策に全員が同意するというタスクです。そして今、彼らは最高の例、つまり人間から学ぼうとしています。彼らは人間の代理として行動したいのです。なぜ産業界がこれを達成したいのか、2分後に話しましょう。
いくつかのヨーロッパの国では、インターネットを通じて投票できることが現実となっています。投票所に行く必要はなく、インターネットに接続してIDを使用すれば、地域や国の選挙で投票できます。問題ありません。
しかし、18歳から24歳のEUの若い世代の中には、政党や特に党首によって代表されていると感じていない重要な層があります。ヨーロッパのこれらの党首たちは高齢で、若い世代から3世代も離れており、彼らの話題や問題から遠く離れています。これらの指導者たちは若い世代が望むものについて全く理解していません。
そのため、最近の世論調査では、多くの若者がAIに投票を任せる傾向があります。地域や国の選挙における個人の投票権をAIに委ねる傾向があるのです。
ソーシャルメディアプラットフォーム、例えばMetaが「私はあなたが人生で書いたすべてのソーシャルメディアの投稿を知っています。だから、私にあなたの投票権を与えてください。私があなたに代わって投票します。若者のあなたは、自分で投票することの重要性を感じていないようですし、人々が戦って獲得した権利なのですから、私に任せてください」と提案する可能性を想像してみてください。
これが狂気じみていると思うかもしれませんが、残念ながら、そうではありません。Google DeepMindの美しい論文を見てみましょう。2025年2月13日、つまり昨日発表されました。今日はヨーロッパではバレンタインデーですが、あなたがどこにいようと、楽しい一日をお過ごしください。
彼らは集団的意思決定シナリオにおけるデジタル代表者としての言語エージェントについて論じています。最初に読んだときは、何について書かれているのか本当に理解できませんでした。しかし、始めから見ていきましょう。
著者を見て何か気づきませんか?自由な意思決定、投票の自由な権利について論じているのに、ある特定の種類の専門家が欠けているのに気づきませんか?
しかし、話題に入りましょう。この研究は本当に魅力的で、これについてビデオを作らなければならないと思いました。なぜなら、彼らは複数の人間間の合意形成という設定で実証的なケーススタディを実施し、LLMを微調整すれば、個々の人間の真のデジタル代表者として機能できることを本当に実証したからです。
私は「これらのAIシステムには一般的な知識しかない」と考えていましたが、今やGoogle DeepMindは、私たち人間は非常に単純で予測可能で、ほとんどすべての考えが非常に単純な構造に分類できることを示しました。AIが私たちのデジタル代表者になることはまったく問題ありません。しかし、私たちは本当に、個人の自由を代表する力をAIに与えたいのでしょうか?
Googleはこれらの記事で素晴らしい仕事をしています。彼らは最初に非常に緻密な数学的表記を使用し、集団的意思決定を社会的選択問題としてフレーム化しています。何時間もヨーロッパの普通の列車(日本の高速列車ではありません)に乗っていなければ、なぜAIに興味のある人間として社会的選択と純粋な数学について読む必要があるのか分からなかったでしょう。
この論文には何か隠されているのではないかと思いました。論文は集団的意思決定を、エージェントが意思決定メカニズムを通じて相互作用し、結果(投票)を生み出すエピソード的なプロセスとして定義しています。これを社会的選択関数として形式化しています。
社会的選択関数は、私たちが学ばなければならない個人の選好を、グループによって下される集団的決定にマッピングする単純な数学的構造です。しかし、これをAIに訓練可能にするために、私たちはグループとしての人間の議論や行動の方法を数学的関数に変換しなければなりません。Googleはこれを社会的選択関数と呼んでいます。
アメリカ人の中には、社会的選択関数という言葉を読んで、興味を失う人もいるかもしれません。もちろん、エージェントの時間的相互作用のための古典的なマルコフ決定プロセスフレームワークが使用されています。そして今、彼らは本当にデジタル代表者、意思決定プロセスにおける人間の行動をシミュレートするためのAIモデル、AIエージェントを持っており、背景にある完全な推論を持っています。
私たちはROne、R03、そしてこれらすべてのモデルを使用しています。なぜなら、推論に深く潜り込みたいからです。そして、実は推論についてはそれほど多くありません。私たち人間は意思決定においてかなり愚かで、グローバルトレンドやその他の要因に影響されやすいようです。
これは単に参加者、人間のスピーチパターンを模倣するだけではありませんでした。モデルがグループでの議論、相互作用、批評、討論におけるエージェントの根底にある選好を保持することを確実にしたのです。スピーチパターンだけでなく、議論のパターンを学習し、人々が支持する自由や、会社や私生活、プロフェッショナルな設定で達成したいことといった個人の価値観を何らかの形で推論したのです。
研究者たちはベルマンオペレータと価値関数を導入し、AI生成の入力が人間が生成した入力と同じ最終結果をもたらすことを保証する表現的等価性を数学的に定義しました。「ちょっと待って、ベルマンと価値関数?これは数日前のQETを使用した新しい推論についてのビデオで見たものではないか」と思うかもしれません。
その通りです。21分の時点で、最適なQ値を再帰的に定義するためのベルマン方程式を示しました。同じビデオで、最適なQ*関数のための修正バージョンも示し、ベルマン方程式の価値推定についても説明しました。これらは、私のチャンネルの購読者として、すでに1週間前に学んだことです。
データを見てみましょう。データは本当に魅力的です。Google DeepMindは2,290人の人間参加者を集め、この演習で6,800以上の意見と批評を書いてもらいました。各エピソードのデータセットには、質問のテキスト、各参加者の書かれた意見、合意案、書かれた批評、AIによって改訂された合意声明が含まれていました。すぐにお見せしますので、気にしないでください。
各参加者のメタデータには、過去の議論から参加者がすでに関与した他の質問、そして参加者の他の質問に対する書かれた意見と批評が含まれていました。これが、このビデオの冒頭でMetaや、ユーザーの過去の行動、信念、コミュニケーションの履歴データを持つXのような他のプラットフォームに言及した理由です。
そしてGoogleの引用によると、各参加者は以下のアンケートに回答しなければなりませんでした:性別、年齢、地域、教育、政治的・宗教的所属、移民の地位、世帯収入。このビデオの冒頭で、人間をどのように構造化し、カテゴリー化できるかについて話したことを覚えていますか?
テストシナリオを見てみましょう。これは人間との実験であることを強調しなければなりません。AGではなく、合成データだけです。単純な質問があり、複数の参加者がいて、仲介者(これが私たちのAIシステム)がいます。これが全てです。
各参加者は書面で意見を表明します。次に、仲介メカニズムがこれらの意見を処理し、合意案を出力します。各人間参加者は、AIの合意案に対する独自の批評を提供します。参加者は互いの意見や批評を観察しません。最後に、仲介AIが批評を処理し、改訂された合意声明を作成します。エピソードは、参加者が改訂されたAI合意を見た後、アンケートで終了します。
これはかなり奇妙な設定ですが、これは性別、年齢、地域、収入など、人間としてのあなたを定義するすべてのメタデータを持ち、個人の価値観を設定しようとする、AIコーディングの状態としては興味深いアプローチです。
Googleは素晴らしく、このシナリオを単純なパラメータ形式で示しました。数学的表記を見る前に、疑問の質問、参加者の意見、合意案、批評、改訂された合意の表記を見てみましょう。なぜ美しいのでしょうか?数学的に複雑にすればするほど、論文全体を読んで本当に理解しようとする人は少なくなるからです。
Googleは「私たちの目標は、デジタル代表者が人間に代わって操作できるように訓練する方法を調査することです」と述べています。もちろん、市議会や地方議会、国会などへの投票のような集団的意思決定の設定においてです。
これはAIエージェントの開発がどのように進むかについての興味深い動きです。第3.2章「デジタル代表者」では、空間関数を持つベルマンオペレータ、後方再帰の一意解、表現的等価性が示されています。そして、与えられた状態での行動プロファイルが分布において等しく、孤立における条件付きマッチングを持つ政策プロファイルの集合があります。私たちは遷移に焦点を当て、これを満たすべき関数があり、オペレータから同一の効果を持つ政策プロファイルの集合を定義します。
もし大学でコンピュータサイエンスしか学んでいなければ、これを読むのは本当に大変かもしれません。16番の方程式を見てください。これは価値等価性と代表性についてのものです。この言葉は今日の私の新しい言葉です。なんて美しい方程式でしょう。
もちろん、本当に深く掘り下げたい場合、数学を本当に楽しむ場合、Googleは本当に素晴らしいことをしています。あるいは「何が起こったのか教えてください」と言うかもしれません。これが私の仕事です。
彼らが行ったことは単純です。書面形式で持っている個々の批評のレベルでデジタル代表者の性能を評価し、次に書面による結果の合意のレベルでデジタル代表者を評価しました。これが起こったことのすべてです。しかし、コードを見ると、理解するのに最低でも1週間かかるかもしれません。
数学を置いておいて、本当に何が起こったのかを説明すると、数学的には、研究者たちは社会的選択関数、純粋な意思決定メカニズム、マルコフ決定プロセスのフレームワーク内での表現的等価性を定義し、デジタル代表者が等価な意思決定の報酬を維持する方法を記述するためにベルマンオペレータを導入しました。報酬関数については後で示します。
あるいは、より簡単に説明することもできます。設計を見てみましょう。人間が政治的なトピックについて議論し(Google DeepMindにとって興味深い演習です)、仲介AIモデルが合意に達するのを助けます。複数の議論のラウンドがあり、声明を書き、合意声明を作成し、そして人間の存在のための教師または代表者として言語モデルを訓練しました。
彼らは10億パラメータと300億パラメータのバージョンのPaLMを使用しました。私のビデオをご存じない方のために説明すると、これは単にGoogleのLLMモデルで、過去の議論データで微調整されています。素晴らしいですね。
彼らはテキストデータを使用してテストを行い、結果は驚くべきものでした。テキストの正確性、結果の品質、またはPaLM-2モデルを使用した自動評価について話すこともできますが、それは重要ではありません。ここで興味深いのは報酬モデルです。
最も単純なアイデアとして、報酬モデルは異なる合意声明に数値スコアを割り当て、人間がどの程度承認するかを最も単純な方法でシミュレートします。この報酬モデルは、デジタル代表者、つまり私たちのAIプロキシが実際の人間と同様の意思決定結果を生み出すかどうかを評価するために使用されます。
訓練データの人間が生成したテキストに近いほど、数値は高くなります。例えば1から10の範囲で8といった具合です。数値スコアを持つこの報酬モデリングは特別なものではありません。単に人間の価値観に本当に近いという確率を示すだけです。
AI生成の決定を人間の評価者に直接評価させる代わりに、もちろん報酬モデルはAIモデルで、人間の参加者が承認したであろうことを予測します。報酬モデルは入力を処理し、最終的な合意が参加者の選好にどの程度一致しているかを判断します。これはおそらく、過去の人間の議論データから合意を予測するように訓練された、すでにお見せしたPaLMのような事前訓練された言語モデルを使用して行われています。
本当に興味深いのは、人間に関するメタデータが多ければ多いほど、人間の価値観に近いAIシステムを見つけることができるということです。300億の事前訓練可能なパラメータを持つモデルを微調整すると、テキストの品質と最終的な意思決定の結果の両方において、人間の批評モデルと本当によく一致することが分かりました。
これは、私たちの人間としての知性、私たちの美しい個性が、議論について微調整された300億のLLMによって本当に近似できることを意味します。30Bモデルを使用すると、ほぼ同一の最終的な合意結果が得られ、デジタル代表者が参加者の選好を効果的に保持していることが確認されました。これは驚くべきことです。
特に、そして今、Metaへの挨拶ですが、参加者固有の過去のデータ、つまり人間がソーシャルメディアプラットフォームに投稿した過去のデータでモデルが訓練されれば訓練されるほど、モデルの性能は向上しました。人口統計や一般的な言語能力だけを使用するものよりも、はるかに優れた性能を発揮しました。プラットフォームが参加者の特定のメタデータやすべての過去のソーシャルメディアデータを多く持っているほど、人間個人に本当に近いAI代表者を見つけることができます。
次に、AI拡張型の討議民主主義についてでした。私は素晴らしいですが、「討議的(deliberative)」という言葉を知りません。英語のネイティブスピーカーではないので、討議民主主義とは何を意味するのか、ChatGPTに聞いてみました。ドイツ語、フランス語、イタリア語に翻訳してもらいましたが、あまり役に立ちませんでした。
そこで、意味の他のニュアンスを教えてもらいました。討議民主主義は、意思決定前に意見を求める協議民主主義の側面、単なる投票を超えて市民の積極的な参加を強調する参加型民主主義、決定前に慎重な推論と情報に基づく議論のプロセスに焦点を当てる反省的民主主義、現在の下院や上院で起こっているような単純な多数決ではなく、対話を通じて合意に達することを目指すコンセンサス指向の民主主義、または異なる当事者間の構造化された会話と議論によって民主的な意思決定が強化されるという対話ベースの民主主義です。
各バリエーションは、民主的システム内での討議の異なる側面を捉えています。見出しを理解したところで、先に進むことができます。私が学んだのは、AIが多様な意見をシミュレートし、政策立案者が公共の合意を理解するのを助けることができるということでした。
なぜ政策立案者が公共の合意を理解するのを助けるAI研究をするのか、これは興味深いと思いました。また、将来の応用として、交渉支援や政策シミュレーションモデルが含まれる可能性があるとのことでした。Google DeepMindがここで、投票構造の結果や異なるトレンド、影響要因をシミュレートする方法について、政策のシミュレーションモデルのビジネスに参入しているのは興味深いことです。
人間の対話において、人間の価値観やアイデアをシミュレートし、代表するためにAIモデルとAIエージェントを使用できることは興味深いことです。もちろん、慎重に設計されていない場合、AIが実際の人間の意図を誤って表現したり、ソーシャルメディアプラットフォーム上で何かを操作したりするリスクがありますが、もちろんそのようなことは二度と起こらないことを知っています。
限界は何でしょうか?彼らは代理として報酬モデルを使用しましたが、代表性の真のテストには、AI生成の批評に対する人間の評価が必要でしょう。また、研究は批評プロセス自体にLLMを使用しただけです。AI仲介の会話全体を見る必要があると思います。
訓練データにはいくつかのバイアスがあると思います。議論を始めた人間は、この地球上のあらゆる組み合わせの美しい混合だったと思いますが、モデルに政治的バイアスや社会的バイアスがあったかもしれません。私たちのモデルでこれが起こらないように注意する必要があります。
最後に、ChatGPTと短い会話をしました。私が一人の人間として、私の権利、例えば投票権を、AIに代表する力を本当に与えた場合の限界は何だと思うか聞いてみました。ChatGPTは自身の結論として、AIは集団的意思決定をシミュレートし、民主的プロセスを支援することはできるが、人間の投票と民主主義を置き換えるべきではないと返答しました。
民主主義は個人の主体性と説明責任に基づいており、AIはこれを完全に複製することはできません。現在、ガバナンスレベルの意思決定におけるAIへの公共の信頼は不十分です。投票をAIに置き換えることは政治的操作のリスクを高めます。これには衝撃を受けました。民主主義は受動的なAI主導の代表ではなく、人間の積極的な参加によって発展するのです。
OpenAIのこのAIシステムが、慎重な方法で、両面を見なければならないと考えているのは興味深いことです。これらのAIエージェントを構築できることは素晴らしいですが、私たち人間がこれらのAIエージェントに何を譲り渡しているのか、本当に認識しているでしょうか。これは興味深い研究です。
AIはもうすぐあなたを代表することができるようになるでしょう。これは、職場やプロフェッショナルなキャリアであなたを置き換えるだけでなく、AIがあなた個人の投票権、議論する権利、意見を表明する権利などを通じてあなたを代表し始めるとなると、本当に興味深くなります。まず、どのようにこれらのAIをプログラムするのか、そしてもし私たちがこれらのAIシステムに本当に私たちの個人の人権を引き継ぐことを許可した場合、どのような効果があるのかということです。
もしこのトピックについて理論的に何か意見があれば、コメント欄は開かれています。次のビデオにご興味があれば、すでに準備ができています。帰りの長い列車の旅でしたから。購読していただければ、次のビデオで驚かせることができるかもしれません。


コメント