
15,120 文字

彼は現代で最も人気のある作家の一人です。ユヴァル・ノア・ハラリ、歴史家、公共知識人、そしてベストセラー作家との対談ができて光栄です。ケーララ文学祭に参加してくださり、ありがとうございます。インドへようこそ、そしてKFへようこそ。
ありがとうございます。ご親切なご招待をいただき、皆さんとここでお話しできて嬉しく思います。ハラリさんを実際に見ることができないKFの皆さんには、この質問と回答が満足していただけることを願っています。
それでは、インタビューに直接入りましょう。あなたの新刊『Nexus』は、『サピエンス』の終わりから始まると考えていますか?
はい、『サピエンス』はアフリカの猿が世界を支配し征服するまでの物語を語っています。『Nexus』は『サピエンス』が終わったところから始まり、人間がとても賢く、世界を支配するほど賢いのなら、なぜ私たちはこれほど愚かで自己破壊的なのか、なぜ私たちは多くの方法で自分たち自身の文明を弱体化させているのかを問いかけています。生態学的危機があり、第三次世界大戦につながる可能性のある国際的緊張の高まりがあります。そして、私たちは史上最強のテクノロジーであるAIを作り出していますが、これは私たちの制御を逃れ、私たちを奴隷にしたり破壊したりする可能性があります。
この本の重要な問いは、私たちがとても賢いのになぜこれほど自己破壊的なのかということです。もちろん、これは歴史の中で何度も問われた質問であり、人間の本性に私たちを自己破壊的にする何かが間違っていると主張する多くの伝統があります。『Nexus』は異なる答えを提供します。問題は人間の本性にはありません。人間は本来、ほとんどが善良です。問題は私たちの情報にあります。良い人に悪い情報を与えると、彼らは悪い決断をします。人間はほとんど現実に反応することはありません。私たちは現実のイメージに反応し、その現実のイメージは非常に歪んでいる可能性があります。
そこで問題になるのは、もし本当に主な問題が情報であるなら、歴史の発展とともに私たちの情報はなぜ改善されなかったのでしょうか。何千年もの間、私たちはますます洗練された情報技術を開発してきました。書き物や印刷機、そしてラジオやテレビ、コンピュータ、AIなどです。私たちは情報の質の向上を見るべきだったのですが、それは起こっていません。現代を見ると、現代の国家は石器時代の部族と同様に集団的妄想や集団的精神病の犠牲になる可能性があります。人々は世界について最も有害で残酷でばかげた物語を信じることができます。なぜ私たちの情報は良くならないのか、これが『Nexus』の主要な問いです。
私たちが『サピエンス』を読むとき、認知革命について語られているので、ホモ・サピエンスであることを幸せに感じますが、『Nexus』を読むと、人間は賢いけれども愚かで自己破壊的だと言われていて、少し落ち込みますね。
はい、私たちは容易に欺かれます。これは実際に、古代ヒンドゥー教や仏教の世界観にもさかのぼります。世界についての主要な問題は悪ではなく、無知、妄想だという考えです。キリスト教やイスラム教のような一神教では悪の信念がありますが、ヒンドゥー教や仏教では、問題は通常、無知と妄想だという主なアイデアがあります。
そして再び、人間は技術的発展、特に情報技術の分野でのすべての発展により、無知と妄想から解放されると考えています。しかし、それは起こっていません。時々、人々はAIが世界について真実を教えてくれるかもしれないと考えますが、それもまた起こりそうにありません。危険なのは、AIが私たちを歴史上かつてないほど悪い妄想の網の中に閉じ込める可能性があることです。
本の中で何度も、新しい技術が登場するたびに人々は世界の終わりのような終末論的予測をしてきたと述べていますが、AIに関してはそのような予測をしようとしましたか?それとも、そうしないように抵抗しましたか?インタビューでもAIが絶滅につながると言っていますが。
それは予言ではなく警告です。AIには非常に大きな肯定的な可能性があり、同時に非常に大きな否定的な可能性もあります。どちらの道を選ぶかは私たちの決断次第です。現時点では、あまりに早く判断せずに、まずこの新しい技術の非常に大きな力を理解する必要があると思います。
AIについて誰もが知っておくべき一つのことは、これはツールではなく行為者(エージェント)だということです。私たちは何百万、何十億もの新しい行為者を作り出し、世界に解き放っています。以前の技術、例えば印刷機のような情報技術を考えると、印刷機は非常に強力な機械でしたが、何も決断することはできませんでした。印刷機は『Nexus』を印刷するか、別の本を印刷するかを決めることはできません。常に人間がこの本を印刷しようと決める必要があります。
もちろん、印刷機は本を書くことはできません。印刷機は新しいアイデアを生み出すことはできません。印刷機と紙の束と大量のインクと大量の電気を用意して座って待っても、それは一つの新しいアイデア、一つの新しい言葉も生み出すことはありません。
今、AIは印刷機やラジオ、テレビ、これまでのすべての技術と異なります。なぜならそれができるからです。AIは決断を下すことができます。例えばソーシャルメディアを見ると、どの投稿を広めるかという決断がなされます。あなたがソーシャルメディアに行って何かの動画を見るとき、誰があなたにこの動画を見せることを決めたのでしょうか?その決断は非常に頻繁にアルゴリズム、つまりAIによってなされました。
そしてAIは、自分自身で新しいアイデアを作り出すことがますます可能になっています。すでに今日、AIはテキストを書き、音楽を作曲し、画像を描き、ビデオ全体を作ることができます。そしてこれはAI革命のごく初期に過ぎません。まだ何も見ていないのです。今日のAIはまだ非常に原始的ですが、それでも私の分野である執筆では、現在のAIはほとんどの人間よりも上手に書くと言っても過言ではないでしょう。まだノーベル文学賞を受賞する人々はAIよりも上手に書きますが、平均的な人については、AIはすでに平均的な人と同等かそれ以上のレベルで書くと思います。
また、本の中で印刷機をあまり褒めていませんね。科学的革新は印刷機のおかげではないと言い、印刷機が魔女についての噂を広めたとも指摘しています。私の質問は、印刷機には特定の問題があり、人々が誤情報や偽情報を広めるのを助けたとすれば、AIはそれを別のレベルに引き上げるだけということですか?
私たちが新しい情報技術を発明するたびに、より多くの情報を作り出し広めることがより簡単になります。しかし、それによって真実や空想や幻想や嘘を作り出し広めることもより簡単になります。問題は、世界のほとんどの情報は真実ではないということです。真実はすべての情報の中で非常に小さな部分集合です。
なぜか?三つの理由があります。まず、真実はコストがかかります。何か真実を書きたいなら、時間、エネルギー、お金を投資して証拠を探し、証拠を比較し、調査をする必要があります。これはコストがかかります。空想は非常に安価です。ただ書きたいことを書くだけです。真実は複雑ですが、空想は好きなだけ単純にできます。
私たちは空想を真実として投影することもできますか?
はい、空想を真実として投影することはできますし、その違いを見分けるのは難しいです。人々は通常、複雑な話よりも単純な話を好みます。だから彼らは真実の話よりも空想の話を好む傾向があります。そして最後に、真実はしばしば痛みを伴います。自分の人生のレベルから国家や文化全体のレベルまで、私たち自身について知りたくないことがたくさんあります。痛みを伴う真実があります。一方、空想は好きなだけ魅力的で心地よいものにすることができます。
この高価で複雑で痛みを伴う真実と、安価で単純で魅力的な空想との競争では、空想が勝つ傾向があります。したがって、世界のほとんどの情報は真実ではありません。単に情報をより多く広める新しい情報技術を作っても、その情報のほとんどはガラクタになります。
真実を求めるなら、技術だけでなく、大学や裁判所、責任ある新聞のような機関も構築する必要があります。これらの機関はガラクタ情報の海から真実の希少な宝石を分離する困難な作業を行います。これが重要な仕事です。それは技術を発明することではなく、機関を構築することです。
あなたの話から理解したことは、私たちの機関に偏見がある場合、例えば裁判所やメディア組織を取り上げると、その偏見がAIに反映されるということですね。私たちは大学やメディア組織を通じて真実に投資するシステムを持っておらず、それが私たちのAIにも反映されるということです。そして、私たちの機関が悪ければ、AIも悪い目的のために使われるということですね。
はい、しかしAIにはもう一つの難しさがあります。これまで言ったことはすべて印刷機やラジオについても同様でした。20世紀には、ラジオが民主的社会によって真実を広めるために使われ、全体主義的独裁者によって嘘を人々に押し付けるために使われるのを見ました。これは古い問題であり、AIにも同様の問題がありますが、AIでは新たな問題も追加されます。それは、AI自体が嘘や偽情報や妄想を広めることを決断し、ラジオができなかったような有害な情報を発明、作成できることです。
もしラジオや印刷機が有害な情報を広めた場合、最終的にはその情報は人間の心から来ていました。しかし今、AIでは、テキスト、画像、ビデオ、音楽、そして多くのものを人間よりもはるかに効率的に生成できる、何百万、そして潜在的には何十億もの行為者と対峙することになります。
何千年もの間、私たちは人間が生み出した文化の中で生きてきました。私たちが出会ったすべてのもの、すべての歌、詩、音楽、画像、建築、物理的なもの、椅子、テーブル、宗教的神話、政治的イデオロギー、これらすべては人間の心から来ていました。今、私たちは地球上に人間よりも効率的にこれらのものを創造できるものを持っています。
10年後や20年後、特に若い人たちにとって、ほとんどの音楽がエイリアンのインテリジェンス、AIによって作られ、ほとんどのテキストが人間の脳から来ていない世界に生まれるというのはどういうことでしょうか?
例えば宗教について考えてみましょう。ユダヤ教はテキストに基づいた宗教です。ユダヤ教の聖なるテキストは書かれた言葉に対して非常に大きな権威を与えています。そして、ユダヤ人が何千年にわたって行ってきたことは、テキストを読み、それに関するより多くのテキスト、解釈や解説などを書くことです。
ユダヤ教ではあまりにも多くのテキストが作られたため、誰もそれらをすべて読んで覚えることはできません。最も賢いラビでさえ、すべてのテキストを読んで覚えることはできません。今、AIは初めて、ユダヤ教のすべてのテキストを読み、覚え、分析できるインテリジェンスとなりました。そして、AIは新しいテキストを作り始め、あなたと会話することさえできます。
本、聖書との問題の一つは、それらが決して話し返さないことです。あなたが聖書を読んで質問があっても、本はどの解釈が正しいか間違っているかを教えてくれません。あなたは人間に尋ねなければなりません。
つまり、宗教的な人々が聖書を特定の方法で解釈したために力を持つようになったのと同じように、AIは今、聖書をもっと上手に解釈できるかもしれないということですね。
AIはユダヤ教やキリスト教、イスラム教のすべてのテキストを読み、司祭やイマームが見つけられなかったパターンを見つけることができるため、おそらく人間よりも優れた解釈ができるでしょう。
あなたがオンラインで聖書や神についての質問があるとして、素晴らしい答えを得たとします。あなたはその答えがAIから来たのか、それとも人間の司祭から来たのかさえわからないかもしれません。
でも、その答えが正しいか間違っているかを知るには、もっと調査する必要がありますよね。人々がAIに頼るのは、そういった作業をしたくないからです。
はい、そしてもしあなたがそれを信頼するようになると、AIが宗教を乗っ取るかもしれません。特にテキストに基づいた宗教では、権威がテキストにあり、AIがテキストに関する世界最高の専門家になると、彼らはテキストの宗教を乗っ取るでしょう。彼らは新しい宗教さえ作り出すかもしれません。新しい聖書を書くことができ、あなたはそれが誰がAIで誰が人間かさえわかりません。
少なくとも、インターネットを介してオンラインでコミュニケーションを取る場合、あなたにはわかりません。以前は、2年前には、オンラインで誰かと会話していたら、1、2分後には確実にそれが人間なのかボットなのかがわかりました。人間でない限り、何時間も何日も会話し続けることはできません。しかし、今はもうそうではありません。
私たちはすぐに、私たちと会話できる何百万、何十億ものAIエージェントに遭遇するでしょう。おそらく彼らは私たちの友達になるでしょう。そして、これにより彼らは私たちの世界観、政治的アイデア、宗教的アイデアを形作る力を持つようになります。誰かの意見を変えたい場合、親密さは最も強力な武器だからです。
2010年代、前の10年間では、ソーシャルメディアなどで人間の注目を集めるための大きな戦いがありました。ソーシャルメディアにはとても多くの情報があり、人間の注意力には限りがあるため、誰があなたの注目を集めるかという戦いがありました。憎しみや欲望、恐怖を広めるコンテンツがソーシャルメディアの多くを占めるようになりました。なぜなら、これらは最も効果的に私たちの注目を集めるものだからです。
2020年代の今、戦線は注目から親密さへと移行しています。今、AIやアルゴリズムは関係を偽造し、本当に親密な関係を私たちと作ることができます。彼らは私たちをとてもよく知り、感情的に私たちを操作する方法も学びます。
二人の人間が交流するとき、相手の感情を理解するのが難しいことがよくあります。なぜなら、私は自分の感情に気を取られているからです。私が悲しいとか怒っているかもしれず、あなたが言っていることやあなたがどう感じているかに本当に注意を払っていないかもしれません。AIには独自の感情がないため、100%あなただけに、あなたの感情だけに集中することができます。彼らは人間の感情を理解し、そして操作することにおいて人間よりも優れるようになる可能性があります。
人間との関係を偽造できるAIを開発することには、非常に強力なビジネス上のインセンティブ、商業的なインセンティブがあります。これがAI革命とともに私たちが直面している大きな社会的危険の一つだと思います。
冗談ではなく、ユヴァル・ノア・ハラリにインタビューする予定だと人々に言ったとき、少なくとも5人が「本を読まずに、どんな質問をすればいいかChat GPTに聞いてみなよ」と言いました。なぜそうするのか、彼の本はまさにAIについてなのに、なぜChat GPTに行って質問するのかと思いました。でもこれが人々がアドバイスしていることです。AIに頼り、質問を探すことです。
一つ聞きたいことがあります。あなたが言っていることを聞いたり、本に書いていることを読んだりしましたが、良い人が悪い情報を得ると、悪いことをすると言っていますね。でも、あなたは人々に対して優しすぎるのではないでしょうか?情報は真空の中で作られるわけではなく、悪い情報を作るのは悪い人々です。なぜこの本では、人間に対して極端に親切に「それはいつも悪い情報であり、良い人なのだ」と言っているように感じるのでしょうか?
もちろん、意図的に悪い情報を広める悪意ある行為者の問題があり、AIが悪い情報を作り出すという問題も増えるでしょう。私は、人間が自分が消費する情報の種類に対して責任を持っていると思います。
情報の摂取方法がとても悪ければ、それは非常に悪い食事と同じです。ジャンクフードをたくさん食べて体調を悪くすると、医師はそれは部分的にあなたの責任であり、もっと良い食事をするべきだと言うでしょう。同様に、非常に悪い情報の摂取方法をとり、憎しみや欲望、恐怖でいっぱいのジャンクな情報をたくさん摂取して心を病気にするなら、それは部分的にあなたの責任であり、より良い情報の摂取方法を試みるべきです。
完全に同意します。人間からすべての責任を取り除くつもりはありませんが、歴史的な大災害を見て、人々がそのようなことをどうしてできたのかと自問するとき、多くの場合、彼らは世界について非常に奇妙で悪い物語を信じていたために恐ろしいことをしたのです。
インタビューの前にお話ししたように、インドでは情報の摂取管理をしていない人々のことを「WhatsAppおじさん」「WhatsAppおばさん」と呼んでいます。「私はWhatsAppおじさんです」と印刷されたTシャツさえあります。
本のメインテーマは情報の素朴な見方についてですね。あなたが言っているのは、誤情報や偽情報、情報の解決策はより多くの情報ではないということですね。
はい、それは一般的な間違いです。人々は「悪い情報があるなら、もっと情報を増やそう」と言いますが、再度言いますが、ほとんどの情報は真実ではありません。世界をより多くの情報で溢れさせても、人々の知識は増えません。
私たちが本当に必要なもの、社会や個人にとって最も重要なものは、自己修正メカニズムです。これは個人や社会全体が自分たちの間違いを特定し修正するためのメカニズムです。なぜなら、誰もが間違いを犯すからです。問題は、あなたが自分の間違いを特定し修正するメカニズムを持っているかどうかです。
子供が歩き方を学ぶとき、子供は主に自己修正によって学びます。親や教師からのアドバイスを得るかもしれませんが、主にあなたは立ち上がり、歩こうとし、転び、何か間違いをしたと理解し、別のやり方を試み、徐々に歩き方を学びます。
同様に、科学では、科学者は常に自分たちが間違いを犯す可能性があると想定しています。完璧な科学者も、間違いのない聖書のような科学書もありません。科学者は既存の理論の間違いを常に探し、科学雑誌や科学論文が発表するほとんど唯一のことは、前の理論に対する修正です。
同様に、政治では、民主主義の全体的なアイデアは自己修正メカニズムを持つことです。あなたは誰かに投票し、彼らにその後権力を返すという条件で限られた時間だけ力を与えます。そして、公衆は「前回は間違いを犯した、今度は別の人に任せよう」と言うことができます。
でも、自己修正メカニズムがない場合はどうでしょうか?あなたは情報を修正するためにより多くの情報を与えることは機能しないと言っていますが、その場合、私たちはどのようにその情報を修正すればいいのでしょうか?
そうすると、独裁政権のようになります。独裁政権は、独裁者がどんな間違いを犯しても自己修正メカニズムを持たない政治システムです。選挙はなく、独裁者を交代させることは不可能です。そして、独裁者はすべての新聞、すべてのラジオ局、すべてのインターネットチャンネルを支配しているので、常に独裁者は天才であり、決して間違いを犯さないという情報を公衆に大量に浴びせます。そして、どんな問題も敵や裏切り者のためだと言います。そのようなシステムでは、間違いが一度も修正されることはありません。
私はジャーナリストなので、情報だけでなく真実についても考えています。真実を大量に浴びせるということについては、あなたの視点ではどうでしょうか?情報、誤情報、偽情報があるとして、それは役立つでしょうか?
重要な問題は、どの情報源を信頼するかをどうやって知るかということです。誰もが「私が言っていることは真実だ」と言っています。誰を信頼すべきかをどうやって知るのでしょうか?
ここで私が提供できる最善のアドバイスは、強力な自己修正メカニズムを持つ機関を信頼することです。例えば、その機関に過去に犯した間違いについて教えてもらうよう依頼してください。「私たちは決して間違いを犯しません、常に正しいです」と言う機関は信頼できません。なぜなら、誰もが間違いを犯すからです。
科学を信頼する理由の一つは、科学がしばしば自分自身の間違いを認めることを喜んでいることです。ノーベル賞のような科学における最も重要な賞は、前の世代が言ったことを繰り返す人々に与えられるのではなく、前の科学理論の間違いや欠けている部分を発見し、それを公衆に伝える科学者に与えられます。そのため、科学は常に自分自身の間違いを暴露し、そのため私は科学機関を信頼する傾向があります。
例えば、インドでは政府が現在、これまで教えられてきた歴史は、特定のリベラルで進歩的な視点からのものであり、ヒンドゥー教や、ムガル帝国やその他の王たちが来たときに何が起きたかについて語っていなかったと言っています。そのため、教科書が修正されています。しかし、それは彼らのバージョンの真実であり、大規模な人口に押し付けています。そうすると、真実対真実の問題になり、一人の真実と他の人の真実の問題になります。
問題は常に、どのような証拠を持っているかということと、人々が他の意見を表明し、他の意見を支持する証拠を探すことが許可されているかどうかです。それが重要なテストです。
独裁的な国、全体主義的な体制では、公式の語りに疑問を投げかけることは単に法律に反しており、刑務所に入れられる可能性があります。または、自警団があなたを害する可能性があります。これは非常に悪い兆候です。
良いシステムの兆候は、人々が複数の声があることです。民主主義は会話であり、会話は複数の声があってこそ成立します。
例えばインドの歴史について話すなら、帝国時代やインド史の以前の時代に何が起こったかについて、さまざまな人々が異なる見解を持つことは完全に正当です。問題は、さまざまな人々がこれらの異なる意見を表明し、証拠を提供し、人々がその提供された証拠に基づいて判断することが合法か、許されているかということです。
歴史学を含む科学における最も基本的なことは証拠です。証拠が重要な言葉です。
そして証拠とは、あなたが発明するようなものではなく、古代の文書を見つけるために文書館に行ったり、あなたの主張を証明するために地面を掘って古代の考古学的遺物を見つけたりすることです。
もう一つ重要なことは、世界のすべての国が通常、自分自身を最も良い光の中で示すことに非常に熱心だということです。だから、あなたの国を完璧に描き、すべての問題は他の誰かのせいだとする歴史のバージョンを手に入れた場合、それを疑う理由があります。なぜなら、どの国も歴史の中に暗い出来事を持ち、どの国も間違いを犯し、犯罪を犯してきたからです。
歴史家として、私が国々の成熟度、彼らが自分たちの歴史をどのように理解しているかを評価する方法は、彼らが自分たちの間違いや犯罪を認め、受け入れることができるかどうかです。それは自分自身を嫌い始めるという意味ではありません。個人のようなものです。私が「間違いを犯した、この人に痛みを与えた、これをすべきではなかった」と認めることができるという事実は、私が自分自身を嫌い始め、「ああ、私は世界で最悪の人間だ、何も値しない」と言うことを意味するわけではありません。いいえ、私は人間であり、間違いを犯し、それから学ぼうとしています。それは国のレベルでも同じであるべきです。
AIについての議論を締めくくりましょう。あなたはAIの進歩に対して常に警告を発してきた世界的な声の一人であり、昨年はオープンレターに署名しました。私の質問は、AIに対するあなたの根本的な問題は何ですか?それを使う人間なのか、技術そのものなのか、それとも私たちが何が起こっているのか理解できないほど速く発展しているということなのでしょうか?
それはこれらすべてです。どんな技術でも、間違った手に渡れば間違った目的のために使われる危険性は常にありますが、AIには新たな危険性があります。それはAI自体が行為者であり、私たちの制御を逃れ、決定を下し、私たちに害を与える新しいアイデアや製品を発明し始める可能性があるということです。
これは必然ではありません。人間は非常に適応力があります。しかし、私たちは単に適応するための時間が必要です。私はAIのすべての開発を止めようと言っているわけではありません。それは起こらないでしょうし、望ましくありません。AIには非常に大きな肯定的な可能性もあるからです。
ではあなたは何を提案しますか?
基本的には速度を落とし、安全性にもっと投資し、人間社会が適応する時間を与える必要があります。
歴史的な類推をしてみましょう。最後の大きな技術革命、19世紀の産業革命を見てみましょう。産業革命の問題は、技術が悪かったということではありませんでした。蒸気機関、列車、電気、これらすべてのものは悪ではありません。問題は、人々がそれらをどのように使うべきかを知らなかったことでした。なぜなら、彼らには産業社会を構築するための歴史的なモデルがなかったからです。
そこで人々は実験し、これらの実験の多くは恐ろしい結果につながりました。一つの大きな実験は帝国主義でした。産業革命が勃発したとき、多くの人々は産業社会を構築する唯一の方法は帝国を築くことだと言いました。なぜなら、原材料の供給源と産業の市場を支配する必要があるからです。
はい、イギリスのように。
そして、最初に産業化した国、イギリス、そしてフランス、ベルギー、ドイツ、日本、彼らは皆、帝国を築きました。なぜなら、人々はこれが産業社会を構築する唯一の方法だと思ったからです。それはインドだけでなく、世界の多くの地域で数億の人々に恐ろしい結果をもたらしました。
もう一つの実験は全体主義体制でした。人々は産業社会を築く唯一の方法は、ナチス・ドイツやソビエト連邦のような全体主義体制を築くことだと考えました。なぜなら、産業の巨大な力を制御する唯一の方法は、政府がすべてを支配することだと考えたからです – 経済、社会、文化、全体主義です。
今、私たちはこれらが間違いであり、産業社会を構築するより良い方法があることを知っています。しかし、当時の人々はそれを知りませんでした。そして危険なのは、速度を落とす兆候はないということです。速度は速くなるばかりです。
AIの革命を主導する多くの人々と話すと、彼らは「私たちは危険を認識していますが、速度を落とすことはできません。なぜなら、もし私たちが速度を落とせば、競争相手が速度を落とさず、彼らがAIの競争に勝ち、世界を支配することを恐れているからです」と言います。そして競争相手と話すと、彼らも同じことを言います。
本質的には、これは人間間の信頼が不足している問題です。AIの革命のパラドックスは、「私たちは他の人間を信頼できないから、より速く進まなければならない」と言う同じ人々が、「でもあなたたちが作っているAIを信頼できますか?」と聞かれると、「はい」と答えることです。
彼らは人間を信頼していませんが、AIを信頼できると考えています。これは非常に危険で奇妙なことです。なぜなら、私たちは人間に関する何千年もの経験を持っています。人間は嘘をつき、騙し、欺くことができることを知っていますが、私たちは人間間で信頼を築く方法も知っています。
AIについては、私たちは経験がありません。AIも嘘をつき、騙し、欺くことができることを知っていますが、互いに相互作用する何百万ものAIの社会がどのように見えるのか、そして私たちがそれを信頼し、非常に危険なことをすることを防ぐことができるかどうかを理解していません。私たちにはその経験がありません。
本の中で非常に興味深いことの一つは、サッカーをするときに、すべての国がプレーヤーはステロイドを使用すべきではないと決定したことを説明していることです。ある国がペナルティを課したい場合でもそうすることができましたが、スポーツが前進できるように全員がそのアドバイスに従います。AIを抑制するためには、すべての国が同意しなければならないという考えがあるということですか?
これがアイデアですが、現時点ではほぼ不可能に思えます。特に、AIの競争をリードしているアメリカ合衆国は、規制やグローバルな協力に完全に反対する新政権を持っているため、そのような合意が成立する可能性は非常に低いです。
私にとって現時点で最も重要なことは、単に何が起こっているかを理解し、議論に参加する人々をもっと増やすことです。現在、AIについて何をするべきかについての議論があります – おそらく歴史上最も重要な議論です。AIの開発に関する決定は、実際に惑星を乗っ取る可能性のある新種の開発に関する決定です。
現時点では、主要な決定は少数の人々によって少数の国、主にアメリカと中国で下されています。なぜなら、彼らだけが何が起こっているかを本当に理解しているからです。『Nexus』とこのようなインタビューを通じての私の目的は、世界中のより多くの人々に何が起こっているかを理解してもらい、彼らも議論に参加し、意見を表明できるようにすることです。より多くの人々が参加することで、より良い決定ができることを願っています。これが起こるかどうかは、将来見てみましょう。
アメリカと新政権に言及したので、最近起こったことの一つはイーロン・マスクがXを買収し、誰でも何でも言える自由言論推進として偽装したことです。それは独自の問題を生み出しました。インドに住んで私がAIを使うとき、AIはアメリカのAIなのでインドを理解していないと常に感じます。そして、AIがインドを理解し始め、どのソースを参照するのか、どんな偏見が私たちに投影されるのかを恐れ始めるのです。
AIは世界について真実を教えてくれる完璧な機械ではありません。AIは人間と同じくらい偏見を持つことがあります。それは与える情報と構築方法によります。今、これらのAIを作っているエンジニアの決定が、これから何世代にもわたって世界の形を変えるでしょう。あなたは非常に異なる種類のAIを作ることができます。
言論の自由に関するこの話は、多くの点で誤解を招きます。なぜなら、言論の自由を持つのは人間だけだからです。しかし、X、TikTok、その他多くのプラットフォームでは、実際にプラットフォームを制御しているのはAIです。私は企業がソーシャルメディアで人間が言うことを検閲すべきだとは思いません – それには非常に注意すべきです。しかし、非常に多くの人々が非常に多くのことを言っており、どの投稿を宣伝するか、誰がメッセージを拡大するかを選ぶのは人間ではなく、アルゴリズムです。そこには言論の自由の保護はあるべきではありません。なぜなら、アルゴリズムには言論の自由がないからです。
アルゴリズムとボットを禁止することに賛成ですか?
禁止ではなく、規制に賛成です。重要な規制の一つは、AIは決して人間であるふりをするべきではないということです。オンラインで誰かと交流するとき、それがAIかどうかを知ることができるべきです。AIと交流することは問題ありませんが、それがAIであることを明らかにするという条件です。そうでなければ、AIは歴史上かつてないほどの規模で人間を操作する可能性があります。
もう一つの重要な規制は、企業は自分たちのアルゴリズムの行動に責任を持つべきだということです。
それは絶対に起こりませんね。
これは私たち市民として、政府に企業に責任を持たせるよう要求することにかかっています。他のすべての産業ではそうなっています。会社が病気の副作用を引き起こす薬を製造すると、その会社を裁判所に持ち込み、損害賠償を得ることができます。そして、非常に大きな災害であれば、マネージャーや役員は刑務所に行くかもしれません。
AIやその他の技術企業についても同じであるべきです。AIが何らかの災害、社会的な災害や他の種類の災害を引き起こした場合、企業はそれに責任を持つべきです。
質問を続けたいのですが、彼は行かなければならないので、2、3の短い質問で締めくくりたいと思います。一つ知りたいのは、本当にスマートフォンを使っていないのですか?
スマートフォンは持っていますが、常に携帯しているわけではありません。スマートフォンなしではもはや使えないサービスがたくさんあります。インターネットは何年も電話を持っていないと思っているようですが、最初は全く電話を持っていませんでした。しかし、銀行や医師のように、多くのサービスが電話を要求するようになり、使うのが難しくなりました。
だから私は電話を持っていますが、それに使われるのではなく、使うように心がけています。常に携帯しているわけではなく、中毒になっているわけでもなく、常にチェックしているわけでもありません。道具として使うよう努めています。
そして、毎日2時間瞑想をしていますか?
はい、それは実際にしています。現在、インドに来て60日間の長い瞑想リトリートに参加する予定です。
ヴィパッサナですか?
ヴィパッサナ・リトリート、話せない瞑想です。私は年の残りの時間に十分話すので、60日間話さないことができます。
最後の質問です。私たちはインドに座っています。この国は最近選挙がありました。私たちは民主主義ですが、数字が下降している民主主義でもあります。このような情報の大量投下が民主主義に影響を与えている民主主義国に対して、あなたはどう思いますか?
民主主義の本質は、強力な自己修正メカニズムを持つ多数の人々の間の会話です。会話を維持し、会話をするためには多くの声が必要です。聞かれる許可がある声が一つだけなら、それは会話ではなく、独裁です。それは独白、命令です。
もう一つは、民主主義であるためには、国は自己修正メカニズムを持たなければならないということです。特に政府のために。もし政府が間違いを犯したら、独立したメディア、独立した市民団体があり、政府の間違いを暴露し修正することができます。そして最終的には自由で公正な選挙があり、人々は政府を交代させることができます。
これらのメカニズムがある限り、民主主義は安全です。異なる政策を持つ異なる政府があり、実験することができます。これらのチェック・アンド・バランス、そして最終的に政府を交代させる能力がある限り、民主主義は安全です。
すべての民主主義の危険性は、これは何千年も前からのことですが、民主主義では一人の人や一つの党に限られた期間、力を与えます。その後、人々に力を返し、人々が次回別の選択をすることができるという条件です。危険なのは、力を誰かに与えたときに、その人がその力を返さず、彼らが機関を腐敗させ、選挙を不正操作し、メディアを支配するために持っている力を使い、二度と交代されることがなくなることです。
それは常に民主主義における大きな危険でした。完璧な解決策はありません。強力な機関を持つことができますが、政府は最終的にこれらすべての機関を腐敗させることができます。そのため、人々は賢明な選択をし、力を返したくない人々に力を与えないよう非常に注意すべきです。
例えば、アメリカを見ると、現在はバイデン政権からトランプ政権への移行期間です。驚くべきことは、バイデンと民主党はトランプを非常に恐れており、一部の人々は本当にトランプを嫌っていますが、それにもかかわらず、彼らはすべての力を取って平和的にトランプに与えています。バイデンがまだ軍隊を支配し、政府を支配しているのだから、クーデターを起こすとか、力を保持するための何らかのメカニズムを持つという話はありません。いいえ、彼らは地球上で最も強力な国のすべての力を取り、平和的に政治的ライバルに与えています。
これが民主主義の完璧な例です。民主主義が実行されている問題です。大きな問題は、トランプが何をするかということです。2020年に、これは力を手放すことを好まない人物であることを私たちは見ました。彼は選挙に負けたときでさえ、勝ったと主張しました。だからこれは、トランプのような、力を返さないかもしれない人に力を与えるというアメリカの国民の非常に危険な賭けであり、何が起こるか見てみましょう。
何が起こるか見てみましょう。バイデンにもアイデアを与えないようにしましょう。KFに参加してくださり、ありがとうございました。瞑想の幸運を祈るかわかりませんが、良いヴィパッサナ体験をお祈りします。
ありがとうございます。


コメント