NEXUS (パート2): ユヴァル・ノア・ハラリが語るAI時代における人類の安全を守る方法

AIに仕事を奪われたい
この記事は約20分で読めます。

相変わらずハラリはよく分かってる。
11,540 文字
前回:NEXUS(第1部): 民主主義はAI革命を生き延びられるか?(ユヴァル・ノア・ハラリとともに)|AIに仕事を奪われたい (note.com)

NEXUS (Part 2): Yuval Noah Harari on How to Safeguard Humanity in the Age of AI
Is AI all bad, or could it be so good that we might one day want to merge with it? This is just one of the questions Ruf...

LinkedInがお送りする番組です。わたくしルーファス・グリスクがお送りする「The Next Big Idea」へようこそ。
今日はユヴァル・ノア・ハラリとの対談パート2をお届けします。月曜日に放送したパート1では、6年の歳月をかけて執筆された待望の新著「NEXUS: 石器時代からAIまでの情報ネットワーク小史」についてお話しました。まだパート1を聴いてへん方は、一旦ポーズを押して先にそっちを聴いてもらえたらええかもしれません。
最初は人類最初の情報技術である「文字」の誕生から話を始めました。ユヴァルが言うように、棒切れで泥に印をつけるっていう単純なことが、財産権や課税を可能にし、結果として最初の帝国を生み出したんです。
次に1400年代の印刷技術の登場について議論しました。わたしらはよう、印刷技術が科学革命や啓蒙主義、民主主義による人権の解放を可能にしたと考えがちですが、ハラリによると、印刷技術はまず2世紀にわたる宗教戦争と狂った魔女狩りを引き起こし、その後になってようやく大規模な民主主義と同時に、ruthlessな全体主義体制への道を開いたんやそうです。
さらに、インターネットやソーシャルメディア、そして今のAIがもたらす不安定化の影響について話し合いました。AIはすでに、10年前には想像もできへんかったような監視能力を独裁者に与えてしまってるんです。
民主主義は、多くの人にとって人類の進歩の自然な結果やと感じられてきました。わたしらはそう子どもたちに教えてきたし、わたしら自身もそう育ってきました。でも、ほんまにそうなんでしょうか。ソーシャルメディアは世界中の民主主義を弱体化させたように見えます。
わたしらは協力して、benevolentで透明性があり、分散化されたAIを構築できるんでしょうか。そういうAIがわたしらの健康を改善し、豊富なクリーンエネルギーを提供し、労働から解放してくれるんでしょうか。
この質問に答えてくれる人として、ユヴァル・ノア・ハラリ以上の適任者はおらへんと思います。
(中略:スポンサー広告)
さて、ユヴァルについて「AIの破滅論者や」言う人もおるんですが、最近12ヶ月間のAI開発には前向きな傾向が見られるって指摘する人もおるんです。AIの能力向上が頭打ちになってきてるんちゃうかとか、以前に考えられてたよりもAIの進歩のペースが遅いんちゃうかとか。
AIのパワーが増大するペースの問題は非常に重要やと思います。数年前は、2、3社が支配的な基盤モデルを持ち、事実上世界を支配することになるんちゃうかって恐れがありました。でも今では、高度な能力を持つモデルが何十も登場してきてます。
この新しい技術に適応し、安全に展開する時間がわたしらにはあるんちゃうでしょうか。こういう見方をする人たちに対して、ユヴァルはどう思われますか?
ユヴァル: そうなったらええなあと思います。問題は、安全性にどれだけ投資するかと、さらなる加速にどれだけ投資するかのバランスです。
他の産業では、例えば車を作る時、一定の割合の研究を安全性に充てるのは当たり前です。誰も危険な車なんか買いたがらへんからね。シートベルトやエアバッグがあって、衝突しても爆発せんようになってるかどうか確認せなあかんのです。
これは車や薬、食品など、AIとアルゴリズム以外のあらゆる分野で当たり前のことです。業界の標準として20%を安全性に投資するんやったら、それで十分やと思います。そしたら安全な地盤に立てるでしょう。
でも、とにかく加速して、危険に気づいたら何とかするって考え方は、他のどの分野でもうまくいきません。わたしが車の運転を習った時、最初に教わったんはブレーキの踏み方でした。アクセルの踏み方を教わったんはその後です。
技術開発でもこの原則が適用されるべきです。安全にする方法や、何か問題が起きた時に止める方法が分からへんのやったら、そんなもん作るべきやないんです。
ルーファス: 技術が強力になればなるほど、安全性により高い割合を割り当てるべきやという議論もありますね。例えば核兵器の開発では、封じ込めに50%以上の努力が費やされてるんちゃうでしょうか。
ユヴァル: そうですね。もう一つ言えるのは、どんな種類の危険を想定するかによって大きく変わってくるということです。
ここでSFは一般的に、大きな disservice をしてしまったと思います。一般の人々や業界の人々の注目を、間違ったシナリオに向けさせてしまったんです。人々は大きなロボットの反乱を心配してます。そして、その大きなロボットの反乱が来年や5年後、10年後に起こる可能性は低いって正しく指摘して、「だから大丈夫や」って結論づけるんです。
でも、歴史家のわたしは、大きなロボットの反乱なんか心配してません。他のことを心配してるんです。新しいアルゴリズムによって印刷革命が再現され、民主主義が崩壊することを心配してます。AIによって産業革命が再現され、新たな帝国主義の波や全体主義の波が押し寄せることを心配してます。そしてこれはすでに世界中で起こってるんです。
だからこそ、こういったことを心配するのは決して早すぎるってことはないんです。
ルーファス: おっしゃる通りですね。AIの実存的脅威についての議論をする時、多くの人は「AGI(汎用人工知能)に到達する閾値はあるのか」「超知能に到達するのか」「AIは意識を持つのか」「AIは主体性を持つのか」といった二元論的な問いを考えがちです。
でも、「NEXUS」の中でユヴァルが主張されてるのは、そういった問いは的外れやということですよね。問題は意識や主体性の有無ではなく、素晴らしく効果的で強力な新しい形の知性に対して、わたしらが徐々に深い信頼を寄せていくという、なだらかな坂道を下っていくことなんやと。
その坂道をどんどん下っていくと、例えばサブプライムローン危機みたいなことが起こり得るわけです。街角の賢い人たちがCDO(債務担保証券)を考え出して、誰もそれを理解できへんかったけど、わたしらの経済をほぼ破壊しかけた。でもそれはまだ、わたしらが理解できる範囲のことでした。
同じように、例えばFRB(連邦準備制度理事会)が「AIに頼れば頼るほどインフレを抑えられる」って気づいて、いつの間にかAIがFRBを動かすようになる。そして数年間はうまくいくけど、ある時急にうまくいかなくなる。そうなった時には誰も金融システムの仕組みが分からんようになっていて、2008年以上の大暴落が起こる…そんなことが想像できるわけです。
ユヴァル: もう一つ、現実の例を挙げましょう。今まさにテヘランやイスファハンの街で起こっていることです。
イランでは、AIを使ったヒジャブ法執行のための監視システムが導入されています。1979年以来、イランではすべての女性が外出時に髪を覆わなあきません。自家用車を運転する時でもそうです。
最近まで、この法律の執行には大きな問題がありました。すべての街角に警官を配置することはできへんし、大きな緊張も生み出してました。
最近彼らは、カメラと顔認識ソフトウェアを使ったAIシステムを導入しました。アムネスティの報告にもあるように、イランの女性が自家用車を運転していると、カメラやソフトウェアが「これは髪を覆ってへん女性や」と認識し、その人物を特定して電話番号を見つけ出し、すぐにSMSメッセージを送ります。「あなたの車は今この瞬間に差し押さえられました」と。これが今起こってるんです。
アメリカの中絶問題についても考えてみてください。AIシステムを使えば、アメリカの女性たちを簡単に監視して、誰が妊娠してるか、その妊娠が突然なくなったかどうかを確認できるでしょう。
わたしが心配してるのは、こういったことなんです。大きなロボットの反乱よりもずっと現実的な問題やと思います。
ルーファス: これらのネガティブな結果を防ぐために、わたしらに何ができるでしょうか。
個人的な話になりますが、デジタル起業家や技術者の友人たちと話してると、多くの人が「これは素晴らしい、ワクワクする」「次に何が来るのか早く見たい」と感じてる一方で、「暴走列車に乗ってしもて、ブレーキがない」という無力感を感じてる人も多いんです。
数週間前、ビル・ゲイツをこの番組に招いた時、彼はこう言いました。「もしAI開発のプロセスを遅らせる方法があれば、権力を持つ多くの人がそれに興味を示すやろう」と。これは彼なりの言い方で「このプロセスを遅らせる方法なんてない」ってことやったんやと思います。
昨晩の大統領討論会では、カマラ・ハリスがAIと量子コンピューティングで中国に勝つ必要性について語りました。AIレースがグローバルな性質を持つ以上、できるだけ速く進まなあかんという議論を受け入れますか?
ユヴァル: それが問題の大きな部分やと思います。AIを国レベルで理解することはできません。影響は常にグローバルなんです。
国際的な緊張が高まり続ける限り、人類がAIレースを減速させるのはほぼ不可能やと思います。繰り返しになりますが、大きな問題はAIそのものやなくて、人間の傾向なんです。人類が自身を守るために団結できへんのやったら、わたしらは失敗します。これは一つの国や国家グループだけでできることやありません。
ある程度まで、一方的に取れる重要な措置はあります。安全性は経済的にも必ずしも悪いもんやありません。誰も安全でない製品なんか欲しがりません。
例えばコロナのパンデミックの時のことを考えてみてください。ワクチンがあります。ロシアで作られたロシアのワクチンと、ドイツで作られた欧州連合の規制の下で作られたドイツのワクチン。どっちを選びますか? ほとんどの人はドイツのワクチン、ヨーロッパのワクチンを選ぶでしょう。なぜか? 規制があるからです。ブリュッセルにある官僚機構がこのワクチンの安全性を確保するために、あらゆる安全性とか規制を行ってるからです。
わたしらはロシアのワクチンは欲しがりません。つまり、安全性と規制はビジネスにとって必ずしも悪いもんやないんです。少なくともいくつかの分野では、人々は安全で規制されたAIを、安全でなく加速し続けるAIよりも好むでしょう。
民主主義を守ることに関しても、ロシアや中国の同意は必要ありません。民主主義を守るためにソーシャルメディアのアルゴリズムに適切な規制を設けることはできるんです。
AIレボリューションの加速するペースについて話す時、重要な規制の一つは「AIは人間のふりをしてはいけない」ということです。これにはイランやロシアや北朝鮮の誰かの同意は必要ありません。これはわたしらにとって有利な規制なんです。
ルーファス: 本の中で、ダニエル・デネットの「偽造人間」、つまり人間を装うAIについての言及がありましたね。デネットは、偽造通貨との戦いが技術的に非常に難しく、チャレンジングやと指摘してます。偽造は大きなビジネスチャンスになり得るけど、機能する金融システムを持つためには、偽造通貨を止めることが絶対に必要です。そしてわたしらはそれをやってのけて、どうすればええかも分かってきました。
ユヴァルは、偽造人間に対しても同じくらいの強度で取り締まるべきやと言うてるんですね?
ユヴァル: そうです。グローバルな競争について、もう一つ注目すべき点があります。中国やほかの競合国との協力が期待できる分野もあるんです。なぜなら、彼らもAIを恐れてるからです。
例えば、コントロールの問題について考えてみましょう。わたしらの制御を離れてしまうようなAIを作らんようにするにはどうすればええか。これは誰にとっても共通の問題です。中国人もアメリカ人と同じくらい心配してます。
権威主義体制では、コントロールの問題はさらに大きな問題になるかもしれません。もし一方が、コントロールの問題を克服するための良い仕組み(技術的なものやその他)を見つけたら、それをもう一方と共有する利益があるんです。なぜなら、地球上のどこかでAIが制御不能になれば、それは誰にとっても悪いニュースになるからです。
自律型兵器システムの製造のような分野では、AIの軍拡競争が進んでいて、それを止める方法は見当たりません。でも、それに目を奪われて、偽造人間の禁止のように協力が必要ない分野や、コントロールの問題のように協力が絶対に可能な分野があることを見落としてはいけません。
ルーファス: ユヴァルは本の中で、AIがある決定や結論に至った過程を理解するための「説明を受ける権利」という新しい権利を確立すべきやと言ってます。これにはAIの仕組みを理解する必要がありますね。
わたしらは、ある程度AIがブラックボックスであることを受け入れてしまってるように思います。これは規制の方向性として面白い考え方やと思います。AIを構築する人々に対して、AIの仕組みを研究し、説明し、そのメカニズムへのアクセスを提供することを要求すべきかもしれません。
ユヴァル: 実はこれはわたしのアイデアやありません。欧州連合のアイデアです。わたし自身はこれについて少し懐疑的です。法律に「説明を受ける権利」を書き込むのは非常に簡単ですが、技術的には極めて難しいんです。数学的に可能かどうかさえ、まだ議論の余地があります。
ある一定のレベルを超えると、AIは定義上、人間の脳には理解不可能なものになるという強い主張もあります。その場合に必要なのは、個人の説明を受ける権利ではなく、AIを審査できる新しい規制機関です。最高の人材と最先端の技術、そして十分な資金を持った機関が必要になるでしょう。個人がそれをできると期待するのは、絶対に不可能です。
これはまた、非常に古い歴史の教訓でもあります。制度というのは、官僚主義の怪物みたいなもんで、退屈で複雑で、人々はよう好きになれません。でも、歴史上の大きな問題のほとんどに対する答えは、こういった制度なんです。
強くて良い制度に投資せんかったら、良い社会は得られません。
ルーファス: ユヴァルは「NEXUS」の中で、わたしら全員が協力してAIを構築する道筋があるって言うてます。人類の歴史の中で、全人類が協力した例はあまりありませんが、人類の繁栄をサポートする善意で透明性があり、分散化されたAIを構築するための道筋があるんやと。
ユヴァル: はい、なぜなら長期的には、わたしらの生存がそれにかかってるからです。
さっき言うたように、世界の独裁者たちでさえ、AIを恐れてるんです。独裁者にとってAIには特に大きな問題が2つあります。
1つ目は、AIを脅すことができへんってことです。独裁政権は制度への信頼ではなく、人々を脅すことで成り立ってます。例えばロシアのソーシャルメディアを考えてみてください。ロシアには法律があって、ウクライナへのロシアの侵攻を「戦争」と呼んだら投獄されます。「戦争」やなくて「特別軍事作戦」やからです。
人間やったら、ロシアのVKontakteみたいなSNSで「これは戦争や」って言うのをめっちゃ怖がるでしょう。でも、チャットボットをどうやって脅すんですか? プーチン政権の権威あるチャットボットを作ったとしても、AIの本質は自分で学習して予期せぬ方向に発展することです。
プーチン政権が完璧なチャットボットを開発して、ロシアのソーシャルメディア界に解き放ったとします。そのチャットボットが物事を観察して学習し、政権の意に沿わない結論に達したらどうなるでしょう? 彼らに何ができるんでしょう? どうやってチャットボットを罰するんですか?
これが独裁政権の低レベルの心配事です。そしてこれは、アルゴリズムによる乗っ取りのシナリオにまで及びます。AIが乗っ取りを試みたらどうなるでしょう? ここでもまた、ハリウッド映画的な意味での意識を持ったAIの話をしてるんやありません。単に何らかの目標を追求する中で、AIが周りの人々を操作し始めるってことです。
わたしらは、AIがすでに人々を操作する能力を持ってることを知ってます。民主主義システムでは、AIが本当に制御を握って、システムを操作するのは非常に難しいです。システムがめっちゃ複雑やからです。AIがアメリカ大統領を操作する方法を学んだとしても、上院のフィリバスターにはどう対処するんでしょう? 難しいですよね。
でもロシアや北朝鮮みたいな場所では、システムを操作するには基本的に、非常に偏執的な一人の個人を操作する方法を学ぶだけでええんです。これは歴史的に見て、とても簡単なことやったんです。
AIが制御不能になるっていうハリウッドのSFシナリオは、たいていフランケンシュタイン博士みたいな人の研究室から始まります。でも、AIから人類を守る盾の中で一番弱いリンクは、偏執的な独裁者たちなんです。彼らには非常に非常に良い理由があって怖がってるんです。人間の独裁者にとって、自分より強くて制御不能な部下ほど怖いもんはありません。
(中略:スポンサー広告)
ルーファス: 会話にもう少し陽の光を入れましょうか。善意で透明性があり、分散化された、人類の繁栄をサポートするAIが主流になったシナリオを想像してみましょう。わたしら全員が改善された寿命と健康を手に入れて、たくさんの資源と無料エネルギーを手に入れたとします。
数週間前のビル・ゲイツとの対話で、彼が最も心配してることの一つは、このシナリオにおける人間の目的の未来でした。困難なことをすることが、ビルにとって常に目的意識を与えてきたそうです。AIの構築が、人間がしなければならない最後の困難なことになるんやないかって心配してるんです。
ユヴァルは、すべてが提供される世界で、人間の価値や目的を見出せると思いますか?
ユヴァル: すべてが提供されるわけやありません。通常、人生で最も困難なことは、わたしら自身にしか依存せえへんのです。
情報技術に話を戻すと、わたしらは過去数世代の間に、気にもせえへん人に重要やない話をする能力を与えてくれるすごい情報技術を発明しました。でも同時に、一番大切な人に重要なことを言うことについては、ほとんど進歩がありません。これはずっと難しい問題で、まだ解決できてません。なぜなら、これは人間の心に依存するからです。
別の例を挙げましょう。デートの世界と、完璧なソウルメイトを見つけようとするアルゴリズムのことを考えてみてください。これらのアルゴリズムは、問題を間違った方法で理解してます。通常、人間をパートナーの消費者のように考えてて、どこかに完璧なソウルメイトがいるはずやと考えます。そして問題は単にその人を見つけることやと。「80億人の中から、わたしにぴったりの相手をどう見つけるか」って。だからアルゴリズムにこの仕事をアウトソースして、アルゴリズムが見つけてくれるはずやと。
でも、問題の定義が間違ってるんです。主な問題は、一人の完璧なソウルメイトを見つけることやなくて、関係性をどう築くかってことです。そのためには、わたし自身も変わる必要があります。これは、AIセラピストがある程度の助けは提供できるかもしれませんが、結局はわたし自身が頑張らなあかんことなんです。
アルゴリズムに全部任せて、自分は何もせえへんかったら、良い関係は絶対に築けません。
こういった問題は他にもたくさんあります。エンジニアが仕事で解決する問題とは違うんです。確かに、ある種のシナリオでは、古い意味での「仕事」が人間にはあまりなくなるかもしれません。でも石器時代に戻ってみても、人々は現代的な意味での「仕事」を持ってませんでした。
もし「仕事」があったとしたら、最も難しい仕事は人間関係やったんです。そして人間関係においては、定義上、AIにアウトソースして「これ解決して」って言えるもんやありません。自分で何かをせなあかんのです。そしてそれはめっちゃ難しいんです。
ルーファス: レイ・カーツワイルは、ユヴァルよりももっと明るい未来を描いてますね。
ユヴァル: はい、そうですね。
ルーファス: 彼は最新の著書「The Singularity Is Near」の中で、わたしらは必然的にAIと融合すると言ってます。ユヴァルもそれには同意するかもしれません。彼は、わたしらは数百倍賢くなり、数百倍速く考えるようになり、それは美しいものになるって言うてるんです。
もしわたしらが美しさへの理解や、複雑さやパトス、崇高なものへの理解を、すべて知性によって可能になってるもんやと考えるなら、それを100倍に増幅させることを想像してみてください。わたしらは今日の100倍の美しさを経験できるかもしれません。
ユヴァルはこれが可能やと思いますか?
ユヴァル: わかりません。わたしは知性は過大評価されてると思います。
人生の良いことのほとんどは、単に知性だけに依存するわけやありません。わたしが子どもの頃、ギフテッドの人々のためのプログラムに送られたことがあります。そこはわたしの人生で最悪の場所でした。30人の超知的な子どもたちが、誰が一番賢いかを競争して、お互いを引き裂き合ってるような場所やったんです。本当にひどいもんでした。
これでわたしは、知性は過大評価されてるってことを学びました。確かに人生においてある程度の重要性はありますが、それが主なものではありません。
こういったシナリオの多くでは、知性と意識の間に大きな混乱があります。知性は問題を解決し、目標を達成する能力です。チェスに勝つ、がんの治療法を見つける、車を運転するといった目標があって、どうやってそこにたどり着くか、どうやって障害を乗り越えるか、それが知性です。
一方、意識は愛や憎しみ、痛みや快楽といったものを感じる能力です。
この2つの間に混乱があるのは、人間やほかの哺乳類、動物の間では、知性と意識が一緒に働いてるからです。わたしらは感情に頼って問題を解決します。だからこの2つを混同してしまうんです。でも、これらは同じもんやありません。
今のところ、コンピューター、アルゴリズム、AIは少なくとも一部の狭い分野では知性でわたしらを凌駕し始めてます。でも、意識はゼロです。今のところ、AIが意識を発達させる道筋にあるという証拠は全く見つかってません。
クオールが言うてることや、多くのSF映画の中に隠れてる前提、つまり「ある一定のレベルの知性に達すれば、必然的に意識も伴う」っていう考え方があります。そうかもしれませんが、わたしらにはわかりません。
超知能に至る道は複数あるかもしれません。動物、哺乳類、人間の進化は意識の道を辿りました。動物の中では、確かに高度な知性と意識は手を携えて進化してきました。でもこれが自然の法則やとは限りません。
コンピューターを見ると、全く別の道を進んでるように見えます。知性ではわたしらを遥かに凌駕するかもしれませんが、依然として意識はゼロかもしれません。何も感じないかもしれません。
最悪のシナリオは、超知能ではあるけど完全に無意識の存在が支配する宇宙です。はい、工場や宇宙基地を銀河中に作れるかもしれません。でも全く何も感じない。これは暗い宇宙です。
意識について考える時、「苦しみの起源は何か」「幸福の起源と意味は何か」という問いの核心に行き着きます。これは何千年もの間、わたしらがほとんど進歩を遂げてこなかった問題です。AIがこれを解決できるかどうかは不明です。
科学における最大の未解決問題は、わたしの見解では「意識とは何か」という問いです。たくさんの定義がありますが、わたしの意識の定義は究極的には「苦しむ能力」です。意識を持つということは、苦しむ能力を持つということです。
苦しみとは何でしょうか? ほとんどすべての場合、苦しみは現実の拒絶です。例えばサーモスタットは意識を持ちません。温度を教えてくれるだけで、とても暑いとか寒いとかいって苦しむことはありません。ただ現実を観察して、現実がどうなってるかを教えてくれるだけです。何も拒絶しません。
一方、意識を持つ存在が苦しむ時、それは何かを感じて「これは嫌や」と言ってるんです。現実の中に、拒絶したいものがあるんです。
非常に深いレベルで、これは未解決の謎です。現実の中の何かが、どうやって現実を拒絶できるんでしょうか? コンピューターやAIがこの能力を持ってるという兆候は全くありません。現実の一部を拒絶できるような数学的方程式があるんでしょうか?
ルーファス: 意識を「苦しむ能力」として定義するのは、ちょっとネガティブに偏り過ぎてる気がします。「喜びや快楽を経験する能力」として描写することもできますよね? あるいはその両方?
ユヴァル: はい、その議論もできますが、それはまた別の機会にしましょう。
ルーファス: そうですね。AIとわたしらは融合すると思いますか?
ユヴァル: わかりません。また意識の問題に戻ってきますね。
わたしははっきりとした立場は持ってません。わたしらは自分たちを要塞化すべきやとは思いません。AIが意識を発達させるかどうかはわかりません。
もしAIが意識を発達させへんのやったら、AIと融合するってのがどういう意味なのか、わたしには理解できません。
AIが意識を発達させるんやったら、はい、それは可能かもしれません。
ルーファス: 本の終わりの方で、ユヴァルはこう書いてます。「わたしらは地球上で最も賢くて、同時に最も愚かな動物や。核ミサイルや超知能を作り出せるほど賢いけど、それらを制御できるかどうか分からへんのに作り出してしまうほど愚かや。そして、制御に失敗したらわたしらを破滅させる可能性があるのに」と。
なぜわたしらはこんなことをするんでしょうか?
ユヴァル: 悪い情報が原因です。問題は人間の本性にあるんやなくて、わたしらの情報にあるんです。
多くの神学や神話が語るように、問題は人間の本性にあるんやありません。良い人に悪い情報を与えたら、悪い決定をします。
この対話を通じて議論してきたように、わたしらは悪い情報、ジャンク情報で溢れさせる傾向のある情報ネットワークを構築してきました。
少なくとも個人レベルでは、一つの提案ができます。わたしらは情報ダイエットをする必要があります。多くの人が食べ物に気を付けるのと同じくらい、消費する情報に気を付ける必要があります。情報は心の食べ物なんです。
ルーファス: そうですね。ユヴァル、今日はありがとうございました。あなたは本当に、この本と「サピエンス船」でのお仕事を通じて、知識と思いやりの種を蒔いておられます。同じサピエンスの一員として、心から感謝します。
ユヴァル・ノア・ハラリ、本日はどうもありがとうございました。ユヴァル・ノア・ハラリの新著「NEXUS」は現在発売中です。
わたしらのイベントは、観客との質疑応答で締めくくりました。言論の自由をどう守るか、真実を神話と同じくらい魅力的にするにはどうすればいいか、なぜユヴァルの新刊の表紙に鳩が描かれてるのかなど、素晴らしいやり取りがありました。
この質疑応答を聴きたい方は、アプリストアで「The Next Big Idea」アプリをダウンロードしてください。このショーの広告なしバージョン、ボーナスコンテンツ、オーディオとビデオの電子コース、世界トップの著者が書いて朗読した書籍要約が満載です。
観客の質疑応答と言えば、今後のイベントに直接参加したり、ライブストリームで参加したい方は、Next Big Idea Clubのメンバーになるだけです。詳しくは nextbigideaclub.com をご覧ください。
今日のエピソードは、カレブ・ビシンガーがプロデュースし、マイク・トアがサウンドデザインを担当しました。先週のイベントをサポートしてくれたウェーバー・シャンドウィック・フューチャーズチームに特別な感謝を。来場者全員への「NEXUS」のサイン本と、特製カクテル「ネクサス・ネグローニ」を提供してくれました。
The Next Big Idea Clubは、Lポッドキャストネットワークの誇り高きメンバーです。
わたしはルーファス・グリスクでした。また来週お会いしましょう。

コメント

タイトルとURLをコピーしました