
そして、私は他の分野を掘り下げ始めました。実際、どの分野でも最大の発見は発見ではなく、発見の方法を変えるものだというのは真実です。そこで私は「今、発見の方法を変える可能性のあるものは何だろう」と考えました。
しかし、自動化としてではなく支援として考えると、2つの変化が起こります。1つは、自律性が個人に戻ることです。あなたがやりたいことを支援してくれるのです。そしてもう1つの大きな変化は、創造性の領域が大きく広がることです。アルゴリズムはどのように支援できるでしょうか? どのような方法で支援できるでしょうか? そういったことをもっと見たいと思っています。
私は2016年からAIヘルスケアの大きな可能性について耳にし続けていますが、なぜこれが実現していないのでしょうか? ここでブレイクスルーが必要なのは何でしょうか?
特に、黒人の場合、平均的に医療へのアクセスが難しく、支出も少なくなる傾向があります。これはアルゴリズムが単に拾い上げているものです。
特に、はい。あなたはすでにおっしゃいましたが、オープンな場でそれを確認したかったのです。このようなアルゴリズムバイアスの根源は何でしょうか? それはどこから来ているのでしょうか? AIは人種差別主義者なのでしょうか、それとも他に理由があるのでしょうか?
こんにちは、アレクサンダー・マドリーです。Before AGIポッドキャストへようこそ。本日はセンディル・ムッライナサンをお迎えしました。センディルはシカゴ大学の教授で、行動経済学とAIの分野で多くのブレイクスルーを成し遂げた人物です。実際、彼の研究について聞いたことがある人は多いでしょうが、その背後にいる人物だとは気づかないかもしれません。センディルはマッカーサー賞を受賞した公認の天才であり、素晴らしい人物です。この会話を楽しみにしています。センディル、お元気ですか?
こんにちは、アレクサンダー。
では始めましょう。少し自己紹介をしていただけますか? どこで育ったのですか?
実は私はインドのチェンナイの南にある小さな村で生まれました。7歳くらいまでそこにいて、その後アメリカに移りました。なんとロサンゼルスにです。
あなたの学歴は少し変わっていると聞きました。クラークソン大学に在籍し、退学してコーネル大学に行ったそうですね。それはどういうことですか?
高校ではあまり成績が良くなかったのですが、数学だけはできていました。ある時点で、高校の成績は良くなかったのですが、高校の数学の授業をすべて取り終えてしまいました。そこで「大学の授業を受けられる場所に行かなければ」と思いました。そこで、大学の授業を受けさせてくれるニューヨーク州北部の場所に行きました。実際、高校の卒業証書は取得していません。その後、コーネル大学に行きました。高校時代の私を見ていたら「学校が得意ではない」と思われたでしょう。しかし大学に入ると「実はこれが楽しい、本当に楽しい」と思いました。研究やアイデアが本当に好きで、高校にはそういったものがありませんでした。学部に入ってから人生が本当に良くなりました。
しかし、これは別の展開につながります。記憶が正しければ、コーネル大学ではコンピューターサイエンスを専攻していましたが、博士課程ではコンピューターサイエンスではなく経済学を選びましたね。これが1つ目のストライクです。そしてさらに、MITではなくハーバードを選んだのは本当に奇妙です。説明していただけますか?
いや、アレクサンダー、3つ目のストライクもありますよ。実際、MITでコンピューターサイエンスの博士課程に進むことを選び、1年間延期してハーバードで経済学を試してみました。延期して「1年後にはこれをやる」と言いました。なぜそうしたのかという良い質問ですね。当時、CS理論が本当に盛んで、それをやろうとしていました。CS理論をやるつもりでした。しかし、理論がどんどん実際のものから離れていくように感じました。わかりますか? 少し現実から離れていくように感じ始めました。経済学には興味深い具体性がありました。でも、それも挑戦でした。私はEQがそれほど高くなく、人々をよく理解していませんでした。人々を本当に理解しようとする挑戦が好きでした。そこで経済学に進み「これに専念しよう。人々を本当に理解し、心理学をたくさん学び、いろいろなことを学びたい」と思いました。それが私のやったことです。ええ、ハーバードを選んだ理由は説明できません。弁解の余地のない行動もありますからね。
まあ、誰でも時々間違いを犯すものです。大丈夫です。ちなみに、背景として、私も一時期コンピューターサイエンスの理論をやっていたことがあります。だから、現実から離れているのは問題ではありませんでした。そういうことです。さて、あなたはハーバードに到着し、行動経済学を選びました。これはおそらく当時はあまり人気のある選択ではなかったでしょう。
そうですね。実際、行動経済学でノーベル賞を受賞することになるリチャード・セイラーを学部生の頃から知っていました。博士課程を始めるときに彼は「行動経済学をやるな」と言いました。少し奇妙ですよね。彼は「それは本物の経済学分野をやって、隠れて行動経済学をやればいい」と言いました。私は彼の言うことを聞きませんでしたが、就職市場に出たとき、行動経済学をやっていたのは大きな賭けでした。どうなるかわかりませんでした。当時は、今の人々、特に経済学者が信じがたいことですが、経済学者たちは合理的選択モデルが正しい方法だと確信していました。ほとんどの場合、直面したのは一種の抵抗でした。本当の知的な抵抗で、議論で克服できるような種類のものではなく、単なる抵抗でした。厳しい時期とは言いませんが、別の種類の厳しさでした。ただ耐えるしかなく「不公平な挑戦に直面するだろう」と覚悟するしかありませんでした。
つまり、あなたと同僚の仕事は、経済学者たちに人間は合理的ではなく合理化する存在だということを証明することでしたね。その意味を本質的に示すことでした。その時期のあなたの仕事で最も誇りに思うものは何ですか?
ワオ、素晴らしい質問です。実は、誇りというのはとても難しい感情です。他のものと混ざっているからです。先日気づいたのですが、これは本当に難しい質問ですね。問題の核心に迫っています。誰かに言っていたのですが、自分はあまり誇りを感じないと思います。それは良くないことです。一生懸命働いたら、誇りを感じる方法を学ばなければなりません。だから私は誇りを感じる方法を学ぼうとしています。もし誇りをシミュレートするとしたら、最も誇りに思うべきなのは、就職市場の論文を書いたことだと思います。とても奇妙な論文で、自分がやっていることが奇妙だとわかっていました。そんなにラディカルにサイコロを振る覚悟ができたことを誇りに思うべきです。それは人間の記憶に関する論文で「記憶文献から分かっていることを捉えた人間の記憶の正式なモデルを作り、それが経済的な意味を持つことを示す」というものでした。しかし、それは奇妙な就職市場の論文です。わかりますよね? 他の人はヨーグルト市場の産業組織について書いているのに、「ああ、人間の記憶について」なんて、競争するのは難しいです。だから誇りに思うべきだと思います。楽しかったですが、一種のリスクを取ることでもありました。サイコロを振る覚悟ができたことを誇りに思うべきでしょう。誇りに思っていませんが、誇りに思うべきです。
聴衆の皆さんに説明すると、経済学では就職市場の論文というのがあります。それは基本的に、雇用を考える際に評価される単一の研究成果です。結果的にあなたはうまくいきましたね。最終的にMITに行きました。長くはありませんでしたが、最終的には。
ああ、だからハーバードに行ったんですね。MITに行くためだったんですね。そういうことですね?
私は例外で、MITで博士号を取得し、MITの教員にもなりました。最適ではありませんが、理解できます。あなたは間違いに気づいて、このように修正したんですね。その後、ハーバードの教員にもなりましたが、そこには触れないでおきましょう。
MITに関する面白い話をしてもいいですか?
はい、どうぞ。
MITに入ることを決めた後、博士課程と助教の間にチェンナイ(マドラスとしても知られています)に行きました。共著者のマリアンヌ・ベルトランと政府関係者と話をする機会がありました。彼女は「プリンストン大学の教員です」と言い、私は「MITにいます」と言いました。2、3日して気づいたのですが、MITと言うたびに相手の顔に奇妙な表情が浮かんでいました。「なぜだろう?」と思いました。最終的に気づいたのは、「MITの教員です」と言ったとき、彼らは皆「マドラス工科大学の教員です」と聞いていたのです。おそらく2番目に有名なMITですね。
そうですね、それでいいと思います。では、ハーバードに行った間違いをMITの教員になることで修正し、さらに経済学に行った間違いを少し後でコンピューターサイエンスに戻ることで修正したわけですね。結局、何があってコンピューターサイエンスに戻ったのですか?
戻ってきたきっかけは、「Scarcity(希少性)」という本を書き終えたことでした。本を書き終えると、学術界ではめったに起こらないことが起こります。学者として、いくつかの論文に取り組んでいて、1つの論文が終わると何が起こるでしょうか? その枠を埋めるために少し自由な時間ができます。しかし本はとても大きいので、他の論文はすべて消えてしまい、これだけが残ります。本が終わると、何もすることがなくなります。本を提出した翌朝、目覚めたときのことを鮮明に覚えています。「何もすることがない」と思いました。これも誇りに思うべき瞬間かもしれません。意識的に自分に言いました。「何かを始めるのではなく、6か月かけて何をすべきか考えよう。何もしないという明確な制約を設けて」と。そして小さな練習を始めました。実際に楽しい練習でした。1つの練習は、多くの分野の人々に「あなたの分野で過去50年間で最大の発見は何ですか?」と尋ねることでした。そしてこれらの答えを集め始めました。驚いたのは、これらの答えを見た後、経済学のような自分がよく知っている分野でさえ、答えは妥当に見えましたが、何かが違っていました。それをずっと見ていました。経済学では、人々は「ゲーム理論、行動経済学」などと答えました。そのような答えでした。何かが間違っているように感じました。そして気づいたのです。経済学における最大の革命はマイクロチップだったのです。マイクロチップがデータを実際に分析することを可能にしたからです。データがなければ、経済学はデータがある場合とは全く異なる分野です。何らかの形でその発見は彼らには明らかではありませんでした。なぜなら、彼らはこの非常に重要な発見の結果の下流で生きていたからです。マイクロチップと呼ぶまでもなく、任意の規模のデータセットを実際に管理する能力のことです。そして他の分野も掘り下げ始めると、実際にどの分野でも最大の発見は発見ではなく、発見の方法を変えるものだというのは真実なのです。そこで私は「今、発見の方法を変える可能性のあるものは何だろう」と考えました。
2012年、2013年頃のことです。当時、教師あり学習が本当に盛んになり始めていました。私は「教師あり学習は、おそらく発見の方法を変える根本的に新しいツールだ」と思いました。そこで「これに取り組もう」と決めました。長い時間をかけてこれに投資しようと思いました。過去にコンピューターサイエンスをやっていたので「ああ、これに再び取り組むのは本当に楽しい」と思いました。学ぶのに時間はかかりましたが、とても楽しかったです。
素晴らしいですね。では、この話に戻る前に、あなたの本「Scarcity」について少し教えていただけますか? この本は何についてのものですか?
はい、これは開発経済学で多くの仕事をした本です。私を非常に悩ませたのは、多くの分野を見渡すと、貧しい人々はより多くの間違いを犯すという暗黙の了解が何度も現れることです。貧しい人々は「なぜそんなことをしたの?」と思うようなことをより多くします。例えば、いくつか驚くべき例を挙げましょう。19世紀の糖尿病を考えてみてください。それは本当に致命的な病気でした。良い意味ではなく、血糖値が高すぎると失明したり、指が何かになったり、四肢を失ったりします。ひどい病気です。血糖値をコントロールできる薬ができ始めたとき、それは奇跡のようでした。さて、現在に目を向けてみましょう。「ワオ、この奇跡を手に入れた」と思うでしょう。しかし、アメリカでは毎年10万件以上の糖尿病による四肢切断が行われています。完全に予防可能なものです。毎年10万本の四肢が切断されていて、そのほとんどが貧しい人々の間で起こっています。薬のせいではありません。薬は無料です。では何が起こっているのでしょうか? それは人々が実際に薬を飲まないからです。これは単なる錠剤です。一部の人には注射ですが、それだけです。服薬遵守。これは一例に過ぎません。貧しい人々は薬を飲まず、雑草を抜かず。こういったことを見て「どう理解すればいいのか?」と思います。もちろん、部屋に象がいるようなもので、人々がこれについて話さない理由は「これを理解する方法がある。貧しい人々は無能な人々だ。だから彼らは貧しく、こういったことをするのだ」と言いたがるからです。しかし、それも正しくは見えません。貧困に生まれた人々もいます。彼らが無能だとは言えません。
Scarcityの目的は、私たちがこのパズルを解決しようとすることでした。少なくとも私たちの解決策は、因果関係の矢印が逆方向に走るというものです。貧しいときは、実際にあなたの帯域幅を圧迫します。実際に推論することを難しくします。貧困そのものがそのような状況を生み出すのです。そのメカニズムは誰もが経験したことがあるはずです。メカニズムは、あなたがたくさんのことが起こっていると感じているとき、「どうやって生活を維持しよう? どうやってこれをしよう?」とか、「ああ、これらの会議がある、これらのことがある」というようなことです。それらの考えがあなたの頭上にかかり、明確に考えることを難しくします。何かをしようとするとき、それらが邪魔をし続けます。貧しい人々はしばしばこれを報告します。ただ考えることができないと。そこで、私たちは同じ人物が貧しいときには、かなり認知能力が低下しているように見えるという研究をいくつか行いました。それがこの本のポイントです。貧困を物理的な現象としてではなく、私たちの思考に影響を与える現象として再考する必要があるということです。そして、それが恐らく貧困の最大のコストなのです。
わかりました。はい。それは魅力的ですね。実際、もっと掘り下げたいところですが、Before AGIというトピックに留まるべきでしょう。はい、あなたのCS分野での多くの仕事はアルゴリズムバイアスに関するものです。それが具体的に何なのか、少し教えていただけますか?
はい、アルゴリズムバイアスの文献がどのようなものかから始めて、それから私自身の見解をお話しします。アルゴリズムバイアスの文献は、おそらく2010年代にあった過度の楽観主義に対する合理的で非常に必要な反応だと思います。「アルゴリズムはこれができる、あれができる」といった具合でした。そして一部の人々が気づき始めました。「確かに、それらはそれができるかもしれない。しかし、これらのアルゴリズムを見てみると、かなり強いバイアスを示しているようだ」と。
人々に最もよく知られている例は、Googleが明らかに修正したものです。一部の人は行き過ぎだと言うかもしれません。いずれにせよ、彼らはこれを修正しました。しかし、以前はCEOの画像検索をするだけで、すべて白人の結果が出てきました。CEOの分布がすべて白人で男性というのはあり得ないはずですが、以前はそのように見えました。
そこでアルゴリズムバイアスの文献は、アルゴリズムにバイアスがあるという事実を理解しようとする試みでした。それがデータの特性なのか、おそらくトレーニングの方法なのか、現実を反映する方法なのか。私自身の仕事は、実際に使用されている大きなアルゴリズムを取り上げて「これらにバイアスがあるか? もしあるとすれば、何がそれを生み出しているのか?」ということでした。
あなたが遭遇したアルゴリズムバイアスの中で、最も印象的な例を教えていただけますか?
はい、私たちが取り組んだもので、いつも戻ってくる印象的な例があります。ケアコーディネーションプログラムと呼ばれるものがあります。これは、あなたが非常に病気になりそうな場合、医療システムがあなたを入れるプログラムです。より多くのリソースを提供し、システムをよりよくナビゲートするのに役立ちます。これらのプログラムへの割り当て方法は、来年特に病気になるかどうかを予測するアルゴリズムがあります。これはすでに毎年数億人のアメリカ人に対して実行されています。
私たちはこのアルゴリズムを研究し、アルゴリズムによる同じレベルの予測に対して、黒人の患者は実際にはるかに病気になることがわかりました。言い換えれば、アルゴリズムは黒人の病気を大幅に過小評価しているように見えます。「大幅に」と言うときの例を挙げましょう。この格差を是正すると、これらのケアコーディネーションプログラムに登録される黒人の数は2倍になります。これらのプログラムはあなたがどれだけの医療を受けるかに関するものなので、おそらくこの格差の結果として命が失われています。その規模は驚くべきものでした。それは驚くべきことであり、不穏なことでもあります。
しかし、その理由も興味深いです。何が起こっているのかを掘り下げると、アルゴリズムと違って人間の場合は格差を見つけても原因を知るのは難しいですが、アルゴリズムはコードの一部なので、シミュレーションしたり多くのことをしたりできます。ここで分かるのは、これらのアルゴリズムは病気を予測するようにトレーニングされたと人々は思っていましたが、実際には病気を正確に予測していませんでした。彼らが本当に予測していたのは、保険請求データで測定された病気です。つまり、彼らが本当に予測していたのは利用量で測定された病気です。
利用量を予測していると考えると、黒人患者は同じレベルの病気に対して白人患者よりも医療を利用する頻度が低いということが分かっています。そのため、利用量をうまく予測することで、これらのアルゴリズムは実際に黒人患者の病気を過小評価しているのです。
私にとって、これはいつも戻ってくる例です。問題の規模を見ることと、楽観的な面の両方があるからです。アルゴリズムにバイアスを見つけたとき、それを診断して修正することができるからです。問題がどこにあったかが分かったので、修正が展開されています。この論文が発表されてから約4年の間に、実際に修正が始まり、人々はこの問題に取り組むためのより良いアルゴリズムを導入し始めています。私がいつも戻ってくる例です。
わかりました。ここには解きほぐすべき魅力的なことがたくさんありますね。まず、アルゴリズムバイアスは本質的に、AIアルゴリズムがデータから世界の表現を学習しますが、その多様性を完全に表現していない可能性がある状況ですね。あなたの例では、CEOは白人男性である傾向があります。これは多数派がそうだということは事実だと思いますが、すべてがそうだというわけではありません。しかし、何らかの形でこのモードが優勢になってしまうのです。
もう1つ、あなたが指摘した医療資源の配分の例では、通常これらのアルゴリズムは何らかの目的を最適化しようとしますが、時にはその目的を測定できません。例えば、ある人がどれだけの医療を受けるべきかといったことです。そこで私たちは代理指標を探します。その人の医療にいくらかかるかを見るのです。そして起こることは、あなたが言ったように、実際には医療へのアクセスに格差があることを私たちは知っています。特に黒人の場合、平均的に医療へのアクセスが難しい傾向があります。そのため、あなたにかける支出が少なくなり、それをアルゴリズムが単に拾い上げているのです。
特に、はい。あなたはすでにおっしゃいましたが、オープンな場でそれを確認したかったのです。このようなアルゴリズムバイアスの根源は何でしょうか? それはどこから来ているのでしょうか? AIは人種差別主義者なのでしょうか、それとも他に理由があるのでしょうか?
そうですね、「代理指標」という言葉を使ったのは素晴らしいですね。それについて深く掘り下げてみましょう。あなたの言い方は完璧です。多くの人々が単に「アルゴリズムバイアスはデータにバイアスがあるから生じる」と言いたがるからです。しかし、データにバイアスがあるとはどういう意味でしょうか?
あなたが挙げた代理指標の例は素晴らしいと思います。多くのアプリケーションで、私が見ているのは、最大のバイアスの形は代理変数を使用することから現れるということです。これを一般化してみましょう。私たちには目的があります。データでそれらの目的を指定するには、常に何らかの調整が必要です。データ内で目的を完全に指定できる例を私は知りません。私たちは常に代理指標を選び、「これを予測してください。なぜならそれが私が本当に気にしていることの良い代理指標だからです」と言います。それは常に起こります。そのギャップで多くのバイアスが現れると思います。そしてそれだけでなく、多くの問題がそこに現れると思います。あなたが説明した指定の問題、代理指標の問題です。
2つのメタファーを挙げましょう。1つに絞りましょう。1950年代に素晴らしいタイトルの論文があります。「Aに対して支払いながらBを期待することの愚かさについて」というものです。これはインセンティブスキームに関する論文です。これは「営業担当者にこれらのインセンティブを与えるが、実際に望んでいるのは別のことだ。教師にテストスコアのインセンティブを与えるが、本当に望んでいるのは学習だ」という人の論文です。インセンティブに関する文献では、この愚かさについて知っています。あなたの代理指標の指摘は「Aを予測しながらBを期待することの愚かさ」を言っているのだと思います。そしてこの愚かさこそが、私たちが取り組まなければならない最も深い問題だと思います。データで指定された実際の目的と、私たちが気にしていることの間のその距離に、多くの問題、特にアルゴリズムバイアスが現れるからです。
だから、アルゴリズムが人種差別主義者だというのは、行動に移せる考えではありません。しかし、問題がどこに潜む可能性があるかについて、このような具体的なことがわかり始めていると思います。
わかりました。それは興味深いですね。実際、あなたの経済学での以前の研究に関連させると、アルゴリズムバイアスと人間のバイアスを比較するとどうでしょうか? 履歴書の名前によってコールバックが異なるといった研究をされていましたよね。人間のバイアスに関するあなたの研究と、アルゴリズムバイアスとの比較について少し教えていただけますか?
はい、MITの助教だったときのプロジェクトの1つは、何千もの履歴書を求人広告に送ったというものです。これらの広告に架空の履歴書で応募しました。何千もの異なる履歴書を作成しましたが、送る前にランダムに黒人の名前か白人の名前を付けました。そして分かったのは、白人の名前の履歴書は統計的に同一であるにもかかわらず、黒人の名前の履歴書よりも50%コールバックされる可能性が高いということでした。これは人間の差別の例です。2002年のことでしたから、そこにはアルゴリズムは関与していませんでした。
実際、ヘルスケアのバイアスの例と履歴書の例を対比すると、情報が得られます。例えば、バイアスを見つけるのがどれほど難しかったかを考えてみましょう。ヘルスケアのアルゴリズムバイアスの場合、アルゴリズムへのアクセスは必要でしたが、その後は多くのユースケースをシミュレーションするだけでした。履歴書の場合、私たちは小さな秘密のスパイ作戦を設定しなければなりませんでした。これらの履歴書を作成して送る必要がありました。人間のシステムにおけるバイアスを特定するのは難しいのです。今はバイアスを特定するのがずっと簡単になっています。
そして修正に話を進めましょう。25年後、最近バークレーのチームが履歴書の研究を再現しました。彼らは全く同じ効果を発見しました。「再現された」と言えるかもしれません。しかし、再現されたのは良くありません。これを見るのに25年もかかったのです。再現されるべきではありませんでした。誰もこの研究が再現されることを望んでいませんでした。しかし、その規模は全く同じです。私たちはこのことを知っていました。人間のバイアスは変えるのが難しいのです。ヘルスケアのアルゴリズムは、問題を見つけ、原因を特定し、修正しました。他の問題がないという意味ではありませんが、少なくともそれは修正されました。
だから、アルゴリズムバイアスに関する多くの議論は、問題の重要性を正しく認識していますが、もう1つの大きな問題、つまり人間のバイアスと比較して設定することを誤っています。これら2つを並べて見ると、逆説的にアルゴリズムについてより楽観的になります。単純に言えば、アルゴリズムの問題の方が修正しやすいからです。人間の問題はそうではありません。私たちは人間です。人間は変えるのが難しいのです。
そうですね。人間は不可解で、本質的に修正が難しいのです。それはすべて理解できます。しかし、それほど単純なのでしょうか? アルゴリズムについて楽観的になることには賛成ですが、バイアスを特定して修正するだけで済むのでしょうか?
いいえ。そうですね。その通りです。指摘してくれてありがとうございます。何かについて言えば、私はこの2つの事柄を極端な対比として示しました。確かにそれほど単純ではありません。例を挙げるなら、これらのケースの中には、アルゴリズムの販売者が抵抗したがる場合があります。呼ばれたくないという社会的な力が修正を妨げることがあります。また、このバイアスを見つけたとしても、誰かが正しく「他にないとどうして分かるの?」と言うかもしれません。その通りです。他にないことをどうやって知るのでしょうか?
だから、それほど単純ではありません。しかし、対照的に人間の方はとても複雑です。だから、10分の1ではなく、10分の2.5だと思います。2.5でもまだ悪いです。あるいは10分の3。10分の4までは譲りましょう。しかし4は依然として10よりは良いです。その意味で、あなたの言う通り、それほど単純ではありません。
実際、さらに深く掘り下げてみましょう。問題を認識して修正するという単純な問題ではないからです。これは実際にあなた自身の研究です。時には修正すべきことが明確でない場合があります。人々がバイアスと言うとき、それは見る人の目によって異なる場合があります。再び、あなたはフェアネスの文脈でまさにそのことを指摘しています。それについて少し教えていただけますか?
はい、その特定の研究に入る前に、あなたが言及した代理目的について戻りましょう。これについては研究していませんが、これが第一の事実だと思います。人々がものを見て「これはバイアスがある」と言うとき、彼らが意味しているのは「それは私の目的に対してバイアスがある」ということです。私たち全員の目的に対してバイアスがあるかもしれませんが、私たちはそれぞれ十分に異なる目的を持っているので、実際には全員が同意できるものを書き下すことはできません。
これは特に多くの人種バイアスの問題に当てはまります。なぜなら、多くのアプリケーションで、私たちは正しい目的関数について社会的コンセンサスを持っていないからです。実装方法は忘れてください。アルゴリズムは忘れてください。正しい目的関数についてコンセンサスがないのです。
大学入学を例に取りましょう。大学入学では、明示されていない目的関数を持つことができます。各入学担当者が何かをするからです。彼らは曖昧な言葉を持っています。「クラスを探しています。花束のようなものを」と。どのように実施されるのでしょうか? 誰にもわかりません。だから、コンセンサスに達する必要はありません。
しかし、入学アルゴリズムを構築しようとすると、状況が奇妙になります。一部の人種グループに有利に働くようにしますか? 一部の人種グループは、「まあ、それについて議論したくありません」と言うかもしれません。しかし、「いいえ、議論しなければなりません」と言わなければなりません。頭の中で行っているときは、議論する必要はありませんでした。
これが私たちが社会として直面する最大のハードルになると思います。アルゴリズムは、良くも悪くも、私たちが持ちたくない明示性のレベルを強制します。
人々はアルゴリズムによる履歴書のスクリーニングはひどいアイデアだと感じていると思います。私はそれがひどいアイデアだとは確信していません。なぜなら、人間による履歴書のスクリーニングがひどいアイデアだということを知っているからです。そのひどいアイデアと比較して、うまく構築されたアルゴリズムはより良いアイデアではないでしょうか? おそらくそうでしょう。そして今、どのフェアネス基準を選ぶか、何を望むかについて難しい会話をしなければなりません。しかし、人々についてそのような会話をしていませんでした。人々について対称的に行っていたら、「ああ、そちらも正しくやっていないんだ」と言うでしょう。
だから、私が楽観的に見えるのは、主に私が超悲観的だからだと思います。
あなたが悲観主義者だとは予想していませんでした。新しいことを学んでいます。
では、特定の領域にズームインしてみましょう。あなたがかなり多くの仕事をしている分野の1つは、AIとヘルスケアの文脈です。さて、ここでの約束は何でしょうか? そもそもなぜAIとヘルスケアについて話すべきなのでしょうか?
私が最も高く評価しているのは、多くの研究が向かっている方向ではありません。申し訳ありませんが、ほとんどの研究が向かっている方向は、自動化と呼びましょう。放射線科医がX線を読み取ります。アルゴリズムがX線を読み取ることができます。私にとって、それは一部のお金を節約することになります。放射線科医がたくさんいるので、おそらくかなりの金額になるでしょう。また、誰もが最高の放射線科医にアクセスできるので、品質も向上するでしょう。それは結構です。しかし、それはこれがどこまで行けるかに大きな制限をかけています。基本的に、現在よりも少し良い医療をより安いコストで手に入れることができるということです。それは良いことですが。
私は、別の分野に本当に大きな可能性があると思っています。その分野は、現在の医学を見ると、私たちはあまり多くを理解していないという事実です。これが真実なのです。あらゆるレベルで、私たちは何も分かっていません。病理スライドの読み取りを自動化すると言いましょう。これは体から取り出した腫瘍を薄切して画像にしたものです。病理医がするように、その読み取りを自動化して「その腫瘍はがんか?」と言おうとします。これはすべて非常に科学的に聞こえます。しかし「腫瘍ががんであるかどうかをどうやって知るのか?」と聞かれると、病理医がそう言うからです。病理医がそれを見て、基準を持っています。その基準はどこから来たのでしょうか? 掘り下げていくと、医学は – そして医師を怒らせるつもりはありませんが – 私たちはあまり多くを理解していません。人体は非常に複雑です。
今、待っている最大の利益は、私たちを悩ませるあらゆる病気について新しい発見をする能力です。新しい発見とは、必ずしも薬を見つけることだけを意味しません。腫瘍の形態をよりよく理解し、どれが良性でどれが悪性かを知るのに役立つだけでも、そのような単純なことでも大きな利益があります。
放射線科医がX線を読み取るような、医師が行う最も直接的なタスクを自動化しようとする多くの研究もあります。また、各診察後にメモを書くという mundane だが非常に時間のかかる作業を自動化しようとする成功したスタートアップもあると思います。明らかに誰もが喜ぶ自動化の利点はありますが、はい、2016年頃からAIヘルスケアの大きな約束について耳にし続けています。かなり長い間ですね。なぜこれが実現していないのでしょうか? ここでブレイクスルーが必要なのは何でしょうか?
これが実現していない大きな理由は、必要な種類の医療データへのアクセスを得ることだと思います。病理の例を挙げましょう。病理の例では、病理スライドへのアクセスが必要です。また、それらの患者の長期的な結果についてのデータも必要です。放射線科医とメモの自動化は、データがより簡単に得られるので、人々はそれらを選んでいます。X線と放射線科医が言ったことへのアクセスがあれば十分です。あるいはメモ、それだけで十分です。しかし、高次元の入力と結果の両方を得るこの縦断的なデータは、取得するのに多くの作業が必要です。
皮肉なことに、それらを取得するのに多くの作業が必要な理由は、データがないからではありません。多くの医療システムがそれらを持っています。しかし、医療システムと協力してデータを取得するのは本当に多くの作業が必要なのです。ご存じのように。私たちにはプロジェクトがありましたよね? よく覚えていますね。COVID中にCOVIDに関する何かをしようとプロジェクトを始めましたが、COVIDが終わった後でデータを得ました。
そしてそれは迅速なプロジェクトでした。だから、最大のボトルネックはデータだったと思います。私は単純に「これらのプロジェクトをやろう。これらのことを始めよう」と思っていましたが、実際には「みんながデータを得られるようにすることが必要だ」と言うようになりました。そこに私のエネルギーを注いできました。
わかりました。なぜそれほど難しいのでしょうか?
私たちにはDandelionというスタートアップがあり、そこでの経験が示唆するものがあります。私たちが考えたのは、みんながこのデータを得られるようにしよう、ということでした。そして難しいのは、実際にいくつかのレベルがあります。
まず、医療システムと話をすると、彼らは自分たちのデータがどれほど価値があるのかわかりません。また、あなたにデータを提供することは、彼らにとって重要なことのリストの85番目くらいです。ビジネス開発チームがあったとしても、それは彼らの優先事項ではありません。だから、優先事項でもなく、このデータをあなたに提供するのに適切な価格が何なのかも理解していません。誰にもわかりません。
私たちが試みたのは、それらすべてを引き受け、システムと単一の契約を結んで、これらのシステムへの玄関口になることです。しかし、その比喩は有用です。私たちが玄関口であれば、摩擦はなくなります。一方で、私が思うに – もう一度言いましょう。問題は、データを保持しているエンティティとしての医療システムの構築における社会学的な問題です。それをより明確に言うべきでした。医療システムからあなたにデータを提供する際の社会学的な問題です。これが個人情報であり安全であるという問題ではありません。それらの問題は非常に解決可能です。データを提供したくないわけではありません。ただ医療システムの社会学の問題なのです。
彼らはあなたが持つ、このデータですべてのがんをより良く治療できるという夢を信じていないのでしょうか? 彼らにとって、それはある程度優先順位が高いはずだと思います。そこで何が繋がっていないのでしょうか? 彼らにとってあまりにも抽象的に感じられるのでしょうか? 完全に概念化できないのでしょうか?
Dandelionでは、多くの成功を収めています。彼らに署名してもらい、今ではそのすべてのデータを持っています。私はDandelionを始めたときに気づいたのですが、個々のプロジェクトで彼らに働きかけるのは難しいということです。たとえその夢を信じていても、それは彼らにとっては1つの小さなプロジェクトに過ぎません。「ここにすべてのデータがあります」と一度に言う方法があれば、これら3つのシステムは喜んでそうしました。
これらのシステムと交渉する中で、賢明な人々はその夢を信じているのだと理解するようになりました。賢明な人々は、それが彼らにとっても、患者にとっても、社会にとっても良いことだと理解しています。しかし結局のところ、彼らの経営陣は医療システムを運営しています。断片的に、1つずつ対応するビジネスにはなれません。たとえ素晴らしい病理学のスタートアップが来たとしても、それは起こり得る何千もののうちの1つに過ぎません。
だから、これらのことが断片的に入ってくるとき、それはより大きな優先順位付けの問題だと思います。それが理解できますか? そして、他のセクターでもこれが問題になり始めると思います。AIの力は多くの異なることに取り組めることですが、データの提供者はこれらの1つ1つを扱うことはできません。それは彼らがやることではありません。それは彼らのビジネスではありません。それは彼らが構築されているものではありません。
つまり、データを持っている人々から、そのデータで有用なことができる人々へのデータの流れを可能にする、より多くのデータ市場が必要だということですね。
その通りです。それが私たちが試みてきたことであり、もっとそのようなものが必要だと思います。
楽しみにしています。では、この問題を解決したので、5年後にはがんが治ると期待していいですね。10年にしましょうか。
はい、10年で。がんとアルツハイマー病、どうでしょうか?
素晴らしいですね。了解です。
AIの前よりもAIの後の方が考えたことがある別の空間に移りましょう。本質的に、社会的な使用、つまり私たちの社会や政策立案者が行う意思決定です。AIはこれを助けることができますが、もちろんすべての落とし穴があります。あなたはどのように考えていますか? 政策立案におけるAIの役割は何でしょうか?
はい、良い質問です。意思決定から始めて、それから政策立案に移りましょう。
意思決定において、アルゴリズムから始めるのではなく、人から始めると考えると、最大のイノベーションは – ダニー・カーネマンが数日前に亡くなりましたが、彼の人類への永続的な貢献は、私たち人間が予測可能な判断と決定の誤りを犯すという事実の強調です。これは大きな洞察であり、私たち人間が行うすべてのことに影響を与えます。あなたが言うように、決定はどこにでもあります。
それが基礎であれば、次に人々がすることは「素晴らしい、私たちが予測可能な判断の誤りを犯しているなら、どうすれば意思決定を改善できるだろうか?」ということです。そしてそれは、その角度から見ると、アルゴリズムが大きな価値を提供できる場所だと思います。
現在、私たちは人々がアルゴリズムを物事を自動化するものとして見ている時期にいます。そしてそれがアルゴリズムがしていることであれば、なぜ懸念があるのかわかります。しかし、自動化ではなく支援として考えると、2つの変化が起こります。
1つは、自律性が個人に戻ることです。あなたがやりたいことを支援してくれるのです。そしてもう1つの大きな変化は、創造性の領域が大きく広がることです。アルゴリズムはどのように支援できるでしょうか? どのような方法で支援できるでしょうか?
そういったことをもっと見たいと思っています。決定や判断を助けることができるアルゴリズムのエージェントのような仕事です。私たちはまだその表面をかすっているだけだと思います。
あなたが大きく信じていることを確実に指摘しましたね。実際、AIの自動化よりもAIの支援に焦点を当てるべきだと私も考えています。しかし、AIがどのようにして私がより良い決定を下すのを助け、本質的に私のサービスのエージェントになれるのか、例を挙げていただけますか?
1つ例を挙げましょう。ほとんどの人が考えるのは、メールの処理などのようなことです。そこで、分布の完全に反対側にある例を挙げましょう。それは医療の裏側です。
あなたが放射線科医だとイメージしてください。朝出勤すると、一晩中積み重なったCTスキャンがたくさんあり、読み取らなければなりません。朝から始めて、順番に読んでいきます。読む順序は先入れ先出しですが、それは任意です。かなり任意です。
アシスタントがいるとイメージしてください。上手である必要さえありません。ただ「これらのCTスキャンは頭蓋内出血の可能性があります。これらを先に読んではどうですか?」と言うだけです。この小さな変化、「これらを先に読んではどうですか?」が、大きな効果を持つ可能性があります。
なぜなら、頭蓋内出血は1時間ごとに重要だからです。6時間待ってから読むのと、すぐに読むのとでは大きな違いがあります。
多くの意思決定システムにはこのようなことがあります。「ああ、それはかなりユニークなケースだ」と言うかもしれません。でもそうでしょうか? 多くの意思決定システムを考えてみてください。履歴書を読んでいるとします。500の履歴書があります。最後まで読むころには、確実に十分なエネルギーを注ぐことができないでしょう。では、どの履歴書を最初に読むべきでしょうか? アルファベット順に最初のもの? 最初に応募した人のもの? それは奇妙なことです。
単純なアルゴリズムは多くの作業をする必要はありません。「これらをどのように優先順位付けしたいですか? 優先順位付けを手伝いましょう」と言うだけです。これは、アシスタントができると考えもしなかったプロトタイプのような活動の例ですが、多くのワークフローを完全に変える可能性があります。
同意します。しかし、再び反論せざるを得ません。今日はそれが私の役割のようです。はい、あなたがそのように言うと、すべてが筋が通ります。しかし、DARPAが戦場での医療トリアージにAIを使用しようとしているという記事を読みました。そこで興味深かったのは、人々のその考えに対する反応でした。
彼らは「このAIがより良い決定を下すと信じることはできる」と言いました。そして本当に実用的な考え方をしていました。しかし正直なところ、戦場でのトリアージは本当に厄介な仕事です。誰かが確実に死ぬことを意味し、誰が死ぬか、誰が死なないかを決めるのです。そして、決定が正しいかどうかということではなく、これらの人々の家族が「難しい決断だったのはわかります。人間が行ったのであれば、本当に後悔の念や共感があったと感じられるのですが。機械によって決定されたというのは正しく感じられません」と言うことなのです。
頭蓋内出血の文脈では、それも誰かの命です。そう、アルゴリズムは正しいことをしたかもしれませんし、そうでなかったかもしれません。どうやってわかるのでしょうか? この側面についてどのように考えますか?
私はこの点について、人々の考え方とは本当に異なる見解を持っていると思います。人々は現在、人間はアルゴリズムに対してかなり強い嫌悪感を持っているという見方をしています。私の見方は、新しい技術が登場して間もない今、人々の今日の見方が50年後や100年後も同じだと考えるのは早すぎるということです。
講演をするときにいつもこんな演習をします。「あなたは飛行機に乗っていて、着陸しようとしています。パイロットが無線で『非常に揺れる着陸になりそうです。横風が強いのですが、幸いこのような状況に対応できる自動操縦装置があります』と言います。さて、挙手で、パイロットに操縦してもらいたい人と自動操縦装置に任せたい人を教えてください」と聴衆に尋ねます。
この質問をする理由は、自動操縦装置が最初に登場したとき、明らかに人々は「何を言っているんだ、バカか? あなたがやるべきだ」と言ったでしょう。今では、聴衆の多くが「ヒーローぶらないでくれ。自動操縦装置をオンにして座っていてくれ」と言います。多くの人がそう思っています。
これは、これらのことに対する私たちの嫌悪感の一部が十分な根拠を持っていることを思い出させてくれます。例えば、人々が「アルゴリズムが良い仕事をするかどうかわからない」と言うとき、彼らが実際に言っているのは「アルゴリズムが私が気にしている目的の豊かさを本当に理解しているかどうかわからない」ということです。これは変わらないでしょう。どれだけ接触しても変わりません。しかし、躊躇の一部は単にまだ慣れていないことから来ているのだと思います。
私のお気に入りの例は、エレベーターが最初に登場したときのことです。人々は正当な理由でこの物に乗るのをとても恐れていました。そのため、エレベーターがただボタンを押すだけのものになったとき、人々は「エレベーター係がいないなんてどういうこと?」と言いました。そこで、人々が安心できるように、ボタンを押すだけの仕事をする人を置き続けました。今、エレベーターに乗って、ただボタンを押すだけの人がいたら、「この変な人は誰? 何をしているの?」と思うでしょう。
そういう意味で、アルゴリズムに対するこの躊躇の多くは、すべてではありませんが、そのようなものだと思います。その一部は非常に根拠のあるものですが、将来的にはそのような話の方が一般的になると思います。
わかりました。それでもあなたはアルゴリズムに対して大きな楽観主義者、あるいはあなたの言葉を借りれば、悲観主義者ではないということですね。
しかし、常にそうだったわけではありません。2016年には、現在のAIについてかなり懐疑的だったと思います。相関関係と因果関係の違いによって駆動されていると言っていましたね。その違いを説明していただけますか? そしてなぜそこで悲観的だったのでしょうか? 今でも悲観的ですか?
私は今でもとても悲観的です。はい、AIが適切な場所を持つ慎重に検討された問題については非常に楽観的ですが、これらのツールを特に適切でない場所に過度に拡大することについては非常に悲観的です。
例えば、医療の中で「診断の分野で多くのことを行うことになる」と言った理由は、診断が予測に関するものだからです。薬の発見に入れば、AIの素晴らしい用途があると確信していますが、結局のところ、薬の発見の核心は臨床試験を行わなければならないということだと思います。最終的には、RCT(ランダム化比較試験)を行わなければなりません。そしてその活動の律速段階はRCTになるでしょう。RCTを実行する対象をより良く推測することはできるかもしれません。なぜならそれは予測技術だからです。
しかし私にとって、アルゴリズムが本当に失敗するのは、目的に適していない問題に適用されたときです。私にとって、失敗のモードを要約する方法かもしれません。現在見られる多くの失敗は、目的に適していない場所でアルゴリズムを使用することだと思います。そのような多くのことが見られると思います。そしてそれらの使用事例を取り除くことができれば、非常に良いものが残るでしょう。しかし、それらの使用事例は本当に、私は危険で非常に問題があると思います。
少し詳しく説明していただけますか? RCT(ランダム化比較試験)について言及されましたが、なぜ予測には良いが、それには良くないのでしょうか? この問題の核心を説明していただけますか?
良い予測モデルを使えば、「これを見たら、最良の予測はこれです」と言えます。そして、入力と出力の関係を形成するのに十分な事例を見てきたので、良い予測モデルを構築できます。私にとって、これは世界の1つのカテゴリーです。
世界の別のカテゴリーは、実験を行う必要がある場合です。実験を行うことで、効果的に、これまで見たことのない種類の事例を導入します。この薬を服用した人を見たことがありません。ランダム化比較試験は、単純にXならばYと言えるほどのデータがない領域で非常に強力です。そのため、新しい事例でデータを生成するために慎重な試験を行わなければなりません。
そうでなければ同一の人が、一方は学校教育を受け、もう一方は受けなかった場合を見たことがありません。なぜなら、ランダムに学校教育を受けた人と受けなかった人を見たことがないからです。観察データからは非常に難しいです。なぜなら、学校教育を受けた人と受けなかった人は異なるからです。
私にとって、これは微妙ですが非常に重要な区別です。私たちが持っているデータが本当にリンゴとリンゴの比較を可能にする場合、それは予測に適しています。私たちが持っているデータがそれを可能にせず、リンゴとオレンジを比較しようとしている場合、より多くのデータを収集する必要があります。これがランダム化比較試験が実際に行うことです。
オンラインの世界では、新しいデータを収集し新しい実験を行うのが非常に簡単なので、one-armed banditやそのようなものが効果的です。データフレームを拡張し続けることができ、それはうまく機能します。しかし、ほとんどの社会問題では、データが意味のある因果関係について話すことを可能にする状況と、そうではない状況の間にかなり大きな分断があります。新しいデータ、実験データ、あるいはそれに似たものを得て、因果関係について話す必要があります。
理解を確認させてください。本質的に、あなたが言っているのは、薬の有効性を理解しようとするとき、その薬を一度も服用したことがない人(おそらくプラセボを服用した人)と服用した人の結果を比較したいということですね。これがあなたが言う「リンゴとリンゴの比較」を本当に可能にします。設計によってそれを行わない限り、自然の中でそれにアプローチするのは非常に難しいでしょう。
同様に、学校教育についても言及されました。通常、学校教育を受ける人々は裕福である傾向があり、他の良い結果も得られる傾向があります。そのため、最終的にこの特定の側面の具体的な影響を分離するのは非常に難しいのです。
つまり、あなたが言っているのは、このようなデータが十分にない場合はいつでも、AIの適用に非常に注意深くなるべきだということです。ランダム化比較試験や特定の側面についてより注意深くなるための他の方法を試みるべきです。
その通りです。そして、分布外の物事を見ることについてあなたが行った研究は、因果関係以上のものを示しています。純粋な予測でさえ、データが特定のサンプリング分布から来ていない場合、そしてその分布の外側にあなたが気にすることがある場合、同様に注意深くなるべきです。これらのアルゴリズムは、トレーニングされたデータの分布に対しては優れています。それらは素晴らしいですが、魔法のように分布外に一般化することを期待することはできません。そうなれば素晴らしいでしょうが、そうなると運命づけられているとは考えられません。
その通りです。ある意味で、私たちはアルゴリズムを非常に多くのデータでトレーニングし、そのためすべての例がカバーされているという誤った仮定を持っています。しかし、実際に起こることの長いテールは非常に大きいので、常に何かが欠けています。そのため、常にデータから何らかの関係を蒸留して一般化することに頼っていますが、アルゴリズムを設計するときにそれを確認する方法はありません。
それはデータの量についての素晴らしい比喩です。データの量が人々を、「わかりました。しかし、サンプリング分布はどうだったのですか?」と尋ねないように誘導しているのだと思います。
誰かに「20万人が回答したオンライン調査があり、それによるとトランプへの支持がバイデンへの支持よりも10ポイント高いことが明らかになった」と言ったら、誰も信じないでしょう。「どんなオンライン調査? 誰が回答したの? ランダムサンプルだったの?」と聞くでしょう。データの量だけでは誰も納得しません。
しかし、この世界に入ると、人々は「ああ、たくさんのデータがあります。これは多くのケースをカバーしているに違いありません」と言います。なぜでしょうか? どのようにして得たのですか? どこから来たのですか? Redditに投稿する人は誰ですか? Redditではどのような質問が尋ねられますか? Redditでは尋ねられない質問はどのようなものですか?
時々、「インターネットは世界の知識を含んでいますか?」と聞くと、本当にそうでしょうか? これは興味深い質問です。実際、「インターネットで議論されていない種類の知識は何ですか?」という質問をすべきです。あるのでしょうか? 実際にはわかりません。知的に非常に興味深い質問です。
しかし、他の多くの問題については、表現されていないものがたくさんあることは明らかです。そして、その魔法のようなジャンプを期待することはできません。
これは少しオタク的な類推かもしれませんが、例えば、AIを使ってソフトウェアの脆弱性を見つける方法を理解しようとする場合、これはバグを修正するために使いたいかもしれません。問題は、インターネットから脆弱性を見つける方法を学ぶのは非常に難しいということです。なぜなら、実際にそこに到達するプロセスを誰も文書化していないからです。はい、インターネット全体をトレーニングしても、すべてのセキュリティ研究者が持っているこのものを決して得ることはできません。
そうですね。文書化するインセンティブがないのです。
素晴らしい例です。はい、それは素晴らしい例です。
そして、「インターネットにないものは何か?」を考えるのは実際に興味深いです。インターネットにあるものについて多くの心配をしますが、その一部は確かに disturbing です。確かに、ミームを気にするならこれはあなたの正しい分布です。しかし、それ以上のことは非常に興味深いですね。
まとめに入りましょう。1つ質問したいのは、あなたのビジョンについてです。あなたは今、人々がAIに慣れ始めている混乱の時期だと言っています。私たちはまだAIを開発していますが、今から10年後を想像してください。10年後に振り返って「AIは世界にどのような影響を与えたのか?」と考えたとき、それはポジティブな影響だと言えるでしょうか、それともそれほどポジティブではない影響でしょうか? あなたの予測は何ですか?
楽観主義者というステレオタイプに沿って座るべきだと思うので…
悲観主義者ではないということですね。
悲観主義者ではないということです。私たちが非常に驚くような超ポジティブな影響をいくつか見ることになると思います。それが楽観主義的な部分です。私たちが話してきた分野、健康、科学的発見、意思決定などで、重要な決定や重要な状況にある個人が単により良い決定を下すようになるのを見ることになると思います。それは私たち全員に利益をもたらします。
また、悪夢のようなシナリオもいくつか実現すると思います。それは、フェイクニュースのためにこれらのツールを使用するなど、人々が話してきたシナリオの1つかもしれません。しかし、それらのシナリオのどれでもない可能性が高いと思います。私たちがまだ想定していないシナリオになると思います。
もし私が何が十分にリソースを割かれていないと言えば、それは多くの場合、まだ発明されていない技術についてではなく、すでに存在する技術の使用についてだと思います。悪意のある行為者が非常に創造的な方法で使用する場合です。もっとレッドチーム、ブルーチームのアプローチがあればいいのにと思います。新しい技術が登場するのを心配するのではなく、地下室や100万ドルの部屋で何ができるかを考え、何らかの害を及ぼす可能性のあることを考えてみましょう。
AIのティモシー・マクベイのような狂人はどのような姿をしているでしょうか? 悪意を持って5000万ドルをAIに投資する国は何ができるでしょうか? そういった深刻なレッドチーミングをもっと行うべきです。既知のトピックに費やされているエネルギーのすべてを考えてみてください。そのエネルギーの10%をこれに充てましょう。そうすれば、一部は非常にネガティブなものになるでしょうが、これらのクレイジーな使用法について考え始めることができるかもしれません。ティモシー・マクベイのような状況です。本当に悪用される可能性があります。ただ、私にはまだわかりません。私たちの誰もまだわからないのかもしれません。
このティモシー・マクベイの状況について具体的に説明していただけますか? つまり…
ああ、彼はオクラホマシティ爆破事件の実行犯です。
なるほど。わかりました。
しかし、彼がしたことを考えてみてください。
彼はAIを使用しなかったと思います。
いいえ、使っていないかもしれません。彼はそこに行くのにWazeを使ったかもしれません。それには少し早すぎたでしょうね。
彼がしたことは、私の知る限り – これはかなり昔のことなので、間違っているかもしれませんが、原則は正しいです – 大きなUハウルのようなトラックを手に入れました。爆弾は肥料と様々なものでした。ただトラック、肥料、買える物だけで連邦政府の建物全体を爆破しました。
私たちが本当に考えていないのは、1人の狂った人間や1つの狂った国が、国や個人としてはそれほど多くのリソースを持たずに、何ができるかということです。
ちなみに、私も完全に同意します。このレッドチーミングとブルーチーミングをもっと行う必要があります。私がOpenAIでリードしているチームは、まさにそれを行っています。
ああ、素晴らしい。
私たちはこの技術がどのように悪用される可能性があるかを理解しようとしています。
それがティモシー・マクベイチームと呼んでいるのですか?
いいえ、いいえ、違います。OpenAIが開発する技術だけでなく、他の人々が開発する技術も理解しようとしています。そして、大きな部分は、OpenAI以外の人々がこれを理解するのを助けることです。私たちがあなたをカバーしていると言っているわけではありませんが、少なくともここで私たちの役割を果たしています。
しかし、これはまさにBefore AGIというこのポッドキャストの全体的なアイデアに反するものです。そして、実際にそれが私の好きなところです。現在の技術に焦点を当てましょう。なぜなら、それは今すでに多くのことを変えているからです。
しかし、AGIや人々がその文脈で話すカタストロフィックなシナリオについて心配していないのですか?
実際、それについては心配していません。はい、技術は改善し続け、指数関数的に改善すると感じていますが、それがどこに向かうかは予想外のものになると思います。
例えば、私は箱の中の人間にさえあまり興味がありません。人間はいます。それで十分です。彼らは楽しく、興味深いですが、これらのアルゴリズムの素晴らしいところは、人間のようなことができるということではありません。人間には想像もつかないことができるのです。
だから、10年後に私が考えているのは、「ワオ、これらのアルゴリズムは現在の人間が想像もできないことができるようになるだろう」ということです。それは、箱の中に100万人の人間がいるようなものではありません。それは人間の知能能力とは全く異なる種類の知能能力になるでしょう。そして、それが私にとってこのすべての中で最も興奮することだと感じています。人間の知能を任意のスケールで複製することではなく、本当にユニークで異なる種類の知能を持つ能力です。それがどのようなものになるかはわかりませんが、それを構築するのを手伝うのはとてもエキサイティングに思えます。
しかし、それはまさにAGIかもしれません。シンギュラリティや人間を超越するものであり、人間を複製するのではなく。だからこそ人々はここに興味を持っているのだと思います。だから、あなたは実際にAGIと時間を過ごしたいと思っているのですね。なぜなら、それは人間とは異なる興味深い方法で面白いからです。
はい、はい、はい。確かに。
わかりました。これは最後の質問につながります。AIについて考えるとき、あなた個人、センディルとして、最も期待していること、あるいは最も心配していることは何ですか?
ああ、最も期待していることをお話しします。
わかりました。
2012年に始めたことが、私が最も楽しみにしていることだと思います。科学は人間社会における最も重要な力だと思います。なぜなら、100年の視点で見ると、あらゆる次元で最大の進歩をもたらすからです。
私が最も楽しみにしているのは、AIによって私たちの基本的な発見のツールの多くが変革されたとき、20年後の科学がどのようになっているかということです。私たちは、最初の科学革命で見たのと少なくとも同じ規模の科学革命を目にすることになると思います。多くの異なる分野にわたって、私たちは全く異なる発見の傾斜に乗ることになると思います。なぜなら、科学が変わるからです。それが私が最も興奮していることです。
その考えに非常に共感します。センディル、本当にありがとうございました。
ご視聴いただき、ありがとうございました。今日は、AIとそれが私たちや社会にとって何を意味するかについて深く考える行動経済学者であるセンディル・ムッライナサンとお話しする機会がありました。私と同じくらいこの会話を楽しんでいただけたなら、ぜひ購読し、友人と共有し、コメントでフィードバックをお寄せください。ありがとうございました。


コメント