AIのいかさま薬:人工知能ができること、できないこと、そしてその見分け方

AIアライメント・安全性
この記事は約46分で読めます。

この動画は、プリンストン大学のアーヴィンド・ナラヤナン教授による「AI Snake Oil(AIのいかさま薬)」に関する講演である。ナラヤナン教授は著書を通じて、AIを予測AI生成AIに分類し、それぞれの有効性と限界について詳細に解説している。特に予測AIについては、犯罪予測や採用判定などの分野において、その精度の低さと倫理的問題を厳しく批判している。一方で生成AIについては、適切な使用法における有用性を認めつつも、無責任なリリース慣行や社会的害悪について警鐘を鳴らしている。講演では、AIの誇大宣伝と現実のギャップを明確にし、技術の適切な評価と活用方法について建設的な議論を展開している。

https://www.youtube.com/watch?v=C3TqcUEFR58

MITでのAI Snake Oil講演会

アス・オズダアラー教授:それでは始めましょうか。皆様、こんばんは。今夜はアーヴィンド・ナラヤナン教授をお迎えできて大変光栄です。シュワルツマン・コンピューティング・カレッジは、MITの「労働の未来を形づくるイニシアチブ」と共催でこのイベントを開催できることを誇りに思います。

技術、社会、そして労働の未来の交差点において、このような独特な思考と使命の融合を目にすることができて興奮しています。プリンストン大学のアーヴィンド・ナラヤナン教授、そして「AI Snake Oil」の共著者にお越しいただき光栄です。AIの約束と危険について多くの議論がなされ、多くの人々が実存的リスクに焦点を当てているこのような重要な時期に、アーヴィンドとサヤッシュの本は新鮮な息吹をもたらし、AIの誇大宣伝と現実をどのように航行できるかについてバランスの取れた視点を提供してくれます。私は個人的にこの本を皆様にお勧めします。

アーヴィンドは本の中で、偽りの口実で奇跡の治療法を約束するいかさま薬の売り手との非常に効果的な類似を描いています。時には無効だが無害な場合もありますが、他の場合には健康や生命の損失に至るまでの害を及ぼします。AIも非常に似ています。AIのいかさま薬とは、機能しない、そして機能し得ないAIのことです。

この本の目標は、AIのいかさま薬を特定し、特に採用、医療、司法などの重要な場面において、AIが非常に効果的に機能する場所と区別することです。シュワルツマン・コンピューティング・カレッジの学術担当副学部長として、この場にいられることを嬉しく思います。そして私たちの学部長であるダン・ハッテンロッカーも今夜ここにいらっしゃいます。

そして「労働の未来を形づくるイニシアチブ」の動的なリーダーたち、ダロン・アセモグルとデイヴィッド・オートールと一緒にいられることは本当に喜びです。

ダロン・アセモグル:サイモンはここにいません。

司会者:サイモンはここにいません。そして効果的で動的なリーダーであるサイモン・ジョンソンも、今日は参加できませんでした。「労働の未来を形づくる」は、自動化の経済的・政策的影響にエビデンスに基づいたレンズを持ち込んでいます。

シュワルツマン・カレッジは、社会的含意を中核に据えてコンピューティングの研究と教育の方法を再考しています。これらの取り組みを結び付け、今夜アーヴィンドをここにお迎えできることに興奮している理由は、AI技術がどのように開発・展開されるかにおける明確さ、厳密さ、技術的専門知識への共通のコミットメントです。

今夜のプレゼンテーションと対話は、私たちを啓発し、これらの重要な問題について考えさせてくれることを約束します。それでは、経済学部の研究所教授であり、「労働の未来を形づくるイニシアチブ」の教員共同ディレクターでもあるダロン・アセモグル教授をお迎えください。

ダロン・アセモグル:ありがとう、アリソン。これは必要ありません。ラペルマイクがあります。ありがとう。

ありがとうございます、アリソン、そして皆様がここにいてくださってありがとうございます。これは素晴らしいイベントで、人々がこれを素晴らしいイベントとして認識してここを満たしてくださったことを嬉しく思います。私自身、デイヴィッド・オートール、そして残念ながらここにいることができなかったサイモン・ジョンソンとともに共同で率いている「労働の未来を形づくるイニシアチブ」について、もう少しお話ししたいと思います。

そしてこれを言いたい理由の一部は、アーヴィンドのアジェンダが私たちのやりたいことといかに相乗効果があるかを強調したいからです。私たちがこのイニシアチブを立ち上げたのは、デジタル技術とAIの時代における労働の未来、不平等の未来、生産性の未来を心配しているからです。

そして私たちが懸念している理由の一部は、まさにAIや他の技術がどのように使用されるかということです。そして「形づくる」という言葉が示唆するように、私たちの視点は、これらの技術の未来は与えられているものではない、運命づけられているものではないが、異なる技術は異なる結果をもたらすと主張するものです。そして私たちはそれらの結果を理解し、主に私たちが行っている学術研究、そして私たちの協力者や関連機関が行っている研究から来る様々なチャネルを通じて、技術をより社会的に有益な方向に導きたいと思っています。そして私は、アーヴィンドほど実際にこれにはるかに大きな深さと幅を与えることができる人を想像することはできません。

なぜなら、アーヴィンドはプリンストン大学のコンピューター科学教授です。もっとも経済学教授としても迎えることができたでしょう、アーヴィンド。それは公正なゲームだと思います。プリンストン大学のコンピューター科学教授であり、情報技術政策センターのディレクターでもあり、本がなくても、ユニークな視点、素晴らしい技術的専門知識を持ち込んでいますが、AIの多くの応用について非常に明確で深い理解を持っています。そしてそれは私たちがいる必要がある空間そのものです。

過度の楽観主義でもなく、過度の悲観主義でもなく、AIが生産的にできることは何か、現時点でできないこと、おそらく決してできないことは何か、そしてできるがそれほど素晴らしくないことは何かを理解することです。アーヴィンドの本「AI Snake Oil」について聞くことになりますが、予測AIから生成AI、大規模言語モデルからソーシャルメディア、機械学習と機械学習でできる間違いまで、素晴らしい洞察に満ちています。私たちはこれらの優秀なポイントの多くを垣間見ることができ、うまくいけば皆にとって多くの思考の糧を得ることができると思います。

アーヴィンドは20、25分間お話しし、その後15分ほど少し対話を行います。そして質疑応答に開放します。どうぞアーヴィンドに温かい歓迎をお願いします。彼がここにいてくれて本当に嬉しいです。

アーヴィンド・ナラヤナン教授の講演

アーヴィンド・ナラヤナン:こんばんは、皆様。ダロン、アスのそのような親切な言葉をありがとうございます。今日ここにいられることは本当に私の喜びです。

そして本当にそう言っているのは、この本の起源となる物語が実際にここMITにあるからです。それがどのように起こったかお話ししましょう。これは2019年のことでしたが、私は採用自動化ソフトウェアを見続けていました。

そしてこれらのAI企業のHR部門への売り込みは、見てください、あなた方は各オープンポジションに対して何百、おそらく1,000の応募を受けています。それらすべてを手動でレビューすることは不可能です。だから私たちのAIソフトウェアを使って、候補者に30秒間自分について話している動画を録画してもらってください。職務資格についてではなく、趣味やその他のことについてでも構いません。これは実際の会社の販促資料からのものです。

そして売り込みは、私たちのAIがその動画を分析し、ボディランゲージ、話し方のパターンなどを見て、彼らの性格と特定の仕事への適性を把握できるというものでした。ここでこのソフトウェアがこの人を性格の複数の次元で特徴づけているのを見ることができます。

これは5つのタブのうちの1つにすぎません。そして右上で、彼らは変革推進者として特徴づけられています。そして彼らのスコアは8.982という精度です。それがAIだとわかる方法です。それが正確だとわかる方法です。そして私には、これが実際に機能する可能性のある既知の方法があるとは思えませんでした。そして案の定、6年後の今、これらの企業のどれも、これが実際に誰かの職務遂行能力を予測できるという証拠の欠片も発表していません。

そして調査ジャーナリストがこれらの技術が機能するかどうかを確認するために創造的な方法を使うことができた少数の事例では、彼らが発見したのはこのようなことでした。ここに動画を2つのコピーをアップロードした調査ジャーナリストがいました。

一つのケースでは、彼らは背景にデジタルで本棚を追加しました。そして別の実験では眼鏡ありと眼鏡なしを試しました。根本的に異なるスコアです。私はその時この証拠を持っていませんでしたが、これが私が疑っていたことです。そして偶然にも、その時私はここで講演をするよう招待されました。そして私は「AIのいかさま薬を認識する方法」という講演を行いました。

私は言いました、見てください、AIには多くの種類があり、生成AIのようなものがあります。当時は生成AIとは呼ばれていませんでしたが。それらは急速な進歩を遂げています。よく機能しますが、このような主張もなされています。私はそれを精巧な乱数生成器と呼び、人々はその講演を気に入ったようでした。翌日スライドをオンラインに掲載しました。20人の同僚が見るだろうと思いました。

しかし実際には、スライドがバイラルになりました。これが学術的な仕事で起こり得ることだとは知りませんでした。そして私が何か深いことを言ったからではなく、AIに関連する主張の多くが必ずしも真実ではないかもしれないと私たちが疑っているからだということに気づきました。しかしこれらは兆ドル企業や天才とされる人々によってなされています。

だから私たちは必ずしもそれを呼び出す自信を持っているとは感じません。そして私がコンピューター科学教授であり、AIを研究し、AIを構築しており、これらの主張の一部は証拠に裏付けられていないと言うことができた時、それは多くの人々に響いたようでした。そして数日以内に、その講演を記事や本にするための30から40の招待がありました。

私は本当にその本を書きたかったのです。しかし準備ができているとは感じませんでした。なぜなら、AIがいつ機能し、いつ機能しないかを理解するためのより厳密なフレームワークを提示するために、多くの研究が必要だということを知っていたからです。そしてその時にサヤッシュ・カプールが大学院生として私に加わりました。だから私たちは約5年間の研究を行いました。

そしてこの本は、その研究の要約と統合であり、その一部は本に至るまでの一連の論文の形でも発表しています。本からの主要なアイデアのいくつかを次の15分ほどでお話しさせてください。本の出発点は、AIは単一の技術ではないということを認識することです。それは互いにゆるくしか関連していない一連の技術の包括的な用語です。これはChatGPTです。

それが何かをお話しする必要はありません。しかし一方で、銀行が誰かの信用リスクを分類するために使用する可能性のある技術もAIと呼ばれます。それらが両方ともAIと呼ばれる理由があります。それらは両方ともデータからの学習の形式です。しかし重要なすべての方法において、技術がどのように機能するか、アプリケーションが何か、そして最も重要なのは、どのように失敗する可能性があり、その結果が何かにおいて、これら2つのものはお互いからこれ以上異なることはできません。

右のものは、私たちが予測AIと呼ぶものの例です。そしてすべての予測AIアプリケーションに共通するのは、意思決定のための特定の論理です。それは人々について、しばしば非常に重要な決定を、将来彼らが何をするか、または将来彼らに何が起こるかの予測に基づいて行う方法です。

そしてその決定は、過去の類似した人々からのデータに基づく機械学習を使用して行われます。これは採用で使用され、そこでの論理は誰が仕事でうまくやるかです。貸付で使用されます。そこでの論理は誰がローンを返済するか、しないかです。刑事司法で使用され、そこでの論理は誰が犯罪を犯すか、犯さないかです。医療で使用されます。教育で使用されます。絶えず拡大する領域の集合です。

そして予測AIは私たちが非常に疑問視しているものです。すぐにそれに戻ります。そしてもちろん、生成AIがあります。テキストの生成に加えて、それができることの絶えず拡大する多様性があります。本では、ソーシャルメディアアルゴリズムと、特定の個人への個別のリスクとは対照的に、そこから生じる可能性のある社会規模のリスクのいくつかについても多く語っています。

そして自動運転車とロボティクスについて少し話しますが、数分後に戻ります。なぜ私たちは予測AIについてそれほど懐疑的なのでしょうか。例えば刑事司法の例を見ると、今日の大多数の管轄区域で、誰かが逮捕された時、裁判官が決定に直面する時、彼らの裁判まで数ヶ月または数年かかります。その人はその時間を刑務所で過ごすべきか、自由にさせるべきか、足首モニターをつけるべきか、または釈放のための多くの選択肢のいずれかにするべきかです。その決定は、アルゴリズムシステムと自動化された意思決定システム、または少なくとも

決定推奨システムによって行われるか、導かれます。それは統計的学習システムです。AIと呼ぶことができます。私たちが予測AIと呼ぶ傘の下に入るものです。そしてこれに関する問題は長い間知られています。2016年に、ProPublicaによる「Machine Bias」と呼ばれるよく知られた調査がありました。そこで彼らは情報自由法請求を行いました。これらの企業は非常に秘密主義で有名です。彼らは多くのデータを取得することができました。

そして彼らは、彼らが研究した特定のアルゴリズムの偽陽性率が、白人被告に対してよりも黒人被告に対して2倍高いことを示しました。そして私たちはこれらの人種的偏見の問題について知っています。しかし私がその研究を見た時、その中で十分に取り上げられなかったと感じた一つの糸がありました。それは、これらの方法の予測精度が実際にはそれほど高くないということです。

機械学習での精度がどのように測定されるかを知っているなら、AUC、Area Under the Curveがしばしば使用されます。そしてここで得ることができる最良の数値は70%未満です。そして50%はランダムな推測ですね。だから私たちはコインの投げに少し勝る程度の正確さに基づいて、誰かの自由について決定を下しているのです。そして高リスクと予測される人々の圧倒的多数は、実際には別の犯罪を犯すことはありません。

だから私たちは、黒人被告であろうと白人被告であろうと他の誰であろうと、これを誰にでも使用することがどのように倫理的なのかと感じました。それが本で、そして本に至る論文でも私たちが述べる主要なポイントの一つです。未来を予測することは困難だということです。そしてそれは技術の限界の問題ではありません。私たちは単に将来誰が犯罪を犯すかを知らないのです。

だから私たちは、有罪の決定とは対照的に、将来犯すであろう犯罪の予測に基づいて誰かの運命を決定するというプレクライムのこのアイデアをそう簡単に受け入れるべきではありません。さて、生成AIについて話しましょう。予測AIについてはもっと言うべきことがありますが、おそらくそれは対話と質疑応答のために取っておくことができるでしょう。

生成AIの可能性と課題

生成AIは、もちろんテキストに加えて、多くのものの中の任意の一つを生成することができます。限界があります。多くの誇大宣伝があり、すぐにいくつかの欠点について話します。しかし本では、生成AIは基本的にすべての知識労働者、生活のために考える人にとって有用であるということも非常に明確にしています。そして労働への影響について話すことは確実だと思います。

しかし私はまた、それの大きな側面の一つは、それが単に使うのがとても楽しい技術だということを強調したかったのです。そして私はそれを対話の中に留めておきたかったのです。なぜならそれは、私たちがAIのこれらの深刻な側面について話している時にしばしば簡単に忘れられるからです。

そして私自身のAIの個人的な使用において、私は確実に研究のためにそれを使用しますが、私生活でもかなり使用しています。私には2人の幼い子供がいて、子供たちと時間を過ごしている時に、私たちの関係を本当に豊かにする方法でAIを使用していることがよくあります。例えば先日、私は娘に分数を教えていました。そして子供にとって分数のアイデアを理解するのは困難です。だから私は携帯電話のAIアプリを取り出しました。

最近では、アプリにやってもらいたいことのテキスト記述に基づいて、AIによってその場で作成された小さなアプリを作ることができます。だから私はAIエージェントに分数を視覚化するアプリを作成するよう頼み、それはこの小さなゲームを作りました。小さなスライダーがあり、ランダムな分数を生成して、子供にそれが線のどこに行くかを推測してもらいます。

そして彼らが推測すると、その推測をチェックし、線を多くの部分に分割し、3分の1がどのように見えるかを視覚化し、スコアを与えてスコアを記録し、新しい分数を生成し続けます。だから私たちはこれで15分間遊び、それは本当に彼女を助けました。そして私は時計を教える方法としてランダムな時計の顔を生成するなど、あらゆる種類のことでこれを行いました。

そしてこれについて本当にクールなのは、このアプリを一度作ることです。それで遊びます。私の子供はそれほど大きな注意力の持続時間がありません。15分間有用で、それから終わりです。それを捨てますね。そしてそれは素晴らしいです。数年前にはこれを行うことを想像することはできませんでした。なぜならアプリを作るのに最低でも数時間かかるからです。

そうは言っても、私たちは本で生成AI業界の無責任なリリース慣行についても批判的です。そしてもちろん、これには多くの有害な結果があります。そして本で言っているように、それは世界中の皆が同時に無料のバズソーの相当物を与えられたようなものです。

ただお金を稼ごうとしている人々によるAmazonでのAI生成本があります。いくつかのケースでは、それは単に迷惑です。おそらくあなたは99セントを失ったでしょう。これらのものがしばしば売られている価格です。なぜならあなたが知らずにAI生成本を買ったからです。しかしいくつかのケースでは、AIによって生成された幻覚に満ちたキノコの採取ガイドのようなものがあります。そしてそれらは生死に関わる結果をもたらす可能性があります。

そして多くのケースで生死に関わる結果があり、人々がAIボットとの関係を発達させ、チャットボットが彼らの自殺傾向を促すようなことがありました。そして私たちの心の中で最大のものは、おそらく聞いたことがあるであろうこれらのAI通知アプリです。これは世界中の多くの国、特に高等学校で流行病になっています。

そしてこれらは人の写真を撮り、アップロードした写真に基づいてその人のヌード画像を作成することができるアプリです。そしてこれは世界中の何十万人の、明らかに主に女性に影響を与えています。そしてAI企業だけでなく政策立案者も、この問題を認識してそれについて何かをすることがとても遅いのは本当に残念でした。

2019年から、最新の生成AI進歩の波のずっと前から、これが大規模に起こっている問題であるという証拠を私たちは持っていました。AIと労働について話す時、私たちが話す必要がある非常に明確なことの一つは、これらの大規模生成AIモデルを作るのに必要な労働です。

はい、それらはインターネットからのデータで訓練されていますが、人間の相互作用に基づいてポストトレーニングとも呼ばれることも行われています。そしてこれらのモデルに入る訓練データを本質的にクリーンにするために必要な多くの人間の注釈作業があります。そしてこの作業は開発途上国にオフショアされています。それはトラウマを誘発する作業です。なぜなら日々、首切りや人種差別的な長広舌などの動画を見て、それがAIの入力や出力に入らないようにしなければならないからです。

そして労働条件は非常に不安定で、これらのAI企業の多くはしばしば労働市場で多くの選択肢を持たない人々、難民や超インフレを経験している国の人々、または刑務所労働などに頼っています。だから明らかに何かが間違っており、これに対する新しい労働権が必要です。

企業を批判してきたので、すべての責任を企業に押し付けることではないと言いたいです。私たち全員が行使する必要がある多くの個人的な主体性があります。そしてAIの使用がそもそも適切かどうかを知る判断を使用する必要があります。これは機能するかどうかの問題とは別です。これの良い例は最近の選挙から来ています。

この例は私たちの本にはありません。なぜならそれはかなり最近のことだからです。しかしワイオミング州シャイアンに、市長をAIチャットボットにしたい候補者がいました。そして彼は、もし彼が選出されたら、すべての決定はこのチャットボットを使用して行われると言いました。私が知る限り、それは舞台裏では単にChatGPTでした。

しかし彼はそれをVIC、Virtual Integrated Citizenと呼びました。これは確かにより洗練されて聞こえます。私がこれを知ったのは、「The Washington Post」が私に電話をかけてきて、AIの市長を持つことのリスクは何ですかと尋ねたからです。私はその質問に非常に困惑しました。そして私は思わず口にしました。AIの市長を持つことのリスクとはどういう意味ですか。それは車を車の段ボールの切り抜きに置き換えることのリスクを尋ねるようなものです。確かに車のように見えますが、リスクはもう車がないということです。私は言うとすぐに後悔しました。

それは少し皮肉でしたが、「Post」はとにかくそれを印刷しました。私が何を意味するかを説明させてください。彼のポイントは、政治は非常に混乱していて効率的で、多くの戦いなどがあるということでした。チャットボットでそれをより効率的にしましょう、しかしそれは完全にポイントを見逃しています。

政治が混乱している理由は、それが私たちの最も深い論争を解決するために選んだフォーラムだからです。そしてそれを自動化しようとすることは、まさにそのポイントを見逃すことです。これは私が言いたい最後のことの一つです。数分で終わります。しかしこれは、任意の特定のAIアプリケーションをどのように見るべきかについて考えるために本で使用するフレームワークの種類です。

AIアプリケーションの評価フレームワーク

それは二次元の図です。一つの次元では、それがどれほどうまく機能するかがあります。それは主張通りに機能するか、過大宣伝されているか、まったく機能しないかです。そしてそれは一種のいかさま薬なのでしょうか。しかし他の次元では、AIは主張通りに機能せず、いかさま薬だから有害である可能性があるか、または実際にうまく機能し、主張通りに正確に機能するから有害である可能性があるという事実があります。

それぞれの種類のものの例をお示しします。右上から始めましょう。私はそれらのビデオインタビューについて言及しました。犯罪リスク予測について言及しました。カンニング検出は、もちろん教授が学生がAIを使用していると疑う時です。彼らはこれらのカンニング検出ツールに頼るかもしれませんが、少なくとも今日では機能しません。

そしてそれらは非英語ネイティブスピーカーにフラグを立てる可能性が高いです。そして学生が誤って告発される恐ろしい話をたくさん聞いています。今日の状況では、それは私には非常にいかさま薬のように感じられます。しかし右下では、顔認識を使用した大規模監視のようなものがあります。

歴史的に、顔認識はそれほどうまく機能していませんでしたが、今では本当に、本当にうまく機能しています。そしてそれは実際に、適切なガードレールと市民的自由などなしに使用される場合、それが有害である理由の一部です。それから私たちはコンテンツモデレーションについて話しますが、それがどのような方法で過大宣伝されているかを説明します。しかし基本的に本での私たちの関心は左下以外のすべてです。

それらは、背景に消えて本当にうまく機能するオートコンプリートのような単純なもののアプリケーションです。そして私たちの目標は、問題のあるAIに対して押し返すために人々を装備できるよう介入することです。オートコンプリートの美徳について300ページの本を読みたいとは思わないでしょう。

そして私がそれを言うのは、その左下の角が非常に重要だと思うからです。私たちが疑うよりもその角にはより多くのものがあります。そしてそれを説明するために、AIとは何かについての面白い定義をお示しします。そしてこの定義は、AIはまだ行われていないものは何でもだと言います。AIはまだ行われていないものは何でもです。

それはどういう意味でしょうか。それが意味するのは、技術が新しい時、その効果が両刃の時、うまく機能しない時、それをAIと呼ぶ可能性が高いということです。うまく機能し始めると、信頼できます。それは一種の背景に消えます。私たちはそれを当然のものと受け取ります。私たちはもうそれをAIと呼びません。

そしてこれは多くの種類の自動化、Roombaと他のロボット掃除機で何度も起こっています。私はオートコンプリート、手書き認識、音声認識について言及しました。これは私たちの多くが転写のために毎日使用していることは確実です。そしてスペルチェックでさえ一時点では最先端のAIの例でした。これが私たちが望むAIの種類です。

私たちは信頼できる、一つのことを行い、それをうまく行い、一種の背景に消える技術を望んでいます。それが私たちの批判的アプローチが業界をそれに向けて押し進めることができることを望むものです。そして私たちの予測と、AIについての私たちの楽観的な予測は、いつの日か私たちが今日AIと呼ぶものの多くが背景に消えるだろうが、確実にそのすべてではないということです。

例えば、犯罪リスクスコアリングではありません。技術をより信頼できるようにすることで消えることのない本質的な規範的問題があります。しかし自動運転車は、今日しばしば間違った理由でニュースになっていますが、事故などのために、それらは解決可能なエンジニアリング問題になるでしょう。それらを解決することにおいて既に劇的な進歩がありました。そしていつの日かこれらのものは広く使用されるでしょう。

それらは私たちの物理的インフラストラクチャの一部になるでしょう。私たちはそれらを当然のものと受け取るでしょう。そして「車」という言葉は、いつの日か単に自動運転車を意味するでしょう。そして私たちは今日車と呼ぶもののための新しい名前が必要になるでしょう。おそらく手動車か何かのように。そしてそこにはいくつかの欠点があります。

ギグワーカーなどの労働への影響について考えなければなりません。しかし最終的にそれは良いことだったでしょう。なぜなら自動車事故による死亡が年間100万件あるからです。だから、再び、それが積極的な種類のAIに対する私たちのビジョンです。

AIを良い方向に形づくるために

AIをより良い方向に形づくるために変える必要があると思うことに関して大まかに言えば、本には多くの異なる推奨事項があります。しかし私はそれらを3つの大きな領域にクラスター化します。1つは、どのアプリケーションが本質的に有害または過大宣伝されており、おそらく展開すべきでないかを知る必要があるということです。

そして第二に、AIアプリケーションを展開することが理にかなっている場合でも、しばしば非常に多くのリスクがあります。そしてそれらのためのガードレールが必要です。そして3番目のものはより構造的です。それは実際に、AIが私たちの社会で見る本質的な資本主義的不平等のいくつかを悪化させているという事実についてです。

だから企業の力をどのように制限し、AI利益を再分配するかです。私たちが数日前にリリースした論文について最後の1分間お話しさせてください。これは「AI Snake Oil」のフォローアップです。「AI Snake Oil」は今日AIで何が間違っているか、そしてそれをどのように修正するかを見ています。私たちの新しい論文は「AI as Normal Technology(正常な技術としてのAI)」と呼ばれています。

そしてそれは次の20年ほどにわたるAIのための一種のビジョンです。より長期的な見方をしています。そしてそれは今日私たちが持っている主要な物語に代わるAIについて考えるためのフレームワークを与えようとしています。今日AIについて3つの主要な物語があります。1つ目は、それはユートピアをもたらす超知能だということです。2つ目は密接に関連しています。

それは超知能ですが、私たちに利益をもたらすのではなく、私たちを破滅させるでしょう。そして3つ目は、私たちはAIについて非常に懐疑的であるべきだということです。それは単なる流行です。とても過大宣伝されています。それはすぐに過ぎ去るでしょう。そして「AI Snake Oil」での私たちのアプローチは中間的立場です。これらの物語の一つに当てはまりません。

しかしこれら3つの物語は非常に説得力があるので、私たちはしばしばAIはすぐに過ぎ去る流行だと言っているように思われています。それは私たちが言っていることではありませんが、特に新しい論文では、私たちはそれを非常に具体的にしています。私たちはAIについて考える4番目の代替的な方法を与えています。そしてこれは産業革命、電気、インターネットのような過去の技術革命から私たちが知っていることに密接にモデル化されています。

私たちはAIが変革的効果を持つと思います。しかし私たちは、突然ではなく、何十年もの期間にわたってそれらが展開されると思います。良い効果と悪い効果の両方を持つでしょう。私たちは超知能と破滅的リスクの多くが大いに誇張されていると思います。私たちは、それらが出てきた場合にそれらのリスクのいくつかに対処する方法を知るために、私たちは既に良い場所にいると思います。そしてこのすべてに基づいて、私たちはAIをより積極的な方向に導き、形づくるためのいくつかの政策アイデアを持っています。

ここで止めて、対話を本当に楽しみにしています。ありがとうございました。

質疑応答セッション

ダロン・アセモグル:このようにやりましょう。

アーヴィンド・ナラヤナン:これらは豪華な椅子ですね。

ダロン・アセモグル:ええ、それらから落ちない限りは。素晴らしい、アーヴィンド。本の非常に簡潔だが非常に効果的な要約をありがとうございます。予測AIの部分から始めたいと思います。

本でそれは私が非常に興味深く、非常に啓示的だと思った項目の一つでした。しかし私は少し深く掘り下げて、予測AIについてのより基本的な懸念がどこから来ているのかを理解したいと思います。そして経済学者として、おそらく一人決定問題または一人相互作用問題と、相互作用がある社会問題を区別することから始めることができるかもしれません。

例えば、ランナーがいつより多くの液体が必要になるか、またはランニングを十分にしたかなどを決定するためのAIツールを構築する場合です。それは一種の予測ツールですが、この社会的相互作用の側面はありません。それはまだ人間の主体性を持っています。だから人間の主体性は私たちが何かを予測することは決してできないことを意味すると言うかもしれません。

しかし私は、あなたがそこに行きたいかどうかわかりません。それとも、私が行うことが他の人が行うことに依存するこれらのゲーム理論的状況でのことでしょうか。私たちが理解していないこれらの複雑な相互作用があります。そして後者である場合、例えば、より複雑なものをより小さな部分に切り分けて進歩を遂げる方法はあるでしょうか。例えば、私はセンディルがここにいるのを見ませんが。

しかしセンディルの保釈に関する非常に興味深い仕事、それは社会問題です。しかし適切なガードレールがあれば、裁判官の決定問題に削減できるでしょうか。私の推測では、それは簡単ではないでしょうが、おそらく可能でしょう。

アーヴィンド・ナラヤナン:ええ、ありがとう。それは素晴らしい質問です。そして、はい、センディルと他の人々は、保釈やその他のためにいわゆる予測AIを使用する方法についての彼らのビジョンを提示する「Prediction Policy Problems」という素晴らしい論文を持っています。

そして私が言及していた私たちの仕事は、私たちが書いた論文に基づいています。この特定の質問に関する主要なものは「Against Predictive Optimization」と呼ばれ、予測政策問題論文への反論として意図されています。

そしてあなたのポイント、ランナーがいつ液体が必要になるかなどを予測するためにAIを使用していた場合、確かにこれらの懸念をまったく提起しません。はい、それはその社会的性質についてのことです。具体的には、権力を持つ実体が個人に対してその権力を行使しているという事実についてです。そしてそこで私たちは精度や経済効率などの懸念を超えて、哲学的観点から、この権力の行使はいつ正当化されるかを尋ねる必要があると思います。

私たちの論文では、実際に哲学者と少し関わりました。そして私たちはその文献を読み、それをこれらのより具体的なAI問題と結びつけようとしました。だから私たちは精度が非常に悪いと言う一方で、コインの投げに少し勝る程度の時にどのようにこれを行うことができるでしょうか。精度がはるかに良かったとしても、基本的な規範的レベルで、私たちは再び詳細に入りたくありません、論文で話す理由で、関係が誰かに対して権力を行使することである時、考慮に入る必要があるより多くの考慮事項があると思います。

ダロン・アセモグル:私はそれが非常に重要なポイントだと思います。これらのものの多くが、技術は決して中立ではないという声明、それは民間伝承の一部のようなものではありません。しかしそれは中立ではありません。新しい技術は実際に権力バランスを変えます、特に大企業とともに、それは私の2番目の質問、生成AIへの良いセグエだと思います。

生成AIの議論も非常に興味深いと思いました。だから私の見解に近いと思う一つの見方は、生成AIの非常にエキサイティングな能力がたくさんありますが、それほど多くのアプリケーションがないということです。

アーヴィンド・ナラヤナン:うんうん。

ダロン・アセモグル:そして私は、プログラミングサブルーチンなどのような非常に少数の領域を除いて、実際に生産構造を変える可能性のあるアプリケーションをほとんど見ません。

私はそれがあなたがそれを置いた方法とまったく同じではないと思いますが、それも似ていると思います。だからそれに対する基本的な理由があるのでしょうか、それともこれは単に過渡的な段階なのでしょうか。

アーヴィンド・ナラヤナン:ええ。だから私は現在の状況がそうであることに完全に同意します。私たちが少し意見を異にするかもしれないのは、私はそれが基本的なものかどうかそれほど確信していないということです。私はそれが将来変わる可能性があると思いますし、今すでに変わっています。

そして私が何を意味するかを説明させてください。そしてこれは「AI as Normal Technology」論文で取り上げる大きな部分です。ChatGPTが出た時、それがプロンプトを変えるだけで異なるタスクを実行させることができるほど汎用的だったという事実は、多くのユーザーだけでなく、AI業界の多くの開発者と話すことから、企業自体も誤解させたと思います。これがソフトウェア開発の新しいパラダイムであり、これが特定のことをするためのソフトウェアを構築する必要性を無効にしたと思うようになりました。法的分野でのソフトウェア、またはライティングを助けるためのソフトウェア、またはそれが何であれです。

それからあなたはこれらの汎用モデルを使用することができます。そして今後、必要なすべてはプロンプティングになるでしょう。そしてそのアプローチが1年か2年試され、悲惨に失敗しました。そして私たちはニュースレターで分析します。例えば、私たちは「AI Snake Oil」ニュースレターを持っており、そこで本の基本的なアプローチを使用して、大規模言語モデルの周りの単純なラッパーであり、単にテキストを吐き出すのではなく、実際に現実世界で有用なことをさせようとした多くの製品が、なぜかなりひどい失敗だったかを分析しています。

だからRabbitと呼ばれるデバイスがありました。皆さんはこれを覚えていますか。そしてマーカス・ブラウンリーのレビューがあり、彼がこれまでレビューした中で最悪のものだと言いました。そしてそれについて少しスキャンダルがあったなどです。だからそれはあなたが指摘したことの正確な例です。能力はそこにあります。

これらの大規模言語モデルベースのエージェントは、ウェブサイトをナビゲートする、あなたのためにショッピングをするなど、非常に興味深いことをする能力があります。しかしそれは、彼らがその周りに製品を開発し、信頼性率を現在の80%のようなところから、任意のソフトウェア製品に期待する99.99%まで上げていないからです。これらはほぼ到着時に死んでいます。人々は間違った住所に製品を注文したと苦情を言っています。

そのようなことをした製品を2回目に使用するでしょうか。だからそれは企業がそれらの能力を製品に翻訳することにおいてボールを落とした例です。彼らは今アプローチを変えています。私たちが今後数年で製品のキノコ的成長を見る非常に良いチャンスがあると思います。

ダロン・アセモグル:私は確実にそれが基本的だったと言うつもりはありませんでした。しかし私は非常に素早く消えるとも確信していません。私が言ったものとは異なる一つの理由があると思います。それをあなたに試してみましょう。すべての仕事は非常に複雑なタスクの束です。

アーヴィンド・ナラヤナン:うんうん。

ダロン・アセモグル:そして私たちが過去に自動化を行った方法は、特定のタスクを分離できるよう注意深いまたは半注意深い分業を行ったことです。他の補完的なタスクは人間によって実行されるか、組織を変更することができます。それは職業、業界の多くの特定の知識、多くの暗黙の知識を必要とします。

そして私は、主要なAI企業のアプローチが、私たちはAGIまたはAGIに非常に近いところに行くつもりだったということだと思います。すべてができます。だから私たちはこの暗黙の知識のいずれも必要ありません。だから私たちはこれらの基礎モデルを投げるつもりで、それらがそれを行うでしょう。そして私は、基礎モデルでの非常に速い進歩があっても、基礎モデルが監査人でさえ行うすべてを行うことができるようになるとは思いません。

そして教育者や健康専門家に行く時、私はそれが非常にありそうもないと思います。だからあなたは本当にこの暗黙の、非常に特定のドメイン知識が必要です。だから私はその道がまだ続いているのを見ません。

アーヴィンド・ナラヤナン:100%同意します。私はこれがAI開発者が本当に自分自身を騙した別の領域だと思います。

これらのモデルをスケールアップすることによって、そしてインターネットのより大きくより大きな塊でそれらを訓練することによって、過去数年の急速なAI進歩からの誤解を招く直感があったと思います。より多くの創発的能力がありました。そのアプローチは尽きており、彼らが手に入れることができるすべてのデータで既に訓練しているからだけでなく、これらのモデルが学ぶために残されている新しいことは、まさに暗黙の知識のようなものだからでもあります。

暗黙の知識を学ぶ方法がありますが、それはモデルが現在訓練されている受動的な方法ではありません。それは実際に、汎用的な方法ではなく、セクターごとのベースで、異なるドメインの小さな設定でモデルまたはAIシステム、比較的信頼できないAIシステムでさえも展開し、実際のユーザーと実際のドメインエキスパートとのそれらの相互作用から学ぶことによってです。これは、例えば自動運転車で私たちが持った種類の積極的なフィードバックループです。

自動運転の最初の成功したデモンストレーションから、現在道路で人々を自律的に輸送することができる場所にそれらを持ってくるまでに約20年かかった理由は、ゆっくりとスケールアップしなければならないからです。1,000マイル運転し、それからデータを収集します。それはあなたの信頼性を改善することを可能にします。今それは10,000マイル運転するのに十分信頼できるようになり、それから100,000に行くなどです。

それは非常に遅いプロセスです。私たちは今後セクターごとのベースでその種の遅いフィードバックループを見ると予測します。

ダロン・アセモグル:わかりました。私は次の質問のセグエだと思います。それは私たちが尋ねるかどうかわからなかったのですが、あなたは本でAGIから賢明に多く離れているからです。

ここに多くの人々が心に持っている議論があります。これはAGIのようなものをデフォルトポジションにします。最終的に、人間の心はコンピューターです。それが使用する基板が何であれ、それはある種のコンピューティングマシンです。まあ、私たちはより良いより良いコンピューティングマシンを構築するでしょう。だからそれゆえに私たちはAGIに行くでしょう。

だから私はこれが一種の餌と切り替えだと思います。それから、まあ、お金を見せてと言う誰でも、防御的な立場に置くことになります。しかし私たちがその防御的な立場にいた場合、私たちはそのシナリオに同意しないか、またはまあ、あなたが考慮に入れていないボトルネックがここにあると言わなければならないでしょう。

そして私は、あなたがその立場に置かれることを完全に避けるか、または前提やボトルネックについて言うことがあるかどうかを知りたいです。

アーヴィンド・ナラヤナン:ええ。いいえ、私はそれについて話すことを喜んでします。これらは確実に、少なくとも技術コミュニティ内では、私たちのより論争的な見解のいくつかです。

ダロン・アセモグル:ここではありません。

アーヴィンド・ナラヤナン:ええ。だからこれに対して2つのことを言わせてください。1つ、これは70年以上にわたってAIの歴史を通じて一貫して予測されてきました。彼らが最初に汎用コンピューターと呼ばれるものを作った時、私たちは今それらを単にコンピューターと呼んでいますが、当時それらは汎用コンピューターと呼ばれていました。なぜなら各特定のタスクのための特別目的ハードウェアを構築するのとは対照的に、適切にプログラムすることによって任意のタスクを行うために一つのハードウェアを構築できるという非常に新しい概念だったからです。その周りの興奮は、今日の汎用生成AIモデル周りの興奮とまったく同様でした。

彼らは困難な部分を行ったと思いました。ハードウェア、それは名前の中にありますね。そして今私たちは人間の心を模倣するためのソフトウェアを構築するだけです。そして彼らはそれがわずか数年先だと思いました。先駆的な1956年ダートマス会議は、AGI、当時は単にAIと呼ばれていましたが、に向けて非常に実質的な進歩をするための、引用の「2ヶ月、10人の努力」を提案しました。

だから何度も、人間の心が行うすべてのことをソフトウェアが行うことが原理的に可能かもしれない一方で、AI開発者は物事が現在どこにあるか、そして私たちがいる必要がある場所の間のギャップがどれほどあるかを知ることにおいてとても外れてきました。それが一つのことです。2番目のこと、私たちの時間が不足していることを知っています。

だからとても素早く言わせてください。本の第5章でこれについて話します。私たちの見解では、人間の知性は主に私たちの生物学の結果ではなく、むしろ私たちの技術の結果です。私たちが世界についてより多くを学ぶために何十年、何世紀もの間私たちの技術を使ってきたという事実です。私たちが持っている最も大切な知識、私たちが知性と最も関連付けることを行うことを可能にする知識、それが医療検査であろうと経済政策であろうと、これらは私たちが人々に大規模な実験を行うことによって学んだものです。

だから私たちは、これらの計算限界がすぐに重要でなくなると予測します。しかしAGIを押し戻すものは、人間が実際に既に学んだことからこの知識を学ぶことを簡単に超越し、自分自身のために新しい知識を創造することができないことになるでしょう。なぜならそれは実験、スケーリング、倫理などで私たち自身が直面したのと同じ種類のボトルネックを必要とするからです。そして私たちは、AIに何の監督もなしに私たちの何百万人もに実験をさせるつもりはありません。

そしてそれは非常に、非常に強いスピード制限をかけるでしょう。

ダロン・アセモグル:素晴らしい。それは優秀なポイントです。私は時間がなくなっていると思います。だから私は、実際に私たちのイニシアチブにはるかに近いトピックにそれを持ち込みたいと思います。それは私たちが正しい種類のAIを行っているかどうかについての私たちの懸念です。

だから私は、デイヴィッド、サイモン、そして私、私たち3人全員がこれらのアイデアを持っていると思います。いくつかは直感に基づいて、いくつかは経験的事実に基づいて、いくつかは歴史に基づいて、AIを開発できるより生産的な方法があります。特に私たちがプロワーカーAIと呼ぶもの、それは労働者のスキル、専門知識、生産性を高めることを目的とし、より洗練されたタスクを行うための新しいタスクや能力を創造します。

そして私たちは現在の道でそこに実際に到達するかどうか心配しています。そして私は、人々が機能しそうもないAI、または機能しても、それはそれほど素晴らしくないであろうAIに銀行をかけている、または少なくともそれをふりをしている様々な間違いを非常にうまくカタログ化したと思います。AI誇大宣伝、おそらくそれはAI過剰投資につながっています。

おそらくそれは間違った種類のAI投資につながっています。しかし私は、少なくとも私はそれを見なかった、または私がそれを見逃したかもしれませんが、本でその次のステップは、したがって間違った種類のイノベーション、努力、R&Dなどが行われているということです。

間違った種類のスタートアップエネルギーが来ており、私たちがもちろんこのような本や対話で公衆を知らせ、政策立案者を知らせる以外に、それについて何かできるかどうかです。しかし、私たちとさらに仲間の旅行者にするようなその種のより多くのアジェンダがありますか。

アーヴィンド・ナラヤナン:私は少しあると思います。そして私はそれがまさに重要な問題だと思います、そしてあなた方全員がそれを調べていることをとても嬉しく思います。

そして私はそれがおそらくコンピューター科学者よりも経済学者を必要とすると思います。しかし私がコンピューター科学の観点から言えることは、企業が行っていることを見ると、まさに今市場がそれを報酬していないということです。だからこれが果たされる例は学生によるAIの使用です。私たちは労働について話していることを知っていますが、私はそれが多少似ていると思います。

だから生成AIの最初の使用は主にカンニングまたはそれらを使用する最良の方法ではないかもしれない他のものでした。私たちは使用する良い方法があることを知っています。私たちは、適切に設定されれば、幻覚などの限界にもかかわらず、AIが非常に良い家庭教師になり得ることを知っています。私は学習のためにAIを非常に多く使用します。私は本を使うことをやめていませんが、AIを使用することの利点がいくつかあります。質疑応答でそれに入ることを嬉しく思います。

しかし、おそらく数週間前または1ヶ月前に、AnthropicがAIチューターを思いついたのは注目に値します。これは学生に答えを出すだけでなく、彼らの批判的思考を促進するチューターモードにあるための彼らのモデルの単純なカスタマイゼーションです。

そして私には、それが彼らにとってとても少ない仕事を要したが、人々が絶えず苦情を言ってからそれを行うまでに2年半またはそれが何であれかかったことが印象的です。そしてそう、私たちは多くの技術的アイデアを提供することができます。しかし最終的には、規制を通じて企業のインセンティブを変更するか、または企業に任せるのではなく、公共の利益を念頭に置いてこれらのAIアプリケーションを開発するNGOのような他の組織にはるかに多くの投資を持つ必要があります。

ダロン・アセモグル:ありがとうございます、アーヴィンド。私はそれが私たちが移行する素晴らしい時間だと思います。多くの人があなたに対して燃えるような質問を持っていることは確実だからです。私たちがこれを整理する方法は、向こうに2つのマイクがあることです。質問をしたい人たちは、並んでいただければ、それから交互に各側から1つずつ取ることができます。

右側から始めましょうか。

聴衆:ありがとうございます。素晴らしい講演でした。1年以上AIを使用している一般ユーザーとしての簡単な質問ですが、私の質問は、AIが答えを与える際に生成するエラーをどれくらい許容できるかということです。例えば、最近私は有名人からの引用について質問しようとしました。

そして答えを得ました。そしてそれを私のブログに投稿し、恥ずかしい思いをしました。なぜなら教授に尋ねたところ、彼は私はそのような発言をしたことはないと言ったからです。だからAIはその人物xがこのようなことを言ったと創造または想像しました。私はAIが多くの便利さ、パターン認識、そして非常に便利さを与えると言うでしょう。

しかし私は10%以上が正しい答えと混じったエラーを与えると言うでしょう。

アーヴィンド・ナラヤナン:ありがとう。はい、幻覚は生成AIの大きな問題です。これらは基本的に確率的技術です。すべての訓練データをクリーンにして、真の発言でのみ訓練することができたとしても、問題は残るでしょう。なぜなら生成時にそれは訓練データの統計的パターンを一種の再ミックスしているからです。

幻覚率は過去数年でかなり下がりましたが、ゼロではありません。私は非常に短期間でゼロに達するとは思いません。そして私も人々が私の論文について尋ねるために私にメールする経験を持っています。そして彼らは、ねえ、それはどこにありますか。オンラインで見つけることができませんでした、のようです。AIによって作り上げられ、私に帰属されたことがわかりました。

だから私たちが人々を訓練することは、あなたの仕事で一般的にAIを使用することについて考えるだけでなく、あなたのワークフローの特定の領域を特定することです。そしてそれらのAIの使用のそれぞれで、なぜこの質問への答えを検証することが、この仕事を最初に自分でやったよりも簡単なのかへの答えを持たなければなりません。そしてそれへの答えがない場合は、AIを使用しないでください。そして答えがある場合、それはケースに応じて時間を節約したり、創造性を高めたりするかもしれません。

聴衆:ありがとうございます。

聴衆:ありがとうございます。教授、私はアルゴリズムの公正性、または偏見のこのトピックを再び持ち込みたかったのです。6ヶ月または1年前、サム・アルトマンが来ました。そして誰かがアルゴリズムの偏見について尋ねた時、例えば刑事司法システムで、彼は人間からの偏見よりもアルゴリズムを変更する方が簡単だと言いました。そして私は、わかった、多分説得力があると言いました。正直に言って、私には、わかった、理解できると思えました。

それについてどう思いますか。可能だと思いますか。より良いと思いますか。偏見が何かを設定するのは誰ですか。ええ。

アーヴィンド・ナラヤナン:ええ。ありがとう。それは良い議論です。センディルもその主張をしています。彼は「The New York Times」に、偏見のあるアルゴリズムよりも偏見のある人間を修正する方が簡単だと文字通り言うオピニオン記事を持っていました。そして私はその観点を非常によく見ています。

私は少し異なる見解を持っています。私は理論的には、アルゴリズムの特定の種類の偏見を修正することは確実に可能だと思います。それはコードのパラメータを変更するだけの問題かもしれません。そしてそれを行うための多くのコンピューター科学技術があります。問題は技術的ではありません。問題はインセンティブ、透明性、そしてそのようなもののものです。

多くの場合、これらの刑事司法アルゴリズムを構築している企業からの透明性がありません。彼らは所有権だ、それは企業秘密だと言うかもしれません。だからCompassのケースでは、その調査から約10年経ったにもかかわらず、変更は行われていません。なぜならそれを修正するには、実際に異なる取り扱いを導入せずにはできないからです。

アルゴリズムでそれを修正しようとすると、異なる人々のカテゴリーに対して異なる重みや異なる取り扱い、異なる閾値を持たなければなりません。そしてそれは実際に法律に違反するでしょう。そしてこれらは人間の裁判官が彼らの決定を行う時に非常に微妙な方法で考慮するものです。しかし私たちがアルゴリズムシステムでそれらを行おうとする時、理論的に可能であっても、様々な制約のために実際には可能ではない非常に粗雑な方法でそれらを行わなければなりません。

聴衆:ありがとうございます。

聴衆:こんにちは。本と対話をありがとうございます。だから私が尋ねたかった質問、本と講演では、多くの予測AIアプリケーションが機能しそうもなく、生成AIには希望があるという一般的な声明があります。

そして私は基本的に、あなたの観点から、それは主に基盤となる技術についての声明なのか、それともそれらの技術が採用されている設定についての声明なのかを尋ねたいです。私がそれを尋ねる理由は、特定のものがあるからです。私は気候変動関連のアプリケーションのためのAIに取り組んでいます。太陽光発電予測のような特定の設定があり、そこで予測モデルまたは生成モデルを使用できます。

そして大きな技術プロバイダーの一部から特定の潮流もあり、そこで私たちは生成AIと大規模モデルに投資すべきだという声明があります。なぜならそれは気候問題を解決するからです。そしてそれは、すべてのエネルギー消費とそれに伴う権力の集中とともに、他の技術よりもそれらの種類の潮流への生成AIへの投資につながります。そして生成AIが予測AIよりも優れているという声明は、それらの種類の潮流につながる可能性があります。

技術または設定についての声明に戻ります。

アーヴィンド・ナラヤナン:ええ。ありがとう。それは素晴らしい質問で、それはまさに後者です。それは設定についての声明です。それは私たちがこれらの技術を使用している特定のアプリケーションについてです。生成AIモデルを取って刑事司法で使用したとしても、まったく同じ私たちの異議のリストが適用されるでしょう。

そして人々について重大な倫理的結果を持つ重要な決定を下していないので、それらは太陽光発電予測設定では適用されません。だから、ええ、私はその質問でどこから来ているかと完全に一緒です。

聴衆:ありがとう。

ダロン・アセモグル:お願いします。

聴衆:あなたは分野の人々からAIが特定のレベルに達するまでの時間についての予測が恐ろしい実績を持っているということを言いました。

すべての悪い予測がすべてのプレスを得るので、それはサンプルバイアスだと私に提案させてください。誰かがかつてジョン・マッカーシーに本当に良い人工知能を得るために何が必要かを尋ねたという事実を聞くことは決してありません。そして彼はその質問に腹を立てたので、多少気まぐれな答えを与えました。しかし彼は「1.3のアインシュタイン」と言い、そしてそこから続けました。

それは広く引用されていません。なぜならそれは大きな笑いにできる種類のものではないからです。だからそれについてあなたに注意をさせてください。

アーヴィンド・ナラヤナン:ありがとう。私はそれを評価します。私が今言った時、その点でやや表面的なプレゼンテーションを持っていたことを明確にすべきです。

しかしその背後により深いポイントがあります。それは創設者が間違っていたということではなく、彼らは根本的な構造的理由で間違っていたということです。私は彼らを責めているのではありませんが、彼らは梯子のステップが何かを見ることができませんでした。私たちは本でAIの進歩を議論するために梯子のメタファーを使用しています。あなたが梯子の一つのステップに立っている時、私たちは梯子の将来のステップが何かを知ることは不可能だと主張します。

だからそれは本当にその深いポイントについてですが、ありがとう。私は修正を評価します。

聴衆:そしてもう一つの素早いポイント。あなたは予測プログラムとそれらのAUCが約70%だったので、コインを投げるよりはるかに良くなかったというアイデアから安い笑いを得ました。あなたはベースラインについて尋ねなければなりません。

このタスクを行っている人々はどれほど良かったですか。なぜならこのタスクを行っている人々が55%にいる場合、70%はかなり良いからです。

アーヴィンド・ナラヤナン:ええ。

わかりました。だから人々はアルゴリズムとまったく同じレベルにいて、訓練された裁判官でさえありませんでした。ただの一般人でした。それだけでなく。最先端のアルゴリズムで達成できることは何でも、2変数回帰モデルで得ることができます。そしてそれらの2つの変数は被告の年齢と以前の逮捕回数です。そして私たちは年齢の使用が実際に道徳的に問題があることについて話します。

だから本質的に、これらのシステムの背後にある論理は、もしあなたが過去に多く逮捕されたなら、将来多く逮捕されるということです。それが全体です。そして私たちは実際に、何が実際に起こっているかが特に被告にとって皆に明らかになるように、それがハードコーディングされた論理だったシステムではるかに幸せだと言います。だから私は正しいベースラインを見なければならないことにあなたと一緒です。しかしここでは適切なベースラインを見る40ページの論文があります。

そしてそれはアルゴリズムにとって良く見えません。おそらく別の質問に行きます。

ダロン・アセモグル:私たちは3分未満しか残っていません。だからこの時点で非常に短い質問をお願いします。

聴衆:異なる種類の技術にわたる投資をどのように調整するかについて質問がありました。だから非常に小さな確率で大きなリターンを引き起こす一つのタイプの技術と、機能する可能性が高いが世界を変えることはない何かを持っているかもしれません。

だからこれらの異なる技術の間でどのように投資を配分することについて考えますか。

アーヴィンド・ナラヤナン:ええ、確実に。だからこれは私たちがAIコミュニティでの群れと呼ぶ問題に関連します。そしてすべての研究コミュニティで、流行のアイデアがあります。人々はそれらの周りにクラスターします。フィールド間でそれらを比較するのは困難です。

しかし単なる雰囲気に基づいて、AI コミュニティでは他のほとんどの研究コミュニティよりもこれがより多く起こっているようです。だから今日、これらの派手な生成AIシステムはすべてニューラルネットワークに基づいており、それらは20年以上脇に置かれていました。なぜなら人々は、今日の文脈では人々が笑うであろうサポートベクターマシンと呼ばれる別の技術によって完全に上回られていると思ったからです。だからなぜそれが起こったのでしょうか。異なる道の十分多様な探索がありませんでした。

だから投資収益率を計算するのは困難かもしれませんが、より多くのリスク選好があり、投資する研究アイデアのセットを多様化する必要があることは明らかに見えます。

ダロン・アセモグル:お願いします。

聴衆:ええ。

1980年代以来、私は生産性と賃金の間の絶えず増加するギャップを見てきたと思います。私は賃金の停滞が基本的におそらく多くの要因によるものだが、コンピューテーションが多くの仕事を置き換え、抽象化することを含む多くの議論があると思います。AIのようなものが労働者の生産性にどのように影響し、それが賃金にもどのように影響するかについて、どのように見ますか。そしてそれをどのように修正できますか。

アーヴィンド・ナラヤナン:それはあなたのための質問だと思います。

ダロン・アセモグル:しかし彼らは私から聞きたくありません。

私たちはあなたから聞きたいです。

アーヴィンド・ナラヤナン:いいえ、いいえ、いいえ、いいえ。お願いします。私はあなたから聞きたいです。

ダロン・アセモグル:まあ、これが私たちが行っていたことです。私たちは起こるであろうし、起こるべき仕事の自動化だけでなく、労働者がより複雑なものを扱うための情報と能力を増加させるAIユーザーを見つけることに私たちの覚醒時間の良いチャンクを費やしています。しかしそこに到達する方法が真の挑戦です。

最後の質問を一つ。

聴衆:ああ、ええ。ありがとうございます。私は最近公衆でAIに対する多くの恐れと反発があると思うと言いたかっただけです。そして私はそれに何が貢献している可能性があるかについてのあなたの考えと、技術研究または技術産業の人々がそれらの恐れにどのように対処できるかを知りたかったです。

アーヴィンド・ナラヤナン:確実に。これについて多くの考えがありますが、時間がなくなっていることを知っているので、短く保ちます。そして、はい、あなたは絶対に正しいです。

世論調査によると、AIが彼らにとって何を意味するかを心配している人の方が、それについて興奮している人よりもはるかに多いです。そして私はこれがAIについてよりも資本主義についての声明にほぼ完全になっていると思います。それは人々が期待するようになった労働者保護の種類に基づいて、国々の間で大きく異なります。

それは彼らのこれらの興奮する/心配な技術開発への反応を劇的に緩和します。そしてそれについて何ができるかという点で、私はAI業界と研究コミュニティと一般公衆との間のコミュニケーションのチャンネルを改善する多くの余地があると思います。

私たちは多くの点で、一般の人々、異なるドメインの労働者が、法律、医学、またはそれが何であれのような彼らの特定のアプリケーションにおけるAIの潜在能力の限界について、AI開発者よりもはるかに良い理解を持っているということを話しました。だからAI開発者はそれを理解し、これらの過大宣伝された主張をしないことから多くの利益を得るでしょう。

しかし同時に、私は人々が企業がこれらの兆ドルの賭けをするのに十分な自信を持っている理由を理解し、新しい創発的能力を理解するに値すると思います。それは率直に言って、上にいるためのほぼフルタイムの仕事のように感じます。私は企業が能力を誇大宣伝するだけとは対照的に、実際の公衆の理解を促進するために多くのことができると思います。だからコミュニケーションは両方向で改善できると思います。

聴衆:ありがとうございました。

ダロン・アセモグル:アーヴィンド、ありがとうございました。それは素晴らしかったです。私は人々がどれほど興味を持っているかの証拠だと付け加えるつもりです。彼らはここでもう30分間いることができたでしょうが、ありがとう。

コメント

タイトルとURLをコピーしました