人工知能に対する人類の大きな賭け:ゲイリー・マーカスとの対話

AGIに仕事を奪われたい
この記事は約33分で読めます。

19,447 文字

Humanity's Big Bet on Artificial Intelligence: A Conversation With Gary Marcus
It might appear that many political and government leaders have come to regard AI as a kind of panacea, right at the mom...

おはようございます。私はジャスティン・ヘンドリックス、テック・ポリシー・プレスの編集者です。テック・ポリシー・プレスは、テクノロジーと民主主義の交差点における新しいアイデア、議論、討論を喚起することを目的とした非営利のメディアおよびコミュニティ事業です。
多くの人々、専門家を含めて、人工知能について話すとき、彼らが選ぶ言葉には、しばしばかなり大きな約束が込められています。
元Google CEOのエリック・シュミットと元国防副長官のボブ・ワークが議長を務めた昨年の人工知能に関する国家安全保障委員会の報告書の冒頭の手紙を考えてみてください。彼らはこう書いています。「AIは刺激的な技術です。それは何世代にもわたって人類に恩恵をもたらす最も強力なツールになるでしょう。
科学者たちはすでに、AIを活用して生物学、医学から天体物理学に至るまでの分野で驚くべき進歩を遂げています。これらの進歩は科学実験ではありません。それらは生活を改善し、自然界の謎を解き明かしています。それらは『画期的』というレッテルが陳腐ではない種類の発見なのです。」
世界が最も必要としている瞬間に、多くの政治家や政府指導者がAIを一種の万能薬とみなすようになったように見えるかもしれません。第6回気候変動に関する政府間パネルの報告書の第3回目の最終版は今週月曜日に発表されました。国連事務総長のアントニオ・グテーレス氏は、その報告書を「破られた約束のリタニー(連祷)であり、住めない世界へと確実に向かう空虚な誓いを記録した恥の記録」と呼びました。
一部の指導者たちは、何とかしてAIが私たちのこの危機から抜け出す道を最適化するのを助けてくれるだろうと賭けているように見えます。しかし、その賭けが間違っていたらどうでしょうか?そして、私たちが今日AIの中で行っている賭け、例えばディープラーニングに対する賭けが、そのハイプ(誇大宣伝)が示唆するほど実り多いものではないとわかったらどうでしょうか?
これらの問題についてもっと知るために、私は認知科学者であり起業家であり作家であるゲイリー・マーカスと話しました。彼は5冊の本を書いており、その中には2019年の『Rebooting AI: Building Artificial Intelligence We Can Trust』(信頼できる人工知能を構築する:AIの再起動)があります。これはForbesが「AIで読むべき7冊の必読書の一つ」と評した本です。彼はUberに売却された機械学習会社Geometric Intelligenceを設立しました。
先月、ゲイリーはNautilus誌に「ディープラーニングは壁にぶつかっている。人工知能が真の進歩を遂げるには何が必要か」というタイトルの記事を書きました。その中で彼はこう書いています。「汎用人工知能は非常に大きな責任を担うことになるため、ステンレス鋼のように、その構成部分のどれよりも強く、より信頼性が高く、扱いやすいものでなければなりません。単一のAIアプローチだけでは決して十分ではありません。多様なアプローチを組み合わせる技術を習得しなければ、私たちには何の希望もありません。」
私はゲイリーと、AIの研究者たちが賭けを置いている場所に対する彼の批判が、エリートたちが人工知能の約束に対して行っているより大きな賭けとどのように繋がっているのかについて話しました。
ゲイリー、あなたの最近の人工知能の状態に関する著作を読むと、あなたは懸念を抱いています。何があなたの懸念を駆り立てているのですか?何があなたを不安にさせているのですか?
正直に言って、多くのことが私を不安にさせていますが、一般的に世界の状態について非常に心配しています。もし運が良ければ、その一部を少しだけ助けることができるでしょう。いくつかの異なる理由でAIについて懸念しています。一つは、一般の人々や政策立案者がAIについて非常に広範な切り口を持っていると思います。彼らはそれを一種の魔法のように扱いますが、それは魔法ではなく、それが魔法でないということが重要です。
人々は特定のAI技術が何をするかという抽象的な文脈で、「AIの倫理」のようなことについて話すだけです。私が人々に理解してほしいことの一つは、AIは実際にはツールの集合であるということです。それは一つのツールではなく、多くのツールがあります。そしてそれらのツールにはそれぞれ長所と短所があります。
統計学について本当に詳しい人に話すと、最初に言われることは、特定の場所で統計を使用できるかどうかは、データが正規分布しているなど、特定の前提条件を満たしているかどうかによるということです。そしてもしそうでなければ、特定の統計手法はその仕事に不適切な道具かもしれません。
私たちは現在非常に強力なAIツールを持っていますが、それらのツールには制限があります。それらは万能溶剤ではありませんが、しばしば万能溶剤であるかのように扱われています。そしてそれは政策を考える際に問題となります。
一つには、今日のツールは明日のツールではありません。私たちは今できることと将来できることについて考える必要があります。そして、異なるツールには異なる適切な機能があります。
推薦エンジンで現在使用しているAIについてはあまり心配する必要はありません。少し心配する必要はありますが、もしAmazonがあなたに私の本の一冊を買ったからという理由で別の本を勧め、その二冊目の本が気に入らなかったとしても、まあ20ドル損しただけで、大したことではありません。
しかし、放射線学システムが画像の読み取りには優れているが、スライドの汚れに対応するのが得意ではなく、あなたのスライドに汚れがある場合、それは本当に悪いことであり、深刻な結果をもたらす可能性があります。
AIによって下される決断の結果や、どのような状況で良いか悪いかについて考える必要があります。
もう一つの例は自動運転車です。人々は2012年頃、それがすぐそこまで来ているかのように扱っていました。セルゲイ・ブリンは5年以内に実現すると言いました。自動運転車についてはたくさんの話題がありましたが、自動運転車のプロトタイプを作るのは簡単ですが、あらゆる状況で信頼性のある自動運転車を作るのは非常に難しいことがわかりました。
自動運転車を一種の一般的な技術と考えると、「素晴らしい、それはクールだ。私は運転する必要がなく、テキストメッセージを送ったり、後部座席の子供たちと話したりすることができる」と思うでしょう。それは本当に素晴らしく聞こえます。しかし現実は、それは市街地よりも高速道路の方が良く、雨や雪や霧の中よりも日光の下の方が良いということです。そして文脈的な制限の広い範囲があります。
それは見慣れたものとの方が良く、見慣れないものとの相性はそれほど良くないことがわかります。例えば、先日あるテスラ車は人が操作していましたが、自律型のテスラが放っておかれたら、道路の真ん中で一時停止の標識を持っている人間にぶつかるところでした。
それは悪いことです。それが起こるであろう理由は、人間の写真と停止標識の写真でトレーニングされていても、停止標識を持っている人間の写真ではトレーニングされていなかったからです。それはトレーニングセットには含まれていませんでした。そして現在のAIはナイーブであるため、これらの個々のものについての知識を組み合わせることができませんでした。車の仕組みや人の仕組み、停止標識の仕組みについて概念的な理解を持っていないのです。
それは珍しい状況で非常に信頼性がなく、実際今日私たちが構築する方法を知っているほとんどのAIについても同様です。政策立案者がこの根本的な信頼性の欠如を理解し、それがシステムがトレーニングされているものと世界へどのように拡張されるかの間の断絶から来ていることを理解することは非常に重要です。
優れた人間のドライバーは、世界がどのように機能するかについての知識に基づいて、以前に見たことのない状況について考えることができます。しかし現実は、私たちが現在持っているAIは非常に表面的だということです。それは主に暗記といくつかの暗記を超えた小技に依存しています。それを理解することは本当に重要です。
これが、政策立案者がAIをただの魔法の杖のように扱うのではなく、AIの実体とそれが今日どこにあるのかについてより深く掘り下げる必要がある理由の一つです。
もう一つの例を挙げてもらえますか?
人々は大規模言語モデルと呼ばれるものに本当に夢中になっています。最も有名なのはGPT-3で、ガーディアンやニューヨーク・タイムズで論説を書いたり、書評の一部を書いたりして、膨大な注目を集めていますが、実際には多くの欠点があり、また多くの拡張機能もあります。
私たちは大規模言語モデルと呼ぶモデルのクラスを持っています。DeepMindが組み立てたGopherが最大のものであり、これらのものをより大きく構築するための一種の軍拡競争があります。それらには多くの問題があることがわかっており、それは同じ源から来ています。つまり、それらは以前に見たものの本当に表面的な模倣であり、それらが見たことのあるものから離れると奇妙なことをするのです。
それらが有毒な言語を生成し、過去の歴史的偏見を永続させ、誤情報を伝達し、新しい誤情報を作り出すことを私たちは知っています。ダグ・ホフスタッターは、おそらく多くの人がゲーデル・エッシャー・バッハやその他の彼の素晴らしい本から知っていると思いますが、先日私に例を送ってきました。システムのうちの一つに「エジプトはいつ北アメリカを横断して運ばれましたか」などと尋ねられると、システムは答えをただ作り上げるのです。それが作り話だとはわかりません。
流暢な文法的な散文で質問に答えることが多いですが、ナンセンスです。だから、ある意味で危険なこれらのシステムがあります。チャットボットに入れると、自殺やジェノサイドを勧めるかもしれません。それらは文献にある実際の例です。誰もそれに基づいて行動しませんでしたが、システムはそれを完全に行う能力があります。
そこで、これらのシステムは膨大な投資、何十億ドルもの投資を受けていますが、私はそれらがAIの正しい答えだとは思いません。そして賭けられているのは、価値について推論し、私たちを助け、私たちが望むことを行うことができる倫理的なAIを構築できるかもしれないということです。
あるいは、私がブロンコのような、印象的だが多くのリスクを伴う野生の暴れる生き物だと思うようなものになるかもしれません。そしてそれは重要です。なぜなら、私たちはこれらのものにますます多くの力を与えているからです。人々が対話するチャットボットがますます増えています。
さらに悪いことに、私が今個人的に最も心配していることは、それが私が助けることができると思う一つのことだからです。しかし、それは深刻な問題です。それは誤情報です。聴衆の皆さんはおそらく誤情報がどれほど大きな問題であるか、COVIDやウクライナ戦争などでどれほど中心的な役割を果たしているかすでに知っていると思います。
GPT-3は誤情報の検出に非常に弱いですが、それを作るのは本当に得意です。それはひどいことです。それが可能にするのは、いくつかの文を入力してから、それらの100のバリエーションを得ることです。そしてあなたがそれらが真実かどうか気にせず、トロール農場を運営しているなら、それは夢が叶ったようなものです。
同じナンセンスを千回投稿すると、機械がそれを拾い上げるかもしれません。しかし、そのナンセンスの千のバージョンを投稿すると、現在の機械はそれを拾い上げる方法を知りません。したがって、誤情報の問題は今後数年で爆発するでしょう。
私は個人的に、その問題に対してどのように助けることができるかを少し考えています。それが私の心にあることの一つですが、制御が非常に難しい現在の技術をさらにもう一つ持っていることの例です。
私はこう言うことがあります。100年前、AIは人類にとって何の問題もありませんでした。そして100年後には、それは人類に起こった最高のことかもしれません。それは気候変動の問題を解決するかもしれません。それは食料をより効率的に作る問題を解決するかもしれません。分配ネットワークではないかもしれませんが、それは非常に肯定的な影響を与えるかもしれません。
私たちは本当にピーター・ディアマンディスが話したような希少性後の社会に達することができるかもしれず、それは素晴らしいことでしょう。しかし現在、私たちはAIの最悪の瞬間にいます。そしてそれがAIの最悪の瞬間である理由は、私たちが本当に形式的な保証を持っていない、奇妙で予測不可能なことをするこれらのツールをすべて持っているからであり、それでも私たちはそれらに力を与えています。
私たちは人々の仕事やローンについての決定を下したり、本当に資格のない医学的アドバイスを与えたりする力をそれらに与えています。だから、これをAIの黄金時代と見なすのではなく、以前よりもはるかに多くのAIがあるため、そのように感じますが、一種の酷い瞬間として振り返ることになるでしょう。
公平を期すために、現在AIが行うことがいくつかあります。例えば、写真にタグ付けをすることは、常にではないかもしれませんが、良いことになり得ます。そして音声認識は素晴らしいです。だから、いくつかの本当に肯定的なAIがありますが、今のところ心配すべきことがたくさんあります。
あなたの懸念の原因の一つを掘り下げたいと思います。Nautilus誌のこの記事で、「ディープラーニングは壁にぶつかっている。人工知能が真の進歩を遂げるには何が必要か?」とあります。聴衆のために、なぜ私たちがあなたが壁または技術的な境界と考えるものに達したのか、それがこの懸念の一部をどのように生み出しているのかを少し説明してもらえますか?
はい、そして私のタイトルがなぜそんなに多くの人々を怒らせたのかについても話すことができます。タイトルには2つの読み方があると思います。おそらく私がタイトルを選んだのは私の落ち度かもしれません。一つは「これ以上進めない」という読み方で、もう一つは「もしそれを回避しなければ問題が発生する深刻な障害がある」という読み方です。私はより後者の意味、つまりより穏健な意味で意図したのであり、私はその記事の実体がそれを明確にしていると思いますが、タイトルはそうではなかったかもしれません。
私たちは「これ以上進めない」という意味で壁にぶつかっているわけではありません。ディープラーニングでは毎日新しい発見があり、常に新しいことが見つかっています。例えば、ディープフェイクはより良くなっています。これは私が言及しなかった別の倫理的問題です。ディープフェイクは今や引用符で言うと「はるかに良く」なっています。1ヶ月前、4ヶ月前、1年前よりもはるかに説得力があります。
そのため、ディープラーニングには着実な進歩があります。しかし、私が2001年の著書『The Algebraic Mind』や、ショーノートに追加できる2012年のニューヨーカー記事で指摘した一連の問題があり、それらは文字通り何十年も存在し、解決されず、本当に重要なままです。
それらは主に推論と言語、そしてより一般的には「深い理解」と呼ぶかもしれないものに関係しています。ディープラーニングは人気のある技術であり、それは概念的に深いと聞こえるため、膨大な一種のプロパガンダ価値を持っていますが、現実はディープラーニングの「深い」という言葉はニューラルネットワークに何層あるかという非常に技術的な意味を持っているだけです。
それは話したり対話したりするものを概念的に理解するという意味では深くありません。例えば、私があなたに挙げたテスラの運転の例は、人間と停止標識の概念的理解がそれほど深くないという例です。それは本当に「私がこの場所でこのものを見たらこのモードに行くべきだ」ということを知っているだけです。市民のいる世界を運転しているという深い概念的理解は持っていません。
深い概念的理解に関しては、私たちは実際にあまり進歩していません。少し前に私が発表した例をここで挙げましょう。アーニー・デイビスがこの例を作ったと思います。私たちは共同作業でそれを行いました。GPT-3に「あなたは喉が渇いています。クランベリージュースがありますが、十分ではありません。ブドウジュースを見つけ、それをかいで、クランベリージュースに注ぎます。あなたは_」と伝えると、GPT-3が言うのは「あなたはそれを飲みます」で、これは「喉が渇いている」などの言葉と統計的に相関していますが、その後「あなたは死にます」と言います。
クランベリージュースとブドウジュースを混ぜると死ぬと考えるのは、その概念的に深い理解ではありません。それは概念的に浅く、どこかのデータベースにある単語の統計に関係しています。興味深いのは、30年間私はこれらのことを批判してきて、人々はいつも「もっとデータをくれ」と言います。今、これらのシステムは神よりも多くのデータを持っています。文字通りではありませんが、テラバイトの入力データと何十億ものパラメータを持っています。
それらは巨大であり、すべてをデータから学ぶことができるというジョン・ロックの仮説の本当のテストです。そしてそれらはそれに失敗しています。1990年には、「これらのシステムは本当に必要なものを持っていない、公平に扱ってみよう」と言えたかもしれません。しかし今、彼らは公平に扱われ、それでも概念的な問題で本当に行き詰まっています。
それらは見たものを削減することによって流暢な言語を作成できますが、それらは話していることを理解していません。それは壁であり、現在の技術ではその壁を越えられないと思います。私が提案したのは、知識表現、言語、記号などに関する古典的なAIからの別の一連の技術とそれらをハイブリッド化する必要があるということです。
ディープラーニングを捨てる必要があるとさえ言っているわけではありません。しかし、より収益性があるかもしれない他の多くの答えがあるとき、一つの可能な答えを見ることに多くの時間を費やしていると思います。それは今、特定の地域では非常に不人気なことです。
多くの反発を受けました。ヤン・ルーンはFacebookで多くの意地悪なことを投稿し、タイトルを嘲笑いました。そしてTwitterなどでも同様です。この分野のエリートの一部は、私が疑問を投げかけるべきだと言うことに非常に腹を立てています。しかし、私たちは疑問を投げかける必要があると思います。
あなたはある意味で、これらの技術の即時の約束に投資している人々に挑戦しています。自動運転車業界、イーロン・マスクのような人々、さらにはOpenAIのCEOであるサム・アルトマンのような人々、彼は最近、私たちが豊かさにどれだけ近づいているか、この人工一般知能という考え方、それがすべての人間の病気を治すのにどのように役立つか、新しい現実を構築する、これらの既存の企業に十分投資すれば私たちが利用できる即時の未来があるというこの感覚について書いています。
まあ、彼がCEOを務める会社を考えれば、もちろん彼はそう言うでしょうが、私はそれが現実的だとは思いません。そして実際、AI分野のほとんどの人々は、サムが「すべてのためのムーアの法則」というブログ投稿で書いたことが現実的だとは思っていないと思います。
彼は「5年から10年で私たちはこれらの問題をすべて解決するだろう」と言っており、その前提はスケーリング、つまりモデルをより大きくすることが問題を解決するというものであり、それは本当に私がNautilus論文で攻撃していたことです。
私はいくつかの異なる方法でそれを攻撃していましたが、サムの前提は基本的に、データをより多く入れるとシステムが非常に予測可能な方法で良くなるという法則を発見したというものであり、私はNautilus論文でいくつかの問題を指摘しました。一つは、いくつかの指標で良くなることが、すべての指標で良くなることを意味するわけではないということです。
深い理解に関しては、私たちは本当に良くなっていないと主張します。例えば、映画を見て誰が誰に何をしたのかを教えてくれるシステムはありません。今はありませんし、20年前もなく、来年もないでしょう。私たちは最終的にそれらを持つでしょう。
これらの問題はどれも不可能ではありませんが、これらのより概念的に深い問題については、この数字が3なのか4なのかを認識できるかどうかのようなより浅い問題と同じ速度の進歩を遂げていないと言うでしょう。その浅い問題に関しては、指数関数的な進歩を遂げています。
いくつかの領域で指数関数的な進歩を遂げたと言うことは、すべての領域でそうであるということを意味せず、サムは彼のエッセイでそのことについて非常に大雑把だったと思います。また、起こったことが継続すると考えるのも間違いです。それは帰納的誤謬です。ムーアの法則は長い間保持されていましたが、それは法則というよりもデータに対する一般化でした。F=MAのような法則ではありません。
それは単なる規則性です。実はムーアの法則は今世紀の初めに実際に減速しました。データをどんどん追加してどんどん良くなっていき、その後良くならなくなることもあります。人々が本当に心配すべき場所の一つは自動運転車業界です。なぜなら、そこで人々が主にしていることは、さまざまな興味深い方法でより多くのデータを収集しようとしていることだからです。
彼らはより多くの車を道路に置き、グランド・セフト・オートなどでよりシミュレートされたデータを作成します。しかし前提は、十分なデータさえあれば、これは機能するというものです。そしてそれは間違っているかもしれません。停止標識を持った人間のような、私が話しているこれらの奇妙なケースを決して得られないかもしれません。
それらがトレーニングデータになく、あなたの全てのやり方がトレーニングデータに依存し、トレーニングデータを大きくすることであれば、問題があるかもしれません。そして私はそれが自動運転車業界でも真実であると思います。しかし、それは経験的な問題です。私たちは答えを知りません。
しかし今のところ、私たちは6桁ほど多くのデータを得ていますが、私たちは基本的に同じ信頼性の問題を抱えています。これらのものを本当に信頼することはできません。レベル2の自動運転車があり、それはクルーズコントロールのようなもので、少し助けてくれます。レベル5の自動運転車は、単に車に乗り込んで「AからBまで行け」と言えば、それが実行され、あなたは関与する必要がありません。私たちはそれを実現するのに十分な信頼性に近づいているようには見えません。アリゾナ州の良い天気で、よく地図が作られた道路など、はるかに狭いケースでは機能するかもしれません。一般的なケースでは、単により多くのデータを追加することが実際には機能しているようには見えません。
これらすべてをエッセイで指摘し、実際に減速の兆候が見られるかもしれない例も指摘しました。理論的な問題として、全面的に仮定することはできず、実際にそれを示す必要があり、それは示されていません。
そして実際にいくつかの減速の兆候がすでにあるかもしれません。一つの例は、Nautilus論文に入れたかどうか覚えていませんが、Anthropic AIが示したもので、より多くのデータを追加すると、ある時点までは有毒なAIに関してシステムが少し良くなりましたが、すでにその特定の指標に関して収穫逓減の点に達しているように見え、80%で頭打ちになっていました。
倫理的なAIが80%で頭打ちになるのは十分ではありません。スケーリングにすべての重点を置くのは、私が思うに間違いです。ある意味で、それがエッセイの最も新しい部分でした。なぜなら、現在の分野の多くがこのスケーリングがAIの問題を解決するという考えに取り憑かれているからです。
サム・アルトマンのエッセイはその良い例だと思います。彼はそれを正確にその言葉で言っていませんが、そのタイトルは基本的にそう言っています。私たちはそのような予測をすることはできないと思います。実際、深い理解の問題を解決するまで、私たちはそれほど近くにいないと思います。それらを解決すれば急速な進歩を遂げるかもしれませんが、実際には多くのことが関わっていると思います。
より良いアルゴリズムが必要だと思いますが、人間の知識の大規模なデータベースと相互作用できるアルゴリズムも必要です。AIについての恥ずかしい事実がありますが、以前に言及されているものの、公には十分に知られていないか検討されていません。AIは読めません。それは文盲です。
キーワードマッチングを行うことができ、Googleはたくさんのキーワードマッチングを行う素晴らしいものですが、パラグラフを注入して、そのパラグラフが意味することの本当の表現を出力できるシステムはありません。要約のようなツールはありますが、それらは常に雑で、決して信頼できません。
機械翻訳は大きな勝利ですが、機械翻訳は翻訳しているものを理解していません。細かいレベルで見ると、まだ間違いをします。そしてより一般的な機械理解のレベルでは、私たちはまだそこに到達していません。
私は幻想と呼びたくありませんが、幻想のようなものです。探している言葉はビジョンだと思います。AIが最終的にインターネットを読んで、急速に自分自身をより賢くすることができるというビジョンがあります。それが危険かどうかについての質問がありますが、それは一時脇に置きましょう。
それは確かにAIをより賢くする良い方法に見えるでしょう。私たちは人々を学校に送り、AIも子供たちが読書から多くを学ぶのと同じように読むことができるはずですが、今はそれを実際にすることができず、それは現実のチェックであり、私たちは最終的にそれができるようになると思います。その時点で指数関数的な進歩が見られると思いますが、「より多くのデータを注入するとどうなるか」ではなく、「どうやってシステムに読ませるか」と尋ねるべきです。なぜなら、それは読むことができるシステムには繋がらないからです。
あなたが「ビジョン」あるいは物事が近い将来到達できるかもしれない場所についての知覚と呼ぶこれらのいくつかの中で私が感じるのは、私たちが時間切れになる前にこれらの問題を解決するという一種の頑固な主張です。私たちが配備しているシステム、技術システム、そして確かに輸送系システムやエネルギーシステム、現代人類のアーキテクチャのすべてが、人工知能を使用して自分たちがすべての欠点を避けるのを助け、永久に消費し続けることができるような時間枠でそれを行うというものです。これは私たちが行っている本当に大きな賭けのように思えます。
それを大きな賭けと考えるのは正しい方法だと思います。私の全キャリアはその賭けの可能性を高めようとしていると考えることができますが、それは賭けです。そして今のところ、私はその賭けについて良い気持ちを持っていません。
それはプラスの結果になる可能性があります。今のところ、AIの純粋な影響は疑わしくマイナスだと思います。AIが行った最大のことは、Facebookなどのニュースフィードのようなものを通じて、社会の質感と構造を破壊したことだと思います。それらは人々をこれまでよりもはるかに非文明的にしました。
人間の種として私たちが素晴らしかったわけではありませんが、確証バイアスのような問題があります。私たちは自分たちのアイデアをサポートするものに気づき、自分たちのアイデアに反するものには気づきません。私たちには生来の認知的限界があり、AIは実際にそれらを悪化させました。
ニュースフィードは私が思いつく中でAIからの最悪のものだと思います。なぜならニュースフィードは人々をお互いに敵対的にしたからです。Twitterでも同様のことが起きており、良くありませんでした。
そして、これらの新しい大規模言語モデルのエコロジカル・フットプリントは非常に巨大です。時には一回のトレーニング実行が小さな町の2週間分のエネルギー使用量に匹敵することがあります。それらをより効率的にする絶え間ない努力がありますが、それらは本当に多くのエネルギーを使用します。それはコストです。
そして今、いくつかのポジティブなこともあります。Wikipediaは本当にAIではありません。それはより多くインターネットですが、それは現代時代からの技術の例であり、素晴らしく、世界中の人々を助けています。ターンバイターンナビゲーションはニューラルネットワークではなく古典的なAIを使用していますが、毎日多くの人々に非常に役立っています。
いくつかの貢献がありましたが、私たちが思い描く大きなチケットの貢献はまだ実現していません。MITテクノロジーレビューでウィル・ヒーが行ったCOへのAIの貢献に関する調査では、見出しは「COにAIが貢献する400の試みがなにも生み出していない」というようなものでした。私はAIがXをできないとは決して言いませんが、現実は今のところツールはしばしばその宣伝に応えられておらず、より多くのデータを注入するだけではそれらの問題を必ずしも解決していません。
最悪の場合、トレンドラインが続くと、スケーリングについて話したいなら、GPT-7は(数字を適当に言えば、8や9かもしれませんが)ある数の倍増で、GPTNはニューヨーク市よりも多くの電力を使用するようになるでしょう。それはエコロジーにとって良いことではないでしょう。
私たちが望むのは、AIがこれらの深い問題を助けることです。それにはいくつかの約束があると思います。私が提唱しているような、ニューロシンボリックと呼ばれるアーキテクチャに取り組んでいる人々がいると思います。そこで進歩があるかもしれません。それらは決して完成していません。それらにはより多くの資源投資が必要だと思います。
この多くは実際に、より大きな賭けが正しい方向に動くように、分野内でどこに賭けを置くべきかについてです。より大きな賭けは、私たちの問題を解決できるAIの形を見つけることができるというものです。そして私の見解では、その賭けに勝つためには、ポートフォリオを多様化する必要があります。
現在、私たちの投資のほとんどは、大規模なトレーニングセットを持つ大規模なニューラルネットワークに置かれています。それはいくつかの果実をもたらしました。しかし、それがどこで失敗したかを注意深く見て、AIが大きな問題で私たちを助けるという約束を果たすためには、より広いアーキテクチャのセットを見る必要があると思います。
私はゲイリー・マーカスと話しています。彼は認知科学者で起業家であり作家です。彼は5冊の本を書いており、その中には2019年の『Rebooting AI: Building Artificial Intelligence We Can Trust』があります。
政策立案者は、あなたがここで説明しているような問題のタイプを考え抜くことができるようになるまでにはまだ時間がかかるでしょう。そしておそらく、それは彼らの仕事ではないかもしれません。彼らの仕事はより、社会の利益がこれらの技術によって助けられ、妨げられないことを合理的に保証できる枠組みを作ることです。
もし今この通話に議会の代表者がいて、あなたが政策の観点から見て彼らが見るべきだと思うことについて数分話すことができるなら、それは何でしょうか?
いくつかの例から始めて、より一般的なことを思いつくかもしれません。一つは自動運転車業界では、規制が十分ではありません。本質的に、あなたは訴えられた場合に起こるかもしれない結果以外に、何でもベータテストすることができます。
私を心配させる非常に具体的な例を挙げると、テスラは自動運転車を持っています。それらは本当に自動運転ではありませんが、何と呼んでいますか?全自動運転(Full Self Driving)ですが、それは本当に正確ではありません。
申し訳ありませんが、自分自身を中断します。テスラは自社の製品を全自動運転と呼ぶことを許されるべきではありません。議会はそれを停止すべきです。それは虚偽広告であり危険です。
イーロン・マスクが60ミニッツでステアリングホイールを持っていないのを見ますが、実際にはステアリングホイールを持っていなければなりません。そうしないと誰かが死ぬ可能性があり、人々は死んでいます。一部のケースは議論の余地があるかもしれません。それについて少し議論することができますが、これが完全自動運転であると消費者に思わせることは、それが証明されたレベル5の自動運転でない場合、明らかに危険です。
だから、彼らはそれをそう呼ぶことができるべきではありません。それが第一点です。第二点は、公道上にベータテストとして、それが機能するかどうかの研究を行っている人々がいることです。彼らは同意する大人ではありません。そしてここで必要とされることについての法律があまりありません。
再びテスラは特に問題があると思います。カリフォルニア州では、彼らの名前にもかかわらず全自動運転システムとして登録されていないため、データを提供する必要がありません。カリフォルニア州で安全運転に取り組んでいる他の多くのメーカーは、彼らのシステムでどのくらいの頻度で人間が介入する必要があるかについてのデータを定期的に提出しています。
しかしテスラはその抜け穴を見つけました。その抜け穴を塞ぐ必要があります。テスラは他の全ての人と同じデータを報告する必要があります。
テスラを続けると、彼らについて最も懸念しているからですが、彼らには知られている問題があり、これは物事を考え抜くための良い例だと思います。それは、彼らの車が時々高速道路上の停止した緊急車両や停止した車両に衝突することです。
私はその技術的な原因を知りません。彼らはデータについてそれほど率直ではありませんが、少なくとも12回は起こっています。TSAからの調査を受けています。2019年の私の本で書きました。その時点ですでに5件あったと思います。つまり、しばらく続いています。まだ続いています。
知られている問題があるにもかかわらず、車を道路から外さなければならないという規制はありません。その問題を解決することを要求するものはありません。だから約2週間前、台湾でこの特定の問題の間接的な結果と言えるもので誰かが亡くなりました。
テスラが緊急車両に衝突しました。テスラ自体から誰も死亡しませんでしたが、緊急作業員が事故を印すために交通コーンを置いていました。その緊急作業員は突然停止した別の車両に殺されました。流れる交通の真ん中にこの問題があったため、不意を突かれて十分に停止できなかったのです。
それはテスラによって直接引き起こされたわけではありませんが、テスラがこの停止した車両に繰り返し衝突する問題を解決していれば、その緊急作業員はそこにいなかったでしょうし、殺されることもなかったでしょう。これは深刻な問題であり、いつベータテストができるか、どのようなデータを提供する必要があるか、道路に戻る前に既知の問題を解決するための基準は何かについて、より多くの規制が必要だと思います。
これは4年間知られていた問題です。インターネット上で私がこれを投稿すると得られるのは「テスラは他の車よりも安全だ」ですが、私たちはそれを知りません。おそらく平均して安全なのは、それらが一般的な車よりも新しいからです。2021年のテスラを2005年のフォード・エスコートと比較すると、おそらくより安全でしょうが、正確なデータはありません。
そしてここにもう一つの規制の部分があります。基本的に、すべての自動運転車メーカーは、彼らが収集しているデータ、評価方法について十分な開示をすべきです。通常のドライバーに対する安全性の測定を行いたい場合、どの車両がどこに行ったか、自動運転モードで使用されたのはどのような状況かを知る必要があります。
例えば、すべてが高速道路のマイル数で、他の車両の非高速道路のマイル数と比較している場合など、データがあれば学術界はこれらの質問を調査できますが、テスラは率直ではありません。彼らはデータの完全な開示なしに主張するべきではありません。なぜなら、一般の人々は好むと好まざるとにかかわらずベータテスターであり、それらの車がどのように規制されるかについて発言権を持つべきだからです。
あなたの聴衆の誰かがより長い深刻な会話を望むなら、喜んでそうします。そして二つ目の例を挙げましょう。それは誤情報です。私はこの問題に取り組むことに興味があるため、それは自己奉仕的かもしれません。
そこで開示しますが、ソーシャルメディアプロバイダーに、その時点で利用可能な最高の技術を使って可能な限り誤情報を検出することを要求する、歯のある規制が必要だと思います。
金融業界では、最高の利用可能な技術を使用しなければならないことがたくさんあります。法律は最高の利用可能な技術が何であるかを言いませんが、遵守するためにはそこにあるものを使用しなければならないと言っています。
ソーシャルメディア企業が、AIや人間とAIを含む最高の利用可能な実践を使用して、誤情報や潜在的な誤情報を検出しラベル付けすることを義務付ける必要があると思います。
今は時々少しだけあります。選挙時期には、これらのことをより多く監視しますが、全面的に必要だと思います。それは大きな取り組みですが、最終的には、世界は誤情報によって深く汚染されつつあると思います。
「私はアグリゲーターです。編集者ではありません」と言うだけでは十分ではありません。これはFacebookやTwitterなどが取ってきた立場です。ニュースを集約し、大量に行う場合、このものが真実であることを確認するための最高クラスのコンプライアンスチェックに責任があるという法律が必要だと思います。
今のところ、それに関する法律は最小限です。問題が非常に深いため、それは実際に変わると予想しています。人々はそれを気にしていると思います。しかし、それに取り組むべきだと言いたいです。それは重要です。
私たちが通っていた状況を見ると、AIは最終的な万能薬であり、私たちが消費を続け、今日と同じように現代的なライフスタイルを送り、経済がおおよそと同じように機能しながら、気候変動の最悪の結果を避けることができるかもしれないという考えがあります。
ある程度、特にアメリカの立法者たちがこの万能薬のアイデアにテクノロジー企業のCEOと同じくらい投資していることを常に心配しています。彼らはそのような豊かさが何十年も先にあるとは必ずしも信じたくありません。どうやってこれを調和させますか?皆がこの人工知能の宗教に投資しているのですか?
誰もが常に万能薬を探しています。1900年代初頭には万能薬があり、AIが万能薬だとは言いませんが、あなたが話しているようなその万能薬的思考があり、それは少なくとも近い将来には現実的ではなく、それは魅力的です。
人々はより高い力やボトルの中の何かを探したり、機械を探したりします。最良のケースでも、私たちがある種の全知で本当に賢いAIを持っていたとしても、それはまだ魔法のような一夜にして治るものではないでしょう。
例えば食料安全保障を考えてみてください。より効率的に食料を作るための良い計画を立てるという問題の一部と、食料を取って配布しない軍閥についてどうするかという分配の問題があります。
だから、より良く推論でき、より複雑な問題を追跡でき、技術革新を行うことができるシステムを持っていても、常に残り続ける政治的問題があると思います。
最大の希望は、それは完全に非現実的だとは思いませんが、私たちが食料をはるかに効率的に作ることができるようになるということです。気候変動への技術的修正を見つけることができるでしょう。これらのことは除外されているとは思いません。
それらすべては常に実装するための政治的意志を必要とし、現在それらの技術を本当に持っていないので、今のところ多くの希望を置くべきではありません。
それぞれにおいて、AIがすでに貢献できる方法があります。例えば、AIは薬の発見を助けることができます。AIが特定した興味深い候補分子がたくさんあります。その一部は役に立つことが判明するでしょう。気候変動に役立つかもしれない材料科学へのいくつかの貢献があります。
だから、この方向にすでにステップがありますが、現在はスタートレックのコンピュータのようなものはありません。あなたはこの惑星に座っていて、毎年一定の度数だけ温度が上昇しています。それについて何をすべきですか?と質問を投げかけ、スタートレックのコンピュータが「なぜこのものを構築して、フレームレータに接続しないのですか?」と言い、「フレームレータとは何ですか?」と尋ねると、それが説明してくれるようなものです。
私たちはそれに近いところにはいません。私たちは多くの異なることを計算するのに役立つ計算機を持っています。その多くはAIを使用しています。そして人間と連携して、いくらかの進歩を遂げることができますが、今のところ私たちが望むよりも遅いです。
AIに資金を注ぐことは良いことだと思います。なぜならAIはこれらの問題を助けることができるからです。しかし、AIにおける私たちの知的ポートフォリオを多様化するための強力なメカニズムが必要だと思います。そして現在はそれがありません。
10億ドルの助成金などがありますが、それが業界がすでに行っているのと同じことにならないようにし、資金が探索されていない可能性のある解決策の大きな空間を探索する上で必ずしも効率的に使われないようにするメカニズムがありません。
この会話を、あなたがなぜ不安を感じているのか、物事がどこに向かっているのかの一部について話し合うことから始めました。長期的にはやはり楽観主義者ですか?
短期的悲観主義者、長期的楽観主義者です。以前よりも短期的に少し楽観的です。なぜなら、壁などを指摘することで多くの批判を受けていますが、実際にはこれらのことについて考えている人々がいるからです。
ヨシュア・ベンジオ(Throwing賞受賞者)がこれらのことを真剣に考えていることは素晴らしいことです。そしてMITでジョシュ・テンバウンドが本当に興味深い仕事をしていることも素晴らしいです。過去数年間、この分野が行き詰まっていたボックスの外側で考えているより大きなクラスターの人々がいます。
私はさらに多くの人々をそのボックスの外に動かそうとしていますが、少なくとも今はそうしている人々がいます。そしてそれは私にいくらかの短期的な楽観主義を与えます。世界の問題や自動運転車を解決するだろうというあなたが話しているスケールではありませんが、これらのすべてのことは何年も先だと思います。しかし、人々が正しい道に進めば、それは少ない年数になるかもしれません。
気候変動のような何かでは、一分一秒が重要です。チョムスキーは先日、基本的にウクライナの状況、ロシアの侵攻が世界の終わりを意味するかもしれないというインタビューを行いました。彼はこれをほぼ文字通りに言い、議論を詳しく説明しませんでしたが、私はその議論が、出たばかりの気候報告書に関連していると思います。その報告書は私たちがすでに遅すぎるかもしれないと基本的に言っています。
そして私はその議論が、もし他のことに気を取られ、そこに多くの資源を送らなければならず、毎日ニュースのトップになり、重要な気候変動のことがニュースのトップにならなければ、私たちは気を取られてしまうということだと思います。
良い理由で気を取られるかもしれませんが、私たちは遅れています。そしてこれらの問題を修正するための時間的な窓が非常に狭いため、大規模な投資をする価値があります。正確にはわかりませんが、技術を実施する際の1年の遅れが数十億人の生命の違いを生み出す可能性のある世界は考えられます。私たちはそれを真剣に考え、長期的に最善の方法でこれらの問題を解決しているかどうかを考える必要があります。
もし核戦争や気候変動などがなければ、長期的には軌道はポジティブです。私が望むほど速くなくても、最終的には私たちははるかに良い場所にいるでしょうが、何か破滅的なことをする前にそこにたどり着かなければなりません。
私の大きな恐れは、権威主義と紛争と気候災害と難民危機、そしてこれらのことを通過せずに長期的にそこにたどり着くのは難しいということです。私が心配しているのは、サム・アルトマンのような人々は私に尾根を越えた豊穣の角を見させたがっているかもしれませんが、私またはおそらく私の子供たちがそこにたどり着かないかもしれないということです。
私があなたの頭がそこにあるべきではないと言うつもりはありません。これらは危険な時代です。AIコミュニティが世界に代わって行っている賭けのようなものがあると言いましたが、AIコミュニティがほとんど何の影響も与えることができないことがあります。ロシア・ウクライナの状況のようなものです。それが核戦争になるかもしれませんが、AIコミュニティはそれについて実質的に何もできません。だからそのレベルの問題があります。
気候変動のようなことがあり、AIの人々の90%が「今取り組んでいることを止めて、それを助けることができるかどうか見てみよう」と言うと素晴らしいと思います。あるいは私が始めるかもしれない誤情報の問題です。AI分野の少なくとも数年前の商業的取り組みの約75%は広告ランキングなど、広告配置に関するものでした。今は60%かもしれませんが、AI広告配置または周辺的に関連することに取り組んでいる全ての人が明日の朝起きて「私は自分の子供、孫を気にかけているので、もうこれはやめよう。誤情報の問題または気候変動の問題を直接助けるために何ができるだろうか?」と言えば、それは重要なことでしょう。
ゲイリー、また番組にお越しいただき、その特定の問題に対して何をしているのか教えていただけることを願っています。
ここに来れて本当に嬉しいです。政策立案者がAIができることとできないことについてもっと深く掘り下げ、それが万能薬ではなく、それを正しく理解することが本当に重要だと認識することを願っています。
以上でこのエピソードを終わります。ぜひフィードバックをお送りください。Justin@techpolicy.pressまでメールするか、Twitterの@techpolicypressで私たちを見つけることができます。共同創設者のブライアン・ジョーンズ、そしてゲストの方に感謝します。そして視聴していただきありがとうございます。テック・ポリシー・プレス

コメント

タイトルとURLをコピーしました