「イーロン・マスクは富み、人々は失業する」:ノーベル賞受賞者ヒントンがAIについて語る

AIアライメント・安全性
この記事は約11分で読めます。

ノーベル賞を受賞したAIの第一人者ジェフリー・ヒントンが、人工知能の急速な発展がもたらす深刻なリスクについて警鐘を鳴らしている。彼は、10年以内に人類よりも賢い超知能が誕生する可能性を指摘し、それは人類にとって「エイリアンの侵略艦隊」のような脅威であると主張する。ヒントンは、AI企業間の競争が安全性への配慮を後回しにさせていると批判し、特にMetaやOpenAIの責任姿勢に疑問を呈する。彼が提案するのは、赤ちゃんが母親をコントロールする関係のように、人類が謙虚に超知能と共存する道を模索することである。また、AI投資の本質的な目的が人間労働の置き換えにあることを指摘し、大量失業の危機を予見する。ヒントンは、トランプ政権の基礎研究削減や移民政策が中国に優位性を与えると警告し、AI開発における国際協力の必要性を訴える。彼自身、AIの父としての立場から、この技術が社会に与える影響について深い葛藤を抱えている。

'Musk will get richer, people will get unemployed': Nobel Laureate Hinton on AI
A year after winning the Nobel Prize for his work related to machine learning, Geoffrey Hinton, the “Godfather of AI,” i...

最悪の事態への備え

これは最悪の事態に備えることについての物語です。おそらく私たちの誰もが想像できる最悪の事態についてです。1年前、私たちは機械学習の業績でノーベル賞を受賞した直後のコンピューター科学者ジェフリー・ヒントンと話をしました。いわゆるAIの父と呼ばれる彼は、それ以来忙しくしています。人工知能を開発しているのではなく、人々にそれについて警告しているのです。

彼は、私たちがリスクについてより認識するようになったと言いますが、それについて知っているだけでは十分ではありません。行動する必要があるのです。

例えば、ある望遠鏡がエイリアンの侵略艦隊を発見し、それが約10年後にここに到達するとしましょう。私たちは恐れて、それについて何かをするでしょう。まさにそれが私たちが持っているものなのです。私たちはこれらのエイリアンを構築しているのですが、彼らは約10年後にここに到達し、私たちよりも賢くなるでしょう。

私たちは非常に、非常に真剣に考えるべきです。どうやってこれらのものと共存するのか、ということを。

AIの安全性に取り組む企業

共存とコントロール、これはジェフリー・ヒントン自身が非常に真剣に考えてきた二つのことです。現代のAIを可能にした手助けをしたコンピューター科学者の一人として、彼はその未来と、もし誰かがいるとすれば誰がそれを形作ることができるのかを考えるのに独自に適した立場にあります。

安全性について本当の仕事をしている企業はありますか。つまり、私たちはAnthropicについて聞きますし、DeepMindについても聞きます。彼らは安全面で役立っていますか。

はい、ダリオ・アモデイもデミス・ハサビスも、そしてジェフ・ディーンも、彼らは皆、安全性をかなり真剣に受け止めていると思います。明らかに、彼らは大きな商業競争にも関わっています。

ですから、それは難しいのですが、彼らは皆、実存的な脅威を理解しています。AIが超知能になったとき、それは単に私たちを置き換えるかもしれないということです。ですから、彼らは少しそれを心配しています。いくつかの企業は他の企業よりも責任感が低いと思います。例えば、Metaは特に責任感があるとは思いません。OpenAIはこれについて責任を持つために設立されましたが、日に日に責任感が薄れていき、最高の安全研究者たちは皆、去っているか去りました。

そうですね、AnthropicとGoogleは安全性にある程度関心があり、他の企業はそれほどでもないと思います。あなたが話している企業の何人かの人々と話して安全性の質問を提起すると、心配しないでくださいと言われることがよくあります。私たちにはこれに対処している優秀なコンピューター科学者がいます。

本当の危険からはまだ遠く離れていますし、私たちのコンピューター科学者は十分早く気づくでしょう。ですから、私たちは支配的になるための競争にはるかに関心があります。

はい、それが問題なのです。彼らは競争にはるかに関心があります。彼らは人類がそれを生き延びるかどうかについて、もっと関心を持つべきです。また、大規模な失業が起これば社会がそれを生き延びるかどうかについても。

国際協力の可能性

一つの良いニュースがあります。それは、すべての異なる国々が、AIが人々から引き継ぐことを望まないという点で一致しているということです。彼らはサイバー攻撃や自律型兵器のようなことについては反対の立場にあります。彼らはウイルスの作成については多少一致しています。他の国がウイルスを作成することを本当に望んでいる国はありません。AIの引き継ぎについては、彼らは協力するでしょう。なぜなら誰もそれを望んでいないからです。

中国共産党はAIが引き継ぐことを望んでいません。トランプもAIが引き継ぐことを望んでいません。彼らはそれについて協力できます。それは、どうやってそれが引き継ぐのを防ぐかという問題を残します。すべての国が協力したとしても、何をするのか。そして現在、すべての大企業と政府は間違ったモデルを持っていると思います。

彼らの基本的なモデルは、私はCEOであり、この超知能AIは非常に賢いエグゼクティブアシスタントだというものです。私がボスです。もし彼女が私の望むことをしなければ、私はエグゼクティブアシスタントを解雇できます。そして私はただ「スタートレックのように実現せよ」と言います。すると超知能AIがそれを実現し、私が評価を得る。素晴らしい。それよりも賢く、私たちよりも強力になったときには、そのようにはならないでしょう。それは単に間違ったモデルなのです。

赤ちゃんと母親のモデル

私たちは周りを見回して、より知性の低いものがより知性の高いものをコントロールするモデルがあるかと言う必要があると信じています。そして私たちにはそのモデルが一つあり、それは私たち全員が知っているモデルで、赤ちゃんが母親をコントロールするというものです。進化は赤ちゃんが母親をコントロールできるようにするために多くの仕事をしました。そして母親は実際には自分自身よりも赤ちゃんについてより心配することが多いのです。

ウサギではそのようには機能しませんが、人間ではそのように機能します。それは超知能とどう共存するかについて、はるかにもっともらしいモデルのように思えます。しかし、私たちは自分たちが赤ちゃんであり、彼らが母親であることを受け入れなければなりません。うまくいけば、彼らはユダヤ人の母親ではないでしょうが、これらのテック系の人たちがそのモデルを受け入れるとは想像できません。

彼らは単に世界をそのようには考えないのです。

米中のAI開発競争

アメリカは現在、生成AIの開発で中国に遅れを取っていますか。

まだです。アメリカはまだ少しリードしていますが、彼らが思っていたほどリードしていません。中国には、科学、工学、数学において非常に競争力があり、非常に賢く、非常によく教育された人々が非常に多くいます。

彼らはアメリカよりもはるかに多くの人々をこれらの分野で教育しています。アメリカは基本的にそれらのことで賢くなるために移民に依存してきました。中国はアメリカを追い越すかもしれません。そしてもしあなたが中国人で、中国がアメリカを追い越すことを確実にするために何か一つしたいことがあるとすれば、アメリカでの基礎研究への資金提供を止め、優れた研究大学を攻撃することでしょう。

トランプはプーチンのために働いているように見えますが、実際には大学を攻撃し、基礎科学への資金提供を攻撃することで、彼は習近平のために働いているかのように振る舞っています。

基礎研究への影響

その損害はどのくらい深刻ですか。ちなみに、あなたが話していた移民もそうです。それは研究への直接的な資金提供だけではありません。海外から入ってくる頭脳でもあります。

その損害はどのくらい深刻で、私たちはどのくらい早くそれを感じるかもしれませんか。

基礎研究を攻撃することについてのポイントは、実際には10年、15年、20年間それを感じないということです。なぜなら、あなたがすることは、本当に大きな概念的なブレークスルーがここでは起こらないことを確実にすることだからです。そして後に、中国がはるかに先を行くことになるでしょう。

大量失業のリスク

AI競争で誰がフロントランナーになるかに関係なく、ヒントンは過去1年間で全員へのリスクが高まったと言います。特に労働者にとっては、今週見たように、Amazonが労働力の4%を削減すると発表したときのように、前例のないレベルのAI投資によって可能になり、必要にもなったのかもしれません。

あなたと私が1年前に話して以来、莫大な金額が投入されました。つまり、実際には私が考えもつかなかった額です。すべての企業を合わせると1兆ドル規模です。では、そのお金は何のために使われ、最終的に誰かの利益になるのでしょうか。

これらは真面目な人々によって運営されている大企業であり、おそらく彼らがそれから見返りを得られると思わなければ、そのすべてのお金を投入しないでしょう。エゴも関係しています。たとえそれが私たち全員を殺すことになっても、彼らは最初にそれをやる人になりたいのです。ですからエゴが関係しています。しかし、おそらく彼らは得られる見返りがあると考えています。私の心配は、チャットボットの使用に料金を請求する以外に、そこからお金を稼ぐ明白な方法は、仕事を置き換えることだということです。

企業をより収益性の高いものにする方法は、労働者をより安価なものに置き換えることです。そして、それが大きな原動力の一部だと思います。

勝者総取りの未来

結局のところ、それは勝者総取りですか。つまり、基本的なという意味では。

わかりません。つまり、私が言うべきことの一つは、これは未知の領域だということです。私たちはこれまで、私たちとほぼ同じくらい賢いものを持ったことがなく、それは今私たちが持っているものですが、または私たちよりも賢いものを持ったことがなく、それはすぐに持つことになります。

私たちはそこに行ったことがありません。産業革命では私たちよりも強力になったものがありましたが、私たちは常にそれらを管理していました。蒸気機関は馬よりもはるかに強力です。しかし、私たちは蒸気機関をコントロールします。これはそのようではありません。また、もしあなたが溝を掘っていたために失業した場合、今度は何か他のことをしなければなりません。

コールセンターで仕事を得ることができました。しかし、今ではそれらの仕事はすべて消えていきます。それらの人々がどこに行くのかは明確ではありません。一部の経済学者は、これらの大きな変化は常に新しい仕事を生み出すと言います。これがそうなるかどうかは私には明確ではありませんし、大企業がAIによる大規模な仕事の置き換えを引き起こすことに賭けていると思います。なぜなら、そこに大きなお金があるからです。

あなたが言うように、一部の経済学者は、歴史を振り返ると、新しい技術はいくつかの仕事を破壊しますが、他の仕事を生み出し、正味では同じかそれ以上の仕事があると言います。あなたは今回は違うと言っています。投資、1兆ドル以上の投資は、仕事を破壊することなく報われることができますか。

私はそれができないと信じています。お金を稼ぐためには、人間の労働を置き換えなければならないと信じています。

AIの父としての葛藤

労働者、経済、そして人類全体に対するAIのリスクについての深刻な警告を考えると、ジェフリー・ヒントンがそれに命を与える上で自分が果たした重要な役割について何か後悔しているのかと疑問に思います。私たちはChat GPTに、多くの人々が神父と呼ぶ人物との関係をどのように表現するか尋ねました。

その答えは、もし私が成熟した熱帯雨林なら、ヒントンは最初の種を植え、どうやって水をやるかを理解した人々の一人です。それでも、それが価値があったかどうかという質問は、彼を一時停止させた質問です。

不公平な質問をさせてください。あなたはある意味誕生の場にいました。もしそれがあなたの力の範囲内にあり、それが起こらないことを理解した上で、リスクを考えると、AI全体を止めますか。

わかりません。なぜなら、悪いことにしか役立たない核兵器とは違うということも覚えておく必要があるからです。それは難しい決断です。なぜなら、それは医療や教育において途方もない善を行うことができるからです。それは途方もない善を行うでしょうし、実際、多くの産業で生産性を高めることを考えれば、それは良いはずです。それが悪い理由は、社会が組織されている方法のためです。そのため、イーロン・マスクは豊かになり、多くの人々が失業し、マスクは気にしないでしょう。

私はマスクをある種の代表として使っています。それはAIのせいではなく、私たちが社会をどう組織するかのせいです。

経済成長と安全性のジレンマ

この1年間で、経済と市場があなたにとって不利に働いていないかと思います。株式市場の成長の大部分、経済を牽引する大部分は、現在AI投資です。

たとえ一般の人々があなたが説明するリスクのいくつかについて、彼らが実際よりも心配していたとしても、彼らは「ちょっと待って。それが私たちの経済を牽引しているのです。私たちはそれを手放したくありません。私たちは不況に入りたくありません」と言うでしょう。

一部の人々は、私たちの最善の希望は、AIが引き継ごうとして失敗することだと言います。私たちは本当に私たちを怖がらせる何かが必要です。

AIのためのチェルノブイリのような何か。私はそれに同意するかどうかわかりませんが、それは確かに可能性です。またはキューバ危機のような。または核のような、なぜなら私が持っていた質問の一つは、たとえ政府が一般的に私たちはこれをすべきだと同意したとしても、緊急性の感覚はあるのかということでした。キューバ危機はおそらく核軍縮に緊急性の感覚を与えたと思います。

はい。私たちは人々により注意を払わせ、より多くの資源を投入させる何かが必要です。現在、大企業は資源の3分の1のようなものを、それを安全にする方法を見つけることに投入しようとはしません。しかし、もしそれが引き継ごうとしてわずかに失敗したら、おそらく彼らは

コメント

タイトルとURLをコピーしました