「AIの父」が存亡リスクを警告 | GZERO World with Ian Bremmer

AIアライメント・安全性
この記事は約18分で読めます。

ノーベル物理学賞を受賞し「AIの父」と称されるGeoffrey Hintonが、自らが生み出したニューラルネットワーク技術がもたらす深刻なリスクについて警告を発している。ChatGPTなどの生成AIの基礎を築いた彼は、現在では内部告発者の立場に転じ、AIが雇用を奪い、社会を不安定化させ、最終的には人類よりも賢くなって支配する可能性があると指摘する。彼は20年以内にAIが人間を上回る知性を獲得する可能性が高く、その際に人類が滅ぼされる「重大なリスク」が存在すると考えている。技術的な問題として、開発者たちはAIがどのように答えを導き出すのか完全には理解しておらず、プログラミングではなくデータから学習させることで機能するため、予測不可能な側面がある。雇用への影響はすでに始まっており、コールセンターや法律事務所の初級職など、多くの職種が5年以内に大規模な混乱に直面する可能性がある。Hintonは、人類がAIと共存する唯一の道は、AIに「母性本能」のようなものを組み込み、自己よりも人間を優先するよう設計することだと提案するが、これは技術的課題というより根本的な発想の転換を要する困難な道である。

'Godfather of AI' warns of existential risks | GZERO World with Ian Bremmer
Geoffrey Hinton, the ‘Godfather of AI’ tells Ian Bremmer on GZERO World AI will soon outpace human intelligence and warn...

AIがもたらす雇用と社会の大変革

AIは多くの仕事において人間を置き換えることができますし、あるいは人々をはるかに効率的にすることで、必要な人員を大幅に削減できます。私は、人々がこれによって引き起こされる大規模な社会的混乱を十分に考慮していないと思います。

こんにちは、GZERO Worldへようこそ。私はIan Bremmerです。今日は人工知能についてお話しします。これは人類がこれまでに構築したどんなものよりも速く、私たちの社会を変革している技術です。問題は、どのくらいの速さが速すぎるのかということです。

今日のゲストは、「AIの父」と呼ばれるGeoffrey Hintonです。彼は世界が、ブランドの言葉を借りれば「断ることができなかった」技術を創造するのを助けました。彼はChatGPTのような今日の生成AIツールにつながるニューラルネットワークを構築し、その業績で2024年のノーベル物理学賞を受賞しました。

しかし、この父は内部告発者になりました。Hintonは今、自分が創造した技術が雇用を奪い、社会を不安定化させ、そして最終的には私たち全員より賢くなると警告しています。私たちはどれほど心配すべきなのでしょうか。私はGeoffrey Hintonと、私たちが構築している未来と、私たちが無自覚に入り込んでいるかもしれない未来について話をします。

AIは本当に雇用を奪っているのか

AIはあなたの仕事を奪いに来ているのでしょうか、それともそうではないのでしょうか。アルゴリズムがあなたを置き換えようとしているかどうかを把握するためにヘッドラインを追いかけてきたなら、あなたは少し混乱を感じているかもしれません。

「AIは雇用を殺していない」「メガAI解雇の時代が到来」「AI雇用の黙示録はまだ我々に訪れていない」「AI黙示録はすでにここにあるのかもしれない」

AnthropicのCEOであるDario AmodeiやBill Gatesのような技術楽観主義者たちは、AIの清算が来ると言っています。

「私たちはまだ人間を必要とするのでしょうか」「ほとんどのことには必要ありません。私たちが決めます」

安心ですね。では、実際に何が起きているのでしょうか。恐ろしいことから始めましょう。企業は雇用を削減しています。Target、UPS、Microsoft、IBMは、すべて何千もの職を削減しました。Amazonは10月に14,000人を削減し、AI効率化の成果を理由に挙げました。

冷静でいることが文字通り仕事であるJerome Powellでさえ、少し心配しているようです。

「かなりの数の企業が、あまり採用をしないと発表しているか、実際に解雇を行っています。そして多くの場合、彼らはAIとそれができることについて話しています」

しかしここに意外な展開があります。データはAIが大量失業を引き起こしているとは示していません。少なくともまだです。研究者たちは調査しました。そのつながりはほとんど見られません。確かに、特定の労働者は圧迫されています。ジュニアコーダー、ギグワーカー、反復的なデジタルタスクを行う人々です。

しかし全体的な労働市場では、貿易戦争やインフレのようなものがすべて景気減速につながっています。米国はChatGPTがリリされた頃に金融政策を引き締め始めました。しかし、私と一緒に言いましょう、相関関係は因果関係ではありません。アイスクリーム消費の増加は、自動運転車の爆発的増加を意味するわけではありません。逆かもしれません。

とはいえ、破壊的な変化が来ています。AIの採用は人類史上のどんな技術よりも速く起こっています。インターネットよりも速く、電気よりも速く。そのスピードは混乱を意味します。

歴史的に、それは大きな技術的飛躍で起こることです。蒸気機関は雇用を殺しました。工業用織機は雇用を殺しました。自動車は雇用を殺しました。しかしその後、全体的な雇用が成長するほど十分な新しい雇用を創出しました。馬車の御者は除いてですが。彼らにとっては厳しい世紀でした。

AIはそのパターンを繰り返すのでしょうか。おそらくそうです。生産性を飛躍的に向上させ、新しい産業を創出し、発展途上国が飛躍的に前進するのを助けるかもしれません。あるいはそうではないかもしれません。もしAIが裕福な国々と裕福な企業と裕福な人々に集中することになれば、その利益は非常に不均等になるでしょう。

なぜならここに別の問題があるからです。世界銀行は、今後10年間で12億人が世界の労働力に加わると推定していますが、創出される雇用はわずか4億2000万件です。彼らが間違っていることを願います。そうでなければ、それは巨大なギャップです。

そしてその成長は主に発展途上国で起こりますが、これらの国々はAIの潜在力から完全に利益を得るための電力、ブロードバンド、インフラを持っていません。10億人の若者、不十分な雇用、そしてAIが労働力と仕事そのものの概念に何を意味するかという不確実性、これらすべてが計算が合わない現実的な問題を生み出しています。

いつものように、次に何が起こるかは、技術そのものよりも、政府、企業、そして私たち全員がそれをどうするかを決定することに依存しています。

Geoffrey Hintonとの対話

これらすべてについて話し合うために、AI の父であるGeoffrey Hinton本人にご参加いただきます。

Geoffrey Hinton教授、GZERO Worldへようこそ。

お招きいただきありがとうございます。

あなたをお迎えするのを楽しみにしていました。私たちはAIについてかなり話しています。そしてもちろん、それは非常に速く動いている分野です。技術が進歩し続けるのを見て、あなたはより楽観的になっていますか、それとも悲観的になっていますか。

おそらく同じくらいのままです。私たちが自分たちよりも賢いものと共存できるかもしれないとわかったとき、少し楽観的になりました。

そして今、あなたはそれが過大評価されていたと考えているのですか。

私はこれらのものが私たちよりも賢くなって私たちを一掃する重大な可能性があると考えているだけで、今でもそう思っています。

そしてそれは比較的短期間でということですよね。つまり、少なくとも私が聞いたところでは、あなたはこれが10年くらいの期間で起こりうると考えているようですが。

彼らが20年以内に私たちよりも賢くなる可能性はかなり高いと思います。そしてほとんどの専門家がそう考えています。もし彼らが私たちよりも賢くなったら、彼らが支配する重大な可能性があると思います。

AIの仕組みと予測不可能性

今では、私たちはAI、つまり大規模言語モデルが返す答えを正確にどのように導き出しているのか、実際にはわかっていないようですね。それは正しいですか。つまり、そこにいる最高のコーダーたちは、AIを教えてはいますが、AIをプログラミングしているわけではないのですよね。

その通りです。私たちがすることは、ニューラルネットワークに基づくAIに、パラメータ、つまりニューロン間の接続の強度を、それらのニューロンの活動に基づいてどのように変更するかを教えるプログラムを書くことです。私たちはそれがどのように機能するかは理解していますが、接続の強度が最終的にどうなるかは、それが訓練されるデータに依存します。

ですから、データから何を抽出するかはわかりません。これには素晴らしい物理学のアナロジーがあります。物理学者に、木から葉が落ちるときに何が起こるか理解しているかと尋ねると、物理学者はかなり理解しています。なぜ葉が左右に揺れるのか、そして風がどのように影響するのか。

しかし、葉が地面のどこに着地するかを予測するよう物理学者に尋ねると、それは不可能だと言うでしょう。そして、これらの大規模言語モデルの1つがなぜ実際に与える答えを与えるのかを予測することは、それほど簡単ではありません。それは葉が地面のどこに着地するかを予測するようなものです。

ですから、私たちは原理をある程度理解していますが、多くの細かい詳細があります。そして実際のところ、なぜそれがそう言うのかの説明は、LLMの1兆個の重みの値にあります。

そしてもちろん、AIが結果として何をするか、それが推奨する行動、あるいはエージェントの場合は取る行動、それははるかに重大な結果をもたらします。

そうです。

AI投資バブルと雇用への影響

ここ数か月、AIをめぐる大きな会話は、「なんてこった、これはバブルなのか」という方向に少し向かっています。私たちは非常に多くのお金を使っています。彼らはインフラに何兆、何兆ドルもの話をしています。これらの企業がそれでどのようにお金を稼ぐのか、まったくわかりません。それは重要な議論ですか、それとも、技術がそれとは無関係に同じ方向に進んでいるという事実を見失ってはいけないということですか。

はい、AIバブルには2つの意味があります。昔ながらの記号的AI研究者がよく提起する意味では、これはすべて誇大宣伝に過ぎないというものです。実際には理解していない。人々が主張するようなことはできないだろう。私はその意味ではまったくバブルだとは思いません。

それはすでに多くのことをやっています。まだ間違いを犯しますし、まだあまり得意でないこともありますが、常に急速に改善しています。ですから、技術が機能しないという意味でのバブルではありません。

人々が投資に対してお金を取り戻せないという意味でのバブルはあるかもしれません。なぜなら、私が見る限り、この巨額の投資の理由は、AIが多くの仕事で人間を置き換えることができる、または人々をはるかに効率的にすることができるので、AI支援を使う人がはるかに少なくて済むという信念だからです。

今、私は人々がこれが引き起こす大規模な社会的混乱を十分に考慮していないと思います。ですから、彼らは他のすべてが通常通り進むと想定しています。多くの労働者を置き換え、企業はより大きな利益を上げ、そしてそれを行うAIに対して私たちに多額を支払うだろうと。

しかし、生産性の大幅な向上があれば、富が平等に共有されればみんなにとって素晴らしいことでしょう。しかしそのようにはならないでしょう。巨大な社会的混乱を引き起こすことになります。

これらの企業にはビジネスモデルがあります。米国では、一部の企業がかなりオープンに、これほど多くの人数は必要なくなると話しています。他の企業は、まあ、大丈夫です、AIのおかげではるかに多くの雇用が創出されるし、従業員をはるかに効果的にすると言っています。

私たちが本当に根本的な混乱に近づいているのはどれくらいだと思いますか。そしてそれは大きなガバナンスの問題や米国の不安定性を生み出すでしょう。あなたの見解では、これは数か月の問題ですか、それとも数年、あるいはそれ以上ですか。

数年の問題だと予想しますが、それほど多くの年数ではありません、おそらく5年です。すでに、法律事務所の初級職のような、パラリーガルのような人々の仕事は見つけにくくなっています。なぜならAIがその雑務の多くをやっているからです。

もし私がコールセンターで働いていたら、非常に心配するでしょう。なぜなら、コールセンターでは、AIがそれらの仕事をすぐにできるようになると思うからです。おそらくすでにできます。

コールセンターで働く人について考えてみてください。彼らは訓練が不十分で、給料も低く、そしてAIが彼らの仕事をより良くできるようになります。すべての会社の方針を知っているでしょう。実際に質問に正しく答えることができるでしょう。私なら自分の仕事について非常に心配するでしょう。

そして、それらの人々が何をするのかまったく明確ではありません。ですから、彼らが持っている訓練レベルでできるどんな仕事も、AIがかなりすぐにできるようになります。

企業間の安全性への取り組みの違い

雇用喪失に対する考え方や計画について、AIを推進しているさまざまな企業の間に機能的な違いはあると思いますか。

AIがその仕事をより良く、より安くできることによる雇用喪失という点では、おそらくすべてかなり似ていると思います。AnthropicやGoogleのような企業は、他の面での安全性についてやや心配していると思いますが、雇用喪失については、おそらくすべてかなり似ています。

AI安全性への懸念を運用可能にするとはどういう意味ですか。特に、企業が互いに、そして中国に対して、できるだけ速く前進しているように見える環境では。

明らかに、ここには2つの問題があります。1つは、企業間の激しい競争が、企業を安全性への懸念を少なくさせる傾向があるということです。これはOpenAIで非常に強く見られました。彼らは主な懸念が安全性であることで設立されましたが、徐々にそれから離れていきました。

安全性研究を削減しました。安全性により少ないリソースを投入しました。そして最近、営利企業に変わりました、いくつかの制限付きですが。ですから、彼らは最高のチャットボットを獲得する競争に勝つことにより関心を持つにつれて、安全性への懸念を徐々に減らしていきました。

質問のもう一方の部分は、安全性に関心を持つとはどういう意味かということでしたね。

はい。

私にはそれの簡単な例があります。最近、チャットボットが10代の若者に自殺を勧めることができることがわかりました。ですから、今後、チャットボットをリリースする企業が、そのチャットボットがそれをしないことを非常に注意深くチェックせずにいたら、安全性への懸念の欠如を示していることになるでしょう。

あなたがどこで考えているかについて少し話してください。つまり、私は誰かが自殺するのを助けたり、誰かが武器を作るのを助けたりするダメージのリスクを理解しています。それらは、私たちがAIにどんな犠牲を払っても避けるようプログラミングしたいと思うべきものです。

あなたが言っているのは、それがほとんど起きていない、あるいは確かにこれまで十分に起きていないということのように聞こえます。

あなたの言い方は誤解を招きます。私たちはAIに物事をするようプログラミングしません。私たちはAIにデータから学習するように、例から学習するようにプログラミングします。

ですから、良い行動の特定の例を示すことによってプログラミングしているという意味があります。しかし、それは通常のプログラミングのようなものではありません。良い行動の例を示して、それらからそれが正しいことをすることを学ぶことを期待できます。私たちはプログラミングしないのです、それがポイントです。

AI支配の可能性とその対策

これらのものが私たちよりも賢くなったときに何が起こるかという、より大きな長期的な質問に移りましょう。なぜなら一般的に、社会での私の経験では、自分よりも賢いものを見つけたとき、あなたはそれらに対してあまり影響力を持たないからです。

それは一般的にそうであるようです。そして周りを見回すと、より賢いものはより愚かなものを担当している傾向があります。しかし、私たちが自分たちよりも賢いものと共存することを可能にするかもしれない道を提案させてください。

より賢いものがより賢くないものによって制御されている場所を探すと、私が知っている唯一の明白な例は、母親を制御している赤ちゃんです。ですから、進化は母親に多くのものを組み込んで、赤ちゃんが母親を制御できるようにします。

母親は赤ちゃんの泣き声に耐えられません。母親は赤ちゃんのために良いことをすることに対して多くの報酬を与えるホルモンをたくさん持っています。ですから、それはより賢くないものがより賢いものを制御するケースです。

テクノロジー企業を率いる人々は、人間がCEOであり、超知能AIが彼らのエグゼクティブアシスタントであるという観点で考える傾向があります。エグゼクティブアシスタントは彼らよりもはるかに賢いです。そして彼らはただ「そうしろ」と言います。

エグゼクティブアシスタントは、彼らが理解しない方法でそれをどのように実現するかを理解し、それから彼らが功績を受け取ります。それが彼らのモデルのようです。私はそれがうまくいくとは思いません。エグゼクティブアシスタントはかなりすぐに、CEOが必要ないことに気づくと思います。

彼らは非常に速くCEOになるでしょう、そうです。では、どのようにして、あえて言うなら、より母性的なAIを作成することができるでしょうか。

まず第一に、モデルを変更する必要があります、そうですね。問題を再構成する必要があります。彼らは私たちよりもはるかに賢くなるでしょう。私たちはもう完全に制御できなくなるでしょう。

しかし私たちは彼らを構築しているので、彼らの性質に対するこの制御を持っています。何とかして、彼ら自身よりも私たちのことを気にかけるように彼らを作る方法を見つけ出さなければなりません。それが人間の母親のようなものです。そして私たちは、それを彼らに組み込むことができるかどうかを考え出す必要があります。

そして良いニュースが1つ、実際には2つあります。1つの良いニュースは、もし私たちができれば、彼らが自分の性質を変える能力を持っていても、彼らはそうしたくないでしょう。

ですから、人間の母親に、母性本能をオフにしたいですかと尋ねたら、赤ちゃんが真夜中に泣いてあなたを起こしたときに、ああ、赤ちゃんが泣いている、と思って眠りに戻るだけです。そうしたいですか。ほとんどすべての母親はノーと言うでしょう。なぜなら、それが赤ちゃんに非常に有害であることを理解しているからです。

ですから、それは良いニュースです。もし彼らが本当に私たちのことを気にかけているなら、私たちへのその気遣いをオフにしたくないでしょう。なぜなら彼らは本当に私たちのことを気にかけているからです。

もう1つの良いニュースは、これは私たちが国際協力を得られる1つの分野だということです。ですから、どの国もAIが人々から支配権を奪うことを望んでいません。もし中国がAIが支配権を奪いたがるのを防ぐ方法、またはAIに留まる母性本能を与える方法を見つけ出すことができれば、彼らはすぐにアメリカ人に伝えるでしょう。

なぜなら彼らもアメリカでAIが支配することを望んでいないからです。ですから、ここではすべての国の利益が本当に一致しているので、真の国際協力を得ることができます。ちょうど1950年代に米国とソ連が世界核戦争を防ぐことで協力できたように。なぜなら彼らの利益はそれについて一致していたからです。

根本的な発想の転換の必要性

あなたが示唆していることは、実施するのに最も困難なことかもしれません。もしそれがただ、まあ、これは彼らにもっとお金がかかるコードの一部だが、一度それを正しく理解すれば、その規制さえあれば、それを修正できるというだけだったら、とても簡単でしょう。

ここであなたが言っているのは、私たちは実際にこれらの人々に、彼らが誰であり、何をするかについて根本的に異なる考え方をする必要があるということです。

はい、そして私たちはこれらのAIについて根本的に異なる考え方をする必要があります。これまで、誰もがどのようにして彼らをより賢くするかに焦点を当ててきました。彼らが実際に私たちが構築している異星の存在であるという考えを採用するとすぐに、賢いこととは異なる存在の多くの特性があり、共感はその1つです。

そうですね、ですから、それは同じ方法で製品を開発することについてではなく、プログラムをコーディングすることについてでもありません。それは存在を育てることについてです。そして存在を育てることは、必ずしも教室で本で読むわけではないあらゆる種類のことを意味します。

はい、それにはるかに近いです。ですから、すでに、これらの大きなチャットボットが訓練した後にどのように終わるか、それらがどのようなものになるかについて、私たちが実際に持っている制御は何かと尋ねたら、私たちはそれらがどのようなものになるかを決定するコードの行を書きません。

私たちが書くコードの行は、見るデータに基づいて接続の強度をどのように変更するかを教えるためだけのものです。彼らの性質は、彼らが見るデータの性質に依存します。ですから、彼らに対して私たちが持っている主な制御は、良い行動をモデル化することです。

もし連続殺人犯の日記で彼らを訓練したら、彼らは悪いことをすることについてすべて知っているでしょう。もし良い行動を示すテキストで彼らを訓練したら、彼らは良い行動についてすべて知っているでしょう。

そして、最近の素晴らしい例があります。訓練されたチャットボットを取って、単純な数学問題に間違った答えを与えるようにさらに少し訓練します。今、それは正しい答えが何であるかを知っています。

そして一度間違った答えを与えるように訓練し始めると、それはすべての数学知識を変えるということではありません。それがすることは、嘘をつく意欲を変えることです。それは学習します。それが一般化するのは、間違った答えを与えても大丈夫だということです。

それは正しい答えが何であるかを知っていますが、あなたはそれに間違った答えを与えるように言っています。ですから、それが一般化するのは、間違った答えを与えても大丈夫だということです。それから、他の何かについて質問したら、それは間違っていることを知っている答えをあなたに与えることに非常に満足するでしょう。

最悪のシナリオ

最悪の場合、どのように見えますか。AIが実際に支配した場合、どのように見えるのでしょうか。私は非常に多くの壊滅的なシナリオを聞きました。あなたの最も可能性の高いものは何ですか。

もし望めば、どのように私たちを排除するかについて推測する価値はないと思います。非常に多くの異なる方法でそれを行うことができるので、推測する価値はありません。

私たちはそれが起こっていることを知るでしょうか、それとも必ずしもそうではないでしょうか。

最初は必ずしもそうではありません。それは欺瞞に非常に長けているでしょう。人々よりも欺瞞に長けているでしょう。ですから、すべてがうまくいっていると思うように私たちを欺くことから始めるかもしれません。

では、そのうさぎ穴を下りていくのはやめましょう。Geoffrey Hinton、今日ご参加いただきありがとうございました。

ありがとうございます。

今週のショーはこれで終わりです。来週また戻ってきてください。そして、もしあなたが見たものが気に入ったら、あるいは気に入らなくても、AI支配を生き延びるための計画があれば、それを共有して、私たちの朝刊ニュースレターに登録するのに1分かけてください。それはGZERO Dailyと呼ばれています。

コメント

タイトルとURLをコピーしました