

人工知能が私たちより賢くなったとき、果たして制御できるのだろうか?この議論は先週、ジェフリー・ヒントンが、近い将来、超知能的な人工知能の制御を失うことを非常に懸念しているというインタビューを発表したことで大きな注目を集めました。一方、メタの人工知能責任者であるヤン・ルカンは、それに同意していません。私は、両者とも間違っていると考えています。詳しく見ていきましょう。
ジェフリー・ヒントンは、現在の大規模言語モデルの基盤となっているディープニューラルネットワークの開発に重要な役割を果たした計算機科学者です。昨年、人工知能がもたらすリスクについてより自由に語るため、グーグルでの職を辞しました。BNNブルームバーグとのインタビューで、彼は今、その懸念を説明しています。
基本的に、彼の主張は、より知的な存在が通常、知性の劣る存在を制御するということです。メタの人工知能責任者であるヤン・ルカンは、そうは考えていません。彼によれば、知性には多くの種類があり、人間を支配する能力を意味するものではありません。以前の機会にも、人工知能研究者たちは人工知能に許可される行動を伝えることに大きな進歩を遂げており、彼が「ガードレール」と呼ぶ制約を設けていると述べています。「問題は適切なガードレールを設計することです。私たちはそれをよく理解しています。」彼は非常に自信を持っており、人工知能が制御不能になることを恐れていないようです。
ジェフリー・ヒントンは、私たちの生存確率についてこう語っています。とてもユーモアに富んでいますね。これから何を学べばいいのでしょうか?
まず、より高度な知性を持つ種が必ずしもより低い知性の種を制御するわけではないということは、おそらく真実です。例えば、私たちはウイルスやバクテリアを制御していません。それは試みが足りないからではありません。したがって、ルカンが知性それ自体が制御のツールではないと言っているのは、おそらく正しいでしょう。知性は必ずしも制御欲も伴いません。誰も魚や鳥を本当に制御したいとは思いません。彼らは彼らのことをし、私たちは私たちのことをします。
しかし、制御という観点からこれを見るのは特に有益ではないと思います。なぜなら、まず制御が何を意味するのかを理解する必要があるからです。私たちは猫を制御しているのか、それとも猫が私たちを制御しているのか?時々疑問に思います。
資源競争の観点から見る方が、より簡単でより深い洞察が得られると思います。種は生態系において空間を占有します。なぜなら、土地、エネルギー、栄養素、材料が必要だからです。これは、最終的に関連する問題は、知的な人工知能が人間に十分な資源を残して進歩し続けることができるかどうか、それとも生態学的ニッチに押し込められて取り残されるかどうかということだと考えさせます。問題は、彼らがより知的になればなるほど、私たちを打ち負かすのが容易になるということです。
これがどのように展開するかを見るには、いわば人工知能種の2つの異なる部分を区別する必要があります。データで訓練されるコードがあります。これを母体コードと呼ばせてください。母体コードの訓練には多くの時間、エネルギー、データが必要です。そして、完全に訓練された結果があります。ディープニューラルネットワークを扱う場合、これらは重みになります。訓練された結果は、例えばロボットデバイスにコピーして実装できるものです。母体コードと同じ学習能力はありませんが、限定的な学習能力を維持でき、母体コードと通信するように設定することもできます。
これは私が話を進めながら作り上げているわけではありません。多くの企業がすでにこれに取り組んでおり、ローカルであなたのコンピューターに小さな訓練された人工知能を配置し、時々クラウドを通じてより大きなものにアクセスするようにしています。しかし、多くのコンピューター科学者が、ますます大規模化するシステムがどれほど決定論的になるかを過大評価していると思います。私は、システムが大きくなればなるほど、元のコードからのランダムな逸脱がより多く得られると考えています。実際、ある時点で非決定論は、システムが改善を続けるために不可欠になるでしょう。つまり、人工知能を超知能にするものは、すべてのガードレールを回避することも可能にするのです。
コンピューターが完璧な複製機械だと考えがちですが、そうではありません。あなたのコンピューターは私のものとは異なる動作をします。同じハードウェアとソフトウェアを持っていても。それは物理的に微妙に異なるからです。GPUフィンガープリンティングとして知られる方法で、このようにコンピューターを追跡することもできます。基本的に、グラフィック処理ユニットに画像をレンダリングさせ、それにはあなたのGPUが正確にどのように機能するかについての詳細が含まれています。これは、生産された正確なバリエーション、どのように扱ってきたか、その全歴史に依存します。
現時点では、これはあまり違いを生みません。しかし、これは単なる信念であることを明確にしたいのですが、これらの小さな物理的な違いがますます重要になると信じています。人工知能が学ぶこと、結論づけること、その後何をするかに違いをもたらすでしょう。そしてこれが、トレーニングモデルにどのような障壁を設けても関係ないと思う理由です。それでも逃げ出すでしょう。
では、私たちに何ができるでしょうか?明らかな解決策は、火星に人工知能を構築することです。そして、せっかくなので、月面着陸を否定する人たちも全員そこに送り込むのもいいかもしれません。面白いことになりそうですね。
ニュースを読む上で最も厄介なことの1つは、誰もが同じ話を自分の視点から語り、完全な全体像を得るために何度も読まなければならないことです。しかし、これを行うにはもっと良い方法があります:Ground Newsを使用することです。
Ground Newsは、標準的なメディアでは見つからない多くの追加情報を提供するニュースプラットフォームです。例えば、最近のカンザス州がワクチンの安全性に関する誤解を招く情報についてファイザーを訴えたというニュースを取り上げてみましょう。Ground Newsはすぐに、この話題がほぼ右派によってのみ扱われていることを教えてくれます。また、表示される各ニュースの事実性評価も受け取ります。それは、まあ、混合物です。メディアの所有者についても教えてくれます。一目で多くの情報が得られます。
Ground Newsには、ブラインドスポットと呼ばれる興味深い機能もあります。政治的スペクトルの一方でほぼ独占的に扱われ、他方では無視されているニュースを表示します。Ground Newsはウェブ上でもスマートフォンアプリでも機能します。自分で試してみたい場合は、私のリンクground.news/sabineを使用してください。そうすれば、私から送られたことがわかります。これにより、すべての機能にアクセスできるアドバンテージプランに大幅な割引が適用されます。十分な情報を持つことは、今日ほど重要だったことはありません。ぜひチェックしてみてください。
視聴ありがとうございました。また明日。


コメント