
5,136 文字

Googleが最先端の量子チップ、Willowを発表しました。Google Quantum AIの創設者兼リーダーによる記事を見ていきましょう。その前に、これを理解する上で重要な概念がいくつかあります。AIの進歩が壁に突き当たったと言われていたことを覚えていますか?それを念頭に置きながら見ていきましょう。私から見ると、その指数関数的な進歩は、ますます急激になっているように思えます。想像以上に大きな進歩なのです。
これがGoogleの量子コンピュータです。理論上、現在利用可能な最高のスーパーコンピュータが何十億年もかかる問題を、5分で解決できる可能性があります。この量子コンピュータと世界最大のスーパーコンピュータ、いわゆる従来型のコンピュータを比較すると、この量子コンピュータは5分で終わる計算が、最大のスーパーコンピュータでは現在の宇宙の年齢よりも長い時間がかかることになります。
量子コンピュータがなぜそれほど高速で、驚異的で、未来的なのでしょうか。私たちが使用している通常の従来型コンピュータは、ビット、つまり1と0で動作します。例えば電気スイッチのように、オンかオフのどちらかしかありません。量子コンピュータは量子ビット(キュービット)で動作します。スペルには5通りほどの表記がありますが、要点は、単にオンかオフではなく、重ね合わせと呼ばれる両方の組み合わせの状態で存在するということです。
ビットは決定論的で、固定された状態(オンかオフ)で存在します。一方、キュービットは確率論的で、その状態は確率によって定義されます。部屋の中に電気スイッチがある状況を想像してみてください。ビットの場合、部屋の明かりはオンかオフのどちらかで、それが見えます。キュービットを理解するには、同じ部屋でドアが閉まっていて、外から中が見えない状況を想像してください。明かりがついているかどうかはわかりませんが、オンかオフである確率はわかります。例えば、オンである確率が10%、オフである確率が90%といった具合です。
100%どちらかの状態にありますが、見るまでどちらなのかはわかりません。閉まったドアの向こうの部屋、それが重ね合わせ状態です。キュービットはオンでもオフでもなく、ある意味で両方の状態に部分的に存在し、それぞれに特定の確率があるのです。
キュービットが計算能力と速度の面で非常に優れている理由は、従来型のビットでは、ビット数を増やすにつれて、コンピュータの能力や速度が直線的に向上するのに対し、ビット数を2倍にすれば能力も2倍になります。1ビットは1つの状態を、10ビットは10の状態を表現できます。
1つのキュービットでは、その1つのキュービットが2つの状態を同時に表現します。オンとオフの両方の状態をある確率で表現するのです。つまり、1つのキュービットで両方の状態を表現でき、2つのキュービットは4つの状態を、10のキュービットは1000以上の状態を表現できます。指数関数的にスケールするのです。つまり、キュービットを1つ追加するごとに、特定の問題を解決するコンピュータの能力が指数関数的に向上します。
ただし、これには大きな注釈があります。これは特定の問題に対してのみ当てはまります。量子もつれとそれを実際の計算にどのように使用するかについて、さらに詳しく説明する必要がありますが、重要なポイントは、キュービットは非常にエラーを起こしやすいということです。これらのキュービットを計算に使用する際、エラー率が非常に高くなります。
数週間前、Googleはこれを発表しました。これはチップではありません。これはWillowではありません。これはGoogleのDeepMindとAIチームの一部で、Alpha Cubitと呼ばれています。Alpha Cubitは量子コンピューティングの最大の課題の1つに取り組みます。この新しいAIシステムは、量子コンピュータ内のエラーを正確に特定し、この新技術をより信頼性の高いものにするのに役立ちます。
AlphaGo、AlphaFold、Alpha Chipなどと同じシステム、あるいは若干修正されたシステム、それがGoogle DeepMindテクノロジーの多くのバックボーンとなっているアルファシステムです。この場合、それは量子エラーを修正するために使用されています。Alpha Cubitは、これらの量子的な誤りが発生した時を認識するニューラルネットワークです。また、非常にスケーラブルで高速です。他の正確な技術もありますが、それらは遅く、実用的ではありません。Alpha Cubitは高速で、スケーラブルで、正確です。
では、これらを踏まえて、Willowに話を戻しましょう。この最先端の量子チップが発表されたばかりです。このWillowチップには2つの主要な成果があります。1つ目は、より多くのキュービットを使用してスケールアップする際に、Willowは指数関数的にエラーを減少させることができるということです。つまり、より多くのキュービットで処理能力が上がり、エラーは指数関数的に減少します。これは、量子エラー訂正において、この分野が約30年間追求してきた重要な課題を解決します。
2つ目は、先ほど言及したことですが、Willowは標準的なベンチマーク計算を5分以内で実行しました。これは、今日の最速のスーパーコンピュータでは10セプティリオン年かかる計算です。これは宇宙の年齢をはるかに超える数字です。
ここで理解すべき重要なことは、彼らが「閾値以下」と呼ぶものを達成したということです。量子コンピュータには、環境と急速に情報を交換する傾向があります。これは一種のエラー率で、データは保護されておらず、情報は保護されていません。そのため、これらの計算を実行しようとする際、より多くのキュービットを追加してスケールアップしようとすると、そのエラー率は急上昇し、ますますエラーが発生しやすくなります。
閾値以下とは、その反対のような状態です。キュービットの数を増やすにつれて、エラーの数を減らすことができるのでしょうか。つまり、計算能力は上がり、エラーは計算能力の向上によって引き起こされる率よりも大きな率で減少するのです。
今日、NatureでGoogleは、Willowでより多くのキュービットを使用するほど、エラーが減少し、システムがより量子的になるという結果を発表しました。この歴史的な成果は、この分野では閾値以下として知られています。キュービットの数をスケールアップしながらエラーを減少させることができ、閾値以下の最初のシステムとして、これは今日までに構築された、スケーラブルな論理キュービットの最も説得力のあるプロトタイプです。これは、有用な非常に大規模な量子コンピュータが実際に構築できるという強力な兆候です。
このような成果の一部は信じられないほど素晴らしく、進歩も驚くべきものですが、まだ現実世界での実用的なアプリケーションには至っていないことを理解することが重要です。
Googleとチームにとって次の大きなステップは、今日の量子チップで、現実世界に関連する、従来型を超えた最初の有用な計算を実証することです。つまり、従来型のコンピュータではできない、価値のある、現実世界に有用なことは何ができるのかということです。
これまでは、RCSベンチマークと呼ばれるものを実行してきました。これは性能を測定し、ベンチマークを行う方法の一つですが、実際の世界での応用はまだ知られていません。この装置がどれほど素晴らしい可能性を秘めているかという idea を与えるだけで、実際に有用な問題は解決していません。
また、これらの量子コンピュータで科学的に興味深いシミュレーションを行い、科学的発見もありましたが、それは従来型コンピュータの能力の範囲内です。これらの非常に高度で作るのが難しい量子コンピュータは、まだ私たちに独自のもの、つまり以前にはできなかった有用なことを提供していません。
しかし、AIの進歩に向けて大きな意味を持つ可能性があるため、私の目を引いたのは、Anastasia in Techによるインタビューです。彼女はGoogle Quantum AIのMike Newmanに、これらの量子コンピュータをAIモデルのトレーニングに使用する可能性についてインタビューしています。
おそらくご存知だと思いますが、GPUの不足があります。NVIDIAは途方もない利益を上げていますが、私たちはいくつかの潜在的な制限に直面しています。それは、これらのモデルを動かすために必要な純粋な計算量の問題です。そして、もし私たちが引き続きスケールアップしていくのであれば、新しいハードウェアソリューションが必要になります。量子コンピュータがその量子的飛躍となり得るのでしょうか。聞いてみましょう。
「従来型のハードウェアではトレーニングするには大きすぎるモデルについて、2つの技術は非常に補完的であり、量子コンピューティングがAIを強化する方法もあります。私のチームの一部のメンバーと協力者が示したように、私たちの周りの世界について特定の学習タスクを行う場合、私たちの周りの世界は根本的に量子力学的であり、量子情報を持つ実験を実行する場合、そのデータから学習するために量子コンピュータを使用すると、指数関数的に少ないサンプルで済みます。つまり、従来型のAIが同じことをするよりも指数関数的に効率的なのです。
同時に、私は複数の研究者と議論を行い、AIが一部のコンピューティングアプリケーションを引き継ぐ可能性があることがわかりました。私たちがタンパク質折りたたみで見たように、AIは特定のルールや原則を見つけることができ、この方法で問題の範囲を、従来型マシンで解決できる問題に減らすことができます。」
先ほど述べたように、このブログ投稿はPartm Nevanによって書かれており、彼はGoogle Quantum AIの創設者であり、リーダーです。彼はそのブログ投稿を次のように締めくくっており、私はこれが重要だと思います。
「同僚たちは時々、なぜAIという成長分野を離れて量子コンピューティングに焦点を当てることにしたのかと尋ねてきます。私の答えは、両者が私たちの時代の最も変革的な技術になるだろうということですが、高度なAIは量子コンピューティングへのアクセスから大きな恩恵を受けるでしょう。これが私が私たちの研究所をQuantum AIと名付けた理由です。
量子アルゴリズムには、根本的なスケーリング法則が味方しています。RCSで見られるように、AIにとって不可欠な多くの基本的な計算タスクにも同様のスケーリングの利点があります。そのため、量子計算は、従来型マシンでは利用できないトレーニングデータの収集、特定の学習アーキテクチャのトレーニングと最適化、そして量子効果が重要なシステムのモデリングにとって不可欠になるでしょう。
これには、新しい医薬品の発見を助けること、電気自動車用のより効率的なバッテリーの設計、核融合や新しいエネルギー代替品での進歩の加速が含まれます。これらの将来のゲームチェンジングなアプリケーションの多くは、従来型コンピュータでは実現不可能です。これらは量子コンピューティングによってロック解除されるのを待っているのです。」
これについてどう思いますか?確かに、楽しい未来が待っているように見えます。AIは、ますます多くの異なる産業やフロンティアを結びつけるリンチピンのようになってきているように見えます。このハードウェア、これらの量子コンピュータで発生しているエラーを修正する能力を向上させるためにAIを使用するだけでなく、量子コンピュータは次世代のAI、これらのニューラルネットの可能性を引き出せるかもしれません。従来型のコンピューティングではまったく機能しない、あるいは少なくとも、そのサイズのニューラルネットを生成するために必要な膨大な量のデータを処理できない特定のタスクにおいて、より効率的なものとなる可能性があります。
あなたはどう思いますか?これは大きな進展だと思いますか?それとも、これは過大評価されていて、印象的ではありますが、近い将来に実世界での応用は期待できないと思いますか?コメントで教えてください。
ここまでご視聴いただき、ありがとうございます。私の名前はWes Rothです。また次回お会いしましょう。


コメント