

人工知能という言葉を聞いたとき、何を思い浮かべますか。巨大なデータセンター、何万台もの、何十万台ものGPUが、多くの国々が必要とするよりも多くのエネルギーで稼働しているのを想像しますか。最近ニュースで見かけるのは、大手テクノロジー企業がクラウドに巨大なサーバーファームを構築するために巨額の投資をしているという話ばかりなので、人工知能をそのようなインフラと関連付けるのは正しいでしょう。
しかし、もっと良い方法があるとしたらどうでしょうか。そして、この方法が人工知能の未来のアーキテクチャになる可能性が高いようです。実際、私たちはすでにプライバシー、セキュリティ、レイテンシー、コストを最適化するこの道を進んでいます。そしてそれはすべて、この小さなデバイスから始まるのです。
人工知能の未来と、Qualcommのような最も高速で効率的なモバイルチップを作ることで知られる企業が、エッジデバイスでのコンピューティングに大きな賭けをしている理由についてお話ししましょう。
QualcommはAIイベントに私を招待してくれました。世界で最も影響力のあるチップ企業の1つが、AIの未来をどのように考えているのかを知りたかったので、とてもワクワクしていました。もちろん、彼らはAIに大きな賭けをしています。Qualcommにはこのイベントに招待してくれたこと、そしてこの動画でパートナーシップを組んでくれたことに感謝しています。
実は、彼らも私が信じているAIの未来像と非常によく似たアイデアを持っています。コメントを見る限り、多くの視聴者の皆さんも同じように考えているようです。この未来像は、このGalaxy S24 Ultraのようなエッジデバイスに多くのAIコンピューティングを押し進めることを目指しています。
このチャンネルを見ている方なら、おそらく自分のAIを自分でコントロールできる世界に興奮しているでしょう。それがオープンソースの形であれ、そうでなくても、自分のデバイスでAIを動かすことで、最大限のプライバシーとセキュリティ、最低のコストとレイテンシーを確保できます。
しかし、それは実際にどのように実現するのでしょうか。Qualcommのようなチップ企業は長い間チップの改良を重ねてきました。そして今、特に大規模言語モデルや他のAIを実行するために微調整されたチップをリリースし始めています。
非常に省電力で強力、高速で人工知能の実行に優れたこのチップを使えば、エッジデバイスにロードされたAIで処理することができます。現在、ChatGPTは圧倒的に最もよく知られ、おそらく最も使用されている人工知能ですが、それは変わっていくでしょう。モデルはますます強力になると同時に、はるかに小さくなっています。
本質的に90〜95%のユースケースをカバーできる本当に優れたモデルが、モバイルデバイスで簡単に実行できるレベルまで圧縮されているのです。そして、すでに議論したように、ローカルで実行することのすべての利点が得られます。
プロンプトを入力してインターネットを介してクラウドサーバーに送信し、計算して返してもらう方法は非常に遅くエネルギー効率が悪いです。ちなみに、ChatGPTに送信する1つ1つのプロンプトには莫大なエネルギーがかかります。それよりも、迅速にローカルで実行されるのです。
さらに、オープンソースの小型モデルをはるかに強力にし、どのプロンプトをローカルで実行し、どのプロンプトをコストの高いフロンティアモデルにアウトソースすべきかを決定する調整レイヤーを重ねることを目的とした、多数の論文とオープンソースのコードベースが登場しています。
ここ1ヶ月の間に発表された、小型モデルをはるかに強力にする研究論文とコードの例を2つ挙げましょう。
1つ目は「Mixture of Agents」です。これは複数の小型エージェントが協力して応答を生成するもので、個々のモデル単独よりもはるかに優れた応答を生み出します。その出力はフロンティアモデルに匹敵する傾向があります。
2つ目は、私が非常に興奮している「Route LLM」という論文とコードです。Route LLMは、どのプロンプトをどのモデルに送るべきかを決定する調整レイヤーとして機能します。弱い安価な小型モデルと、強力で高コストのアウトソースモデル(ChatGPTで使用されるようなフロンティアモデル)を設定できます。
Route LLMの論文で分かったのは、実際には90%のユースケースを小型の弱いモデルに送ることができ、すべてをフロンティアモデルに送るよりも80%のコストを節約できるということです。
ここ数ヶ月の間に、このような革新が数多く起こっています。これらすべてを総合すると、実際には大多数のユースケースは、エッジデバイスに収まる小型で効率的なモデルで実行できるのです。そして、これらの革新は止まることはありません。
私たちはより優れたモデル、より優れた量子化手法を手に入れ、より少量のデータからより多くのレバレッジを得るようになるでしょう。これらすべてが、非常に強力で小型のモデルにつながり、携帯電話やラップトップ、デスクトップなどのエッジデバイスにAIの計算を押し進めることになります。
これがQualcommのAIイベントの全体的なテーマでした。では、彼らが披露したデモのいくつかについてお話ししましょう。これらはすべてエッジデバイスで完全に動作するAIです。
まず、私のお気に入りの製品の1つであるLM Studioについて話したいと思います。実は、LM Studioがこのイベントにいることを知りませんでした。創設者がそこにいるのを見て嬉しく驚きました。彼らはQualcommチップで動作するLM Studioのバージョンを披露しました。
このチャンネルをご覧になっている方なら、オープンソースモデルをローカルでデバイス上で実行するためにLM Studioを愛用していることをご存知でしょう。
また、携帯電話やPCだけでなく、車のインターフェースを動かすAIの素晴らしいデモも披露されました。インフォテインメントシステムから、車内であなたに代わってタスクを実行するAIエージェントまで、すべてがQualcommのチップ上で、デバイス上で動作しています。この場合、デバイスはあなたの車です。
彼らは、AIテクノロジーを直接組み込んだインテリジェントなドローンも披露しました。個人用から救助ミッション、配達まで、あらゆる用途のドローンです。
さらに、AIをローカルで実行するために一から設計されたCo-Pilot Plus PCsも披露されました。その多くはSnapdragon X Eliteチップを搭載しています。
また、AIモデルを最適化してアプリケーションにデプロイするためのAI Hubなど、多くのソフトウェアツールも用意されていました。
QualcommはこのS24 Ultraを私に送ってくれて、AndroidにAIがどのように統合されているかを見始めることができました。これはSnapdragon 8 Gen 3チップを搭載しています。
もちろん、このデバイスの一部のAI機能はまだクラウドサービスによって動作していますが、多くの機能は実際にデバイス上のチップによって動作しています。
最もクールな機能の1つは、電話がかかってきたときに、ライブ翻訳ボタンを押すと、言語をリアルタイムで簡単に翻訳してくれることです。これはデバイス上で動作しています。
また、Chat Assistと呼ばれる機能があり、本質的にトーンを変更したり、スペルチェックや翻訳を行ったりすることができます。これは一種のAI文章アシスタントで、あなたのデバイス上で動作します。
もちろん、携帯電話でのAIの最も一般的な使用例の1つは写真です。彼らは写真を素晴らしく見せるためにさまざまなAIを使用しており、それはデバイス上で行われています。例えば、Nightographyと呼ばれる機能があります。
つまり、私の携帯電話上でAIエージェントが24時間365日働き、私に代わって様々なことを行うことができるのです。アポイントメントの設定、メールの返信、イベントの計画、請求書の支払いなど、基本的に何でもできます。私の個人情報にアクセスできるからです。
これは本当にエキサイティングな未来です。Qualcommがこのイベントに私を招待してくれたことに感謝しています。彼らもAIの未来をどのように見ているのかを学ぶことができました。
この動画を楽しんでいただけたなら、ぜひLikeボタンを押し、チャンネル登録をお願いします。次回の動画でお会いしましょう。


コメント