ローカル環境に向かうAI
2024年5月20日、 Microsoftは自社イベント「 Microsoft Build 2024」で、新しいカテゴリーのWindows PC「Copilot+ PC」を発表しました。
これはAIを巡る各社の競争が、新しい局面に入りつつあることを示唆しているのかと思いながら、発表の記事を読んだわけです。
AIに関連するハード的な要素としては、NVIDIAのGPUが挙げられます。名前の通り、当初はグラフィック周りを処理するユニットであったものが、高い並列計算能力を数値計算に応用すると高速化できることに科学者が気づき、CUDAが発表されます。
以前、ビッグデータが流行しはじめた当初、勉強会、研究会ではHadoopなどの活用方法の発表が多かったわけですが、GPUを使った処理のベンチマークが桁外れだった発表を聞いて大変衝撃を受けた記憶があります。
その後、仮想通貨の採掘ブームでGPUのニーズが飛躍的に伸びたわけですが、あわせてディープラーニングの分野でも飛躍的な進歩を遂げました。AI開発でのデファクトスタンダードとなったわけです。
その一方で、最近のPCにもNPU(Neural Processing Unit)と呼ばれるチップが搭載されています。IntelのCore UltraシリーズやAMD Ryzen7040以降がそれです。いわゆる「AI PC」と呼ばれるものです。
今回の「Copilot+ PC」の発表で驚いたのは、これらの既存のNPUは蚊帳の外であり、ARMアーキテクチャーのQualcomm社のSnapdragonシリーズのみだった点です。これは40TOPS以上という性能要件を満たせるのは現行でこのSoCのみという説明です。Win11はx86とARMの両方をサポートしていますが、アプリの互換性が低い可能性もあるのと、半年後をめどにIntelもARMも対応するNPUをリリースすると発表しているわけで、このため非常に拙速に展開している印象を持ったわけです。それだけAIを巡る市場争いが白熱している裏返しでもありましょう。
「AI PC」「Copilot+ PC」は、PCローカルの環境でAIアプリを動かせるようにすることを狙ったものです。ChatGPTにしても他の大規模LLMにしても、サーバーAIアプリをGUIやAPIで利用するというものです。おおむね1年が経過して見えてきたのは、自社データを学習させると、それらの情報が他社に漏れるという情報セキュリティー上の問題があり、なかなか業務アプリとしての使いどころが難しい点です。
これを突き詰めると持ち運ぶノートPC上でAIアプリがローカルで動けば、コスト、プライバシー、レイテンシーの制限を離れて、個人に特化した作業支援を期待できるようになります。Windows Copilot Runtimeを利用した作業支援機能をサポートするアプリを、どんどん開発して欲しいわけですね。
大手でAIに力を入れている会社といえば、Watsonを有するIBMの印象がありましたが、結果的にスマートフォンの市場では後れを取って撤退してしまったマイクロソフト社が、AIを巡る競争ではOpenAI社の買収をはじめとして着実に外堀を埋めに来ている感じがします。
RPAブームで一回りした感のある業務効率改善の動きも、ローカルAIの利活用という違った角度からの対応が求められるようになるではないでしょうか。