Qualcommは、カスタムデータセンター向けシリコンで大手ハイパースケール顧客を獲得し、2018年に同市場から完全撤退して以来、最も積極的なサーバーインフラへの参入を果たした。
新しいカスタムチップの出荷は、2026年12月に開始される予定だ。
モバイルの巨人からデータセンターの競合へ
Qualcommは2017年にCentriqサーバープロセッサを発売し、ARMベースのチップをIntelの支配に対する電力効率の高い代替として位置づけた。しかし2018年までに、その取り組み全体が打ち切られた。
AI推論という戦略
QualcommはNVIDIAのトレーニング用GPUと正面から競合しようとするのではなく、AIコンピュートスタックの特定の領域、すなわち推論(インファレンス)をターゲットにしている。
同社は、GPU主体の代替製品よりも低消費電力で推論ワークロードを処理するために設計された、カスタムASICベースのAIアクセラレーターを開発している。
Qualcommは2025年8月にこの戦略的方向性を示しており、名前が公表されていないハイパースケーラーとの契約締結は、少なくとも1社の大手顧客にそのアプローチが受け入れられたことを裏付けている。
混雑した複雑な競争環境
NVIDIAは依然として揺るぎないリーダーであり、そのGPUアーキテクチャはトレーニングと推論の両方においてデフォルトのプラットフォームとして機能している。AMDはMIシリーズアクセラレーターで存在感を高めており、IntelはGaudiアクセラレーターの普及を推進し続けている。
AmazonはAWS向けに独自のTrainiumおよびInferentiaチップを開発している。GoogleはTPUを持ち、MicrosoftはMaiaアクセラレーターを独自に開発中だ。
報道によると、Qualcommは新たな地域、特にラテンアメリカでのAI推論ハードウェアの展開も模索しているという。
2026年12月の出荷スケジュールは、同社がカスタムシリコン開発を確実に実行する必要があることを意味する。1社のハイパースケール顧客は実証事例に過ぎず、ビジネスの確立ではない。QualcommはR&D投資を正当化するために、その推論アーキテクチャが複数の大手バイヤーを引き付けられることを証明する必要がある。
Source: https://cryptobriefing.com/qualcomm-data-center-customer-ai-inference/








