2026 年以後 AI infra 觀察重點開始從單純 GPU 擴張,延伸到 agentic AI 的 orchestration CPU、host DRAM、rack SSD、ABF 載板、BMC / memory interface、socket / connector 與一般伺服器 ODM。Morgan Stanley 與廣發均把 server CPU 重新定位成 AI 推理 / 智能體工作流的編排核心,但兩者對 2030 TAM 的估算框架不同。
關鍵發現
主題
Morgan Stanley 2026-05-11
廣發 memo 2026-05-14
投資含義
Server CPU TAM
base case 2030 US125bn;bullcaseUS283bn
2025 US26bn增至2030US135bn,CAGR 38%
CPU 從 GPU 附屬 host node 變成 agentic orchestration layer
CPU:GPU 比例
bull case 假設 2030 CPU:GPU 提升到 2:1
推理占 AI workload 90%、GPU:CPU 達 2:1
推理 / agent 工作流越重,CPU 與記憶體配置越上修
DRAM 增量
base case 2030 incremental DRAM 約 74EB;bull case 約 221EB