集邦咨询:2024年全球ai服务器超160万台
1月18日消息,集邦咨询近日发布报告,预估2024年全球AI服务器(包含AITraining及AIInference)超过160万台,同比增长超过40%。
2025年开始普及
集邦咨询认为2024年下半年陆续有厂商会推出AIPC(算力达到40TOPS),而且伴随着英特尔2024年年底前推出LunarLake,AIPC有望在2025年逐渐普及。
IT之家注:TOPS是TeraOperationsPerSecond的缩写,1TOPS代表处理器每秒钟可进行一万亿次(10^12)操作。
集邦咨询认为有两股主要力量推动AIPC商用和落地:
其一,由终端应用需求推动。微软通过Windows和Office等软件产品,整合各种AI功能,从而推动AIPC的发展。
其二,英特尔通过AIPC推进CPU+GPU+NPU架构,藉此推动发展各种终端AI应用。
Arm要挑战X86
处理器方面,高通去年年底推出的SnapdragonXElite平台,算力可以达到45TOPS,符合AIPC要求;AMD即将推出的Ryzen8000系列(StrixPoint),预估也符合AIPC;而英特尔去年12月推出的MeteorLake,其CPU+GPU+NPU算力仅34TOPS,并不符合微软要求,预估今年推出的LunarLake会超过40TOPS。
值得注意的是,未来高通、英特尔和AMD竞逐AIPC过程,也将牵动x86及Arm两大CPU阵营在EdgeAI市场的竞争。
戴尔、惠普、联想、华硕、宏碁等主要OEM厂商在2024年将陆续开发搭载高通CPU的机型,试图瓜分AIPC蛋糕,会给X86阵营造成一定威胁。
内存要16GB起步
从现有微软针对AIPC的规格要求来看,DRAM基本需求为16GB起步,长期来看,TrendForce集邦咨询认为,AIPC将有机会带动PCDRAM的位元需求年成长,后续伴随着消费者的换机潮,进而加大产业对PCDRAM的位元需求。
内存均采用LPDDR5x
再者,以Microsoft定义的满足NPU40TOPS的CPU而言,共有三款且依据出货时间先后分别为QualcommSnapdragonXElite、AMDStrixPoint及IntelLunarLake。其中,三款CPU的共同点为皆采用 LPDDR5x,而非现在主流采用的DDRSO-DIMM模组,主要考量在于传输速度的提升;以DDR5规格而言,目前速度为4800-5600Mbps,而LPDDR5x则是落于7500-8533Mbps,对于需要接受更多语言指令,及缩短反应速度的AIPC将有所帮助。