PC生态系龙头火力全开 AI PC来势汹汹(1)

随着生成式AI爆红,PC产业三巨头英特尔、超微与微软,都将支援生成式AI作为下一代产品的主要卖点,并希望藉此带动新一波PC换机潮。

自OpenAI正式发表ChatGPT,为AI技术发展再掀一波新热潮以来,生成式AI就一直是科技业内的热门关键字。伺服器与高效能运算无疑是生成式AI风潮的第一波受益者,从晶片供应商到伺服器OEM、ODM,都已经享受到生成式AI所带来的股价跟营收红利。

但如果从过去AI技术的发展历程来看,从云端往边缘及终端装置扩散是必然的方向。生成式AI也不例外。毕竟,基於租赁模式的云端服务虽让使用者省下了硬体投资跟维护的费用,但生成式AI服务的订阅费用其实并不便宜,且部分应用场景对本地推论的需求是强制性的,例如用生成式AI来处理涉及营业秘密或敏感商业资讯的文件,就很不容易说服企业采用云端服务模式。

因此,继伺服器与高效能运算之後,在PC、工作站等终端装置上直接进行生成式AI推论,甚至进行微调,打造出更客制化的应用服务,成为必然的发展趋势。也因为如此,PC产业三巨头英特尔(Intel)、超微(AMD)与微软(Microsoft)无不卯足全力,催生出AI PC这个新的产品类别。

内建NPU为AI PC标准配备

综观目前英特尔与超微目前针对AI PC所端出的方案,可以发现针对AI PC应用,两家CPU业者除了将CPU与GPU整合起来之外,又再额外整合了NPU,以进一步实现对AI应用的加速。藉由添加NPU,超微与英特尔最新的AI PC处理器,都可为笔记型电脑提供超过30TOPS的最大运算能力,以满足未来使用者在笔记型电脑上执行AI应用的需求;某些整合了AI功能的商用套装软体,也可因为处理器平台提供的额外硬体加速资源支援而受益。

换言之,依据当下x86处理器业者的产品定义,AI PC跟传统PC的关键差异,在於NPU的有无,而不是PC是否具备AI运算加速的能力。事实上,以NB为例,即便处理器并未内建NPU,也能透过整合式GPU来实现AI运算加速;若是在高阶电竞NB、桌上型跟工作站这类产品,透过独立GPU来实现AI加速,更是行之有年的作法。

但内建NPU最大的好处,在於能显着提高处理器执行AI应用时的能源效率。英特尔在近期举办的Core Ultra产品发表会上就指出,以Core Ultra 7 165H跟前一代Core i7 1370P相比,透过NPU加速,165H平台在执行Zoom时,功耗可降低38%;执行INT8测试时,在UL Procyon测试软件上的能源效率,则可提高2.5倍。能源效率的大幅改善,不仅让笔记型电脑执行AI运算时,能有更好的电池续航力,同时也对处理器因过热而降频运作,造成性能下降的问题,带来一定程度上的缓解。

因此,AI PC处理器内建NPU的效能,会是处理器厂商之间的重点竞争项目。在这方面,英特尔跟超微所采取的技术路线,就有相当明显的差异。英特尔处理器平台内建的AI Boost是从Movidius演化而来,可视为专为某些运算任务而特化的处理器;超微Ryzen 9 8000系列中所内建的XDNA 2 NPU,则是从赛灵思(Xilinx)的FPGA架构衍生而来。

超微执行长苏姿丰(图1)在日前发表自家新一代AI PC处理器平台时,就很自豪地表示,超微之所以能领先业界,在2023年就将AI PC处理器推向量产,让PC OEM夥伴能卖出数百万台AI PC,关键就在於其处理器内建的NPU技术根源来自於赛灵思。由於赛灵思的技术已相当成熟并广获验证,因此超微的研发团队只花了不到一年时间,就能将其整合到自家的处理器产品中。

图1 超微执行长苏姿丰表示,XDNA技术源自赛灵思的FPGA,不仅久经验证,而且具有优秀的扩展性跟适应性。

也因为超微NPU的技术根源来自赛灵思的FPGA,因此超微的NPU具有跟FPGA非常类似的特性跟优势,例如易於扩展,并且能针对不同运算任务进行调整跟资源分配,具有更好的适应性。事实上,目前的XNDA加速器,可同时为四个AI运算任务进行加速。这也是其他处理器业者的NPU所不具备特殊优势。

PC生态系龙头火力全开 AI PC来势汹汹(1)

PC生态系龙头火力全开 AI PC来势汹汹(2)

PC生态系龙头火力全开 AI PC来势汹汹(3)

黃繼寬

- Advertisement -spot_img
0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x