经常关注我们三易生活的朋友可能知道,我们比较早就关注到了“AI PC”这个技术话题。而且不同于大多数人对早期AI PC就“充满期望”的态度,我们其实真没少对过去几年里的“AI PC行业”,或是某些具体的产品理念提出不满。
比如我们此前就曾指出,比起NPU,如今的CPU和GPU其实都更早就加入了对于AI计算的支持,而当前AI PC行业在软件适配和宣传上过于注重NPU,多少就有点“单纯为了推新产品”的意思。
又比如我们曾指出,一些PC厂商在进行市场宣传时,往往过于注重所谓的“算力数字(TOPs)”。但当消费者真正买到机器就会发现,那些“高TOPs”的NPU实际上没几个应用程序能够适配。
当然,批评的目的并不是批评本身,而是希望如今的厂商在“AI PC”这个课题上能够真正站在消费者的角度去思考,去做一些务实的产品。所以当真的有厂商做出了“好东西”时,我们自然也会对此感到更加欣慰。
2025年的11月20日,也就是在刚刚庆祝完入华40周年后,英特尔方面在此次技术创新与产业生态大会期间召开了一场“AI新技术和软件创新论坛”,秀出了他们在AI PC方面一些更偏实际,对所有用户都可能更有意义的技术成果。
大家都讲“AI PC”,但英特尔确实更实诚
英特尔做了些什么?在今天的此次活动中,他们先是回顾了“AI PC”的发展历程。按照英特尔方面公布的信息,他们将2023年年底发布的Meteor Lake平台看作了自家“AI PC”的起始点,之后便是如今在售的Arrow Lake和Lunar Lake,然后便是已经开始预热、即将正式登场的Panther Lake。
可能有的朋友看到这张PPT会“跳脚”了,刚刚不是说厂商们把CPU、GPU、NPU的算力累加宣传不好么,为什么英特尔“明目张胆”地这么干了却不批评呢?
原因很简单,因为英特尔真有自研的OneAPI,他们的CPU、GPU、NPU能在AI计算里做“异构加速”。不仅如此,英特尔的这套AI加速方案甚至还可以进一步扩充,不仅适用于在笔记本电脑平台上发挥全部的算力潜能,而且还可以同时适配台式机的“CPU+独显”、甚至是企业级的“CPU+AI加速卡”配置上去。
那么这意味着什么?站在开发者的角度来说,这就代表他们不需要针对不同的英特尔硬件去反复切换开发工具,而是可以用一套解决方案就完成从模型训练、蒸馏,到低算力设备端侧部署的整个流程。
要知道,当前虽然所有的PC厂商都在喊“AI加速”,但有些品牌甚至自家NPU和自家GPU都还做不到共用一套AI开发工具。那么在这样的情况下,“平台总算力”这个概念自然也就不是一个完全不能喊的口号,而是要看对应的“平台”是不是真能同时用到全部计算单元的AI性能。很显然,英特尔“有这个资格”。
将消费级平台当“服务器”用?这还真不是噱头
前面所说的还只是一个整体的概念,到了具体的产品实现上,英特尔如今的AI PC设计又有哪些不同之处呢?首先需要关注的是架构部分。具体来说,是不同定位产品之间,在架构设计上的一致性和延续性。
比如针对服务器、超算级别的AI计算需求,英特尔前不久刚刚发布了Xe3P GPU架构,该架构可以视作Xe3的“高性能独显版本”。而Xe3则“恰好”是Panther Lake平台里,核显的架构设计。
与此同时,在高性能工作站领域,英特尔现在有最大48GB显存的ARC B60 Dual专业卡可供AI开发者使用。而ARC B60的架构,也与Lunar Lake平台里的ARC 140V核显“系出同门”。
除此之外,在当下主流的Arrow Lake处理器内部,它所使用的的核显基本也可以认为就是初代ARC独显的“缩小版本”。
这意味着什么呢?一方面当然还是会有利于开发者,让他们在进行模型训练和部署时,不用太担心跨平台之间的架构差异问题。更为重要的是,这也使得英特尔能够将一些企业级的最新平台技术,通过驱动更新和行业合作的方式,快速“下放”给消费级平台,使得终端消费者从中受益。
比如今天英特尔就展示了在Arrow Lake-H平台的三项新技术。其一,就是Arrow Lake的核显现在支持由用户手动指定、更大容量的共享显存分配。比如当安装了128GB内存时,那么用户可以将其中120GB“优先分配”给核显,从而使其能够运行高达120B的本地大模型。
需要注意的是,不同于隔壁的Strix Halo,英特尔的这个核显内存分配无需进入BIOS,而且分配完成后的内存实际上依然是动态的。也就是说如果核显用不到120GB这么大的“共享显存”,那么它依然可以被正常作为内存使用,不需要担心分配之后内存不够用的问题。
当然,有的朋友会说,不是所有的Arrow Lake-H设备都是可以插拔内存的,如果有些笔记本电脑出厂内存容量就焊死了怎么办呢?针对这一点,英特尔联合群联,在消费级平台展示了“aiDAPTIV+”技术。
它将模型存储在高速PCIe 5.0 SSD上,内存里只保留激活的MoE模型。这样一来,就相当于用类似于服务器“傲腾内存”的办法,解决了消费级平台物理内存不够用、跑不了大规模模型的难题。
甚至针对时下流行的“AI Box”超小型AI电脑这一市场需求,英特尔也利用Arrow Lake拿出了他们自己的解决方案。这些巴掌大小的设备凭借英特尔自家的异构计算体系,能够以几十瓦的功耗提供99TOPs的平台算力和120GB的AI内存池。如果用户还有更大规模的弹性计算需求,英特尔也正在开发基于雷电5接口的“双机互联”方案,即将两台AI Box连接在一起,使得其AI算力直接翻倍,足以处理高达235B的MoE模型。
AI PC到底做得好不好,最终还得看用户体验
当然,可能有的朋友会说,讲了这么多,我知道英特尔现在有异构计算,支持将大内存分配给核显,能让消费级平台得到来自专业工作站、服务器的技术下放了,但这些不都只是对AI开发者有利吗,如果只是普通用户,又能从中得到什么好处呢?
还真有。一方面,就在今天的技术展示环节,英特尔不只是“秀”了自家移动平台上的一些AI硬件新特性,同时还在现场展示了包括AI小说续写、AI文档整理、AI端侧声音克隆在内的一系列解决方案。
这些软件成果的背后,其实就是英特尔已经“搞定”的一系列端侧模型适配和AI工具搭建工作。换句话说,英特尔“替”开发者们铺平了道路,从而让实际的AI应用能够更快地在酷睿Ultra系列PC上落地,并且不止服务于最新的一代产品,甚至还可以同时造福于一年、甚至两年前的老设备。
另一方面,纵观整个PC上游行业,英特尔也不仅仅只关注AI开发者,他们对于AI软件的市场落地所提供的助力,可能是同类厂商当中最实际的。
就在今年夏季,英特尔就已联合虎踞龙盘,在华硕、荣耀、小米、惠普等主流PC OEM品牌的应用商店里,上线了专为酷睿Ultra平台适配的“AI PC专区”,大家可以在这些专区下载到已经为英特尔AI PC硬件做了充分优化的知识助手、办公软件、娱乐程序、创作工具,其中绝大部分软件都可以实现“开箱即用”、无需再手动配置。
而这毫无疑问便是将“AI PC”真正落地到每一个消费者,每一台酷睿Ultra PC上的“关键一步”。虽然它的背后可能涉及到英特尔独特的架构设计、涉及到他们自研的AI底层驱动、涉及到一系列对上游开发者的照顾和大量合作伙伴之间漫长的技术攻关,但站在普通消费者的角度来说,大家其实只需要知道用英特尔的电脑,是真的会有大量的“AI软件”实际能用,可以在日常工作生活中发挥助力,这就已经足够了。
下一篇:97个颠覆性技术项目大比拼