AI制图
人工智能(AI)产业繁荣的背后,关于“AI泡沫”的讨论也甚嚣尘上。近日,英特尔前CEO一句“十年内GPU(显卡)将被量子计算取代,AI泡沫终将破裂”的预测,一石千浪。
当前,AI的推进方式极具“暴力美学”:用更多的GPU、耗更多的电、练更大的模型——这条路径的物理极限已隐约可见了。新兴的量子计算,能终结AI泡沫吗?
GPU撑不起AI的“无限狂欢”
OpenAI为训练GPT-4,消耗了2.5万块A100显卡数月的算力。下一代模型的参数规模和训练成本,还在指数级攀升。
这种“堆GPU”的模式,正面临绕不开的坎。
首先是能源不够用。一个大型AI数据中心的功耗,能达到数百兆瓦,相当于一座中等城市的总用电量。GPU能效的改善速度,远远赶不上模型规模的膨胀。
其次是物理到顶了。摩尔定律放缓已是事实,芯片制程逼近原子大小,量子隧穿等物理现象会干扰晶体管工作,传统芯片的提升空间越来越小。
第三是钱烧不起。训练一个前沿大模型要好几亿美元,但模型能力的提升却越来越慢,投入回报比正在持续缩水。
当投入产出比越来越差,资本的热情迟早会冷却。所谓的AI泡沫隐忧,其实就是增长模式的不可持续。
量子计算或重构AI底层逻辑
那么,量子计算能帮AI突破算力“天花板”吗?
首先纠正一个误区:量子计算机不是万能的“超级加速器”,它只对特定问题有指数级优势。其核心优势,在于“量子叠加”和“量子纠缠”带来的并行计算能力。基于深度学习的AI最常用的是大规模矩阵乘法和梯度计算。将现有的神经网络直接“搬”到量子计算机上,显然实现不了算力的飞跃。
真正有潜力的是“量子原生”的机器学习算法。比如,变分量子电路可以当新型神经网络用,量子核方法可以更好地处理高维数据,量子采样技术能加速概率模型的训练。当然,这些方向目前停留在基础阶段,离实际应用还较远。
与其说量子计算会“重构”AI的底层逻辑,不如说它可能为AI开辟一条与经典计算互补的新赛道——不是简单替代,而是融合与扩展。
量子AI的边界与未来
那么,量子AI到底有没有可能成真?
目前业内普遍共识是:长期看好,短期谨慎。
从技术成熟度看,现在的量子计算机还处在“含噪声中等规模量子”(NISQ)时代。量子比特数量少、稳定时间短、错误率高,这些基础问题决定未来5到10年,量子AI很难对经典AI造成实质威胁,至少在AI应用领域是这样。
但长远看,量子AI的前景值得期待。一方面,量子纠错技术在进步,虽然容错量子计算机还得等好几年甚至更久,但技术路线是清晰的。另一方面,量子计算在优化和模拟问题上的天然优势,可能催生出经典计算机做不到的AI应用,进而推动量子计算更广泛的落地。
当前的AI“狂欢”或许蕴含泡沫,但泡沫破裂未必是灾难,也可能是产业走向成熟与理性的契机。量子计算或许不是AI泡沫“终结者”,但必然是推动下一次技术革命的重要力量。
(作者系中国科学院计算技术研究所工程师)
(编辑:吴桐)
来源:中国科普网
地址:内蒙古自治区通辽市经济技术开发区柳荫路东段
(点击导航到附近)