大模型兴起导致算力紧张?专家呼吁国产AI芯片系统应练好“内功”
国产AI芯片系统要练好“内功”
◎本报记者 张家兴
“大模型训练需要大量数据,所以对计算能力的要求非常高。” 在近日举行的首届“AI Tech Day(人工智能技术日)”峰会上,中国工程院院士、清华大学计算机科学与技术系教授郑为民介绍,从去年12月开始,大机型所需AI芯片价格翻倍,国外芯片“一机难求”。 尽管国内已有数十家企业在AI芯片的研发和生产方面取得了长足进展,但国产芯片尚未受到市场的广泛青睐。
对此,与会专家呼吁通过重塑大模型算力生态系统、帮助国产AI芯片系统练好“内功”来解决算力问题。
加强底层研发,提升国产AI芯片的“普惠性”
“如果基于国外芯片编写的软件能够很容易移植到我们国产芯片系统上,用户就会觉得国产芯片好用。” 郑为民认为,由于生态建设不完善,国产芯片目前在大模型训练相关软件的移植表现并不顺畅,因此需要进一步加强底层研发,做好软件研发和工作。开发包括编程框架、并行加速和通信库。
“为了发展AI芯片生态系统,一些国际大公司甚至可以放弃一些高利润的项目和解决方案。” 英博数码首席执行官周巍巍表示,构建生态系统需要调动整个行业的创新力量。 例如,国际公司积极开源一些软件的底层代码,转移给基于芯片的软件开发商,形成以AI芯片为核心的算力体系。
相比提升芯片本身的硬件性能,郑为民认为,更迫切的是通过打造生态系统来提高国产AI芯片的“普惠性”。 “如果算力生态做得很好,即使国产芯片的硬件性能只有国外性能的60%以上,大家也会喜欢用。” 郑为民表示,但如果算力生态搞不好,新软件就跑不了。 软件迁移并不顺利,即使硬件性能达到国外的120%,仍难以转化为有效算力。
为了凝聚行业力量,改变当前大模型算力生态,英博数科联合百川智能、中国计算机学会、清华大学等单位,共同成立北京人工智能创新赋能中心技术委员会。 作为技术委员会顾问,清华大学电子工程系教授王宇表示:“在大模型领域,我们会从软硬件两个方面进行联合优化。在构建通用模型的同时,人工智能服务平台,我们还将推动高性能计算领域智能芯片和高模电路关键技术的研发。”
共同构建基础生态,推动现有算力融合创新
“大模型兴起之前构建的算力利用率较低,无法跟上现阶段大模型在算力上的指数级发展。” 艾瑞咨询工业数字研究院院长徐凡雷表示,为了提高整体算力效率、满足差异化需求,应该建立“智能计算中心”,支持大型模型的万亿级参数计算。 “智能计算中心”可利用现有优质数据中心,通过提升组网能力、协作能力、软硬件适配能力等实现部署。目前,各大节点城市正在建设“万卡”级智能计算中心。
与会专家认为,推动现有算力的融合创新,将进一步提高当前算力的使用效率。 “10000张卡(AI芯片)应该如何连接?是不是每张卡都直接与其他9999张卡连接?如果是的话,中间连接就需要10000次9999张连接卡,成本会非常高。” 郑为民表示,通过最有效的连接来支持模型并行、数据并行等不同需求,是集成创新的关键。
大模型的背后是更复杂的网络架构和智能算法。 如何降低大模型算力的使用门槛,同时降本增效? “‘云’模式是弥合供需不对称、实现普惠算力的有效途径。” 周巍巍表示,通过对现有算力的共享和整合,万卡平台以及配备高效网络交互机制的大型模型训练和推理平台可以被大企业和小微企业共享。 通过承载数据迁移、训练数据库等工具,云平台等基础生态的建立,有望让算力像水、电一样唾手可得。 (科技日报)