人工智能芯片研发项目 澜起 和光天地


在全球人工智能技术爆发式增长的当下,AI芯片作为智能算力的核心载体,已成为各国科技竞争的关键赛道。国内企业与科研机构正加速布局自主可控的AI芯片研发,其中“澜起”与“光天地”两大项目凭借差异化的技术路径与精准的市场定位,为国内AI算力生态的构建注入了强劲动力。

“澜起”项目由国内半导体领军企业澜起科技主导,其研发重心锚定AI算力平台的“内存-算力协同”核心痛点。不同于多数企业直接布局通用AI算力芯片,澜起项目立足自身在内存接口领域的技术积累,聚焦解决大模型训练与推理过程中的数据带宽瓶颈——这是制约AI算力释放的关键环节。大模型训练需处理海量数据交互,传统内存接口的传输速率已难以匹配算力需求,澜起项目研发的第三代AI内存缓冲芯片支持HBM3E高带宽内存,单通道数据传输速率突破10Gbps,可将AI服务器的内存带宽提升30%以上,有效缓解大模型训练时的“数据饥饿”问题。此外,项目团队还在推进AI算力加速芯片的研发,通过集成自研的内存优化算法,实现算力与内存的高效协同,目前相关原型芯片已完成实验室测试,适配GPT系列、通义千问等主流大模型,预计2024年底将实现量产,为国内服务器厂商提供高可靠的核心组件,打破海外厂商在高端内存接口芯片领域的长期垄断。

如果说“澜起”项目是从“算力底座”切入筑牢AI算力的电基支撑,那么“光天地”项目则瞄准“光电融合”的前沿方向,探索AI芯片的下一代技术路径。该项目由国内光通信与光计算领域的产学研联合体推动,聚焦于AI高速光互连芯片与光计算芯片的研发,直击传统电基AI芯片功耗高、延迟大的短板。光芯片凭借光子传输的低损耗、高带宽特性,能完美适配大模型训练的海量数据交互需求:光天地项目研发的硅基AI光互连芯片,单链路带宽可达1.6Tbps,功耗仅为传统电互连芯片的1/5,可实现AI服务器集群内的无阻塞高速数据传输;在光计算芯片领域,项目团队基于光子并行计算原理研发的AI推理芯片,在图像识别、自然语言处理等场景下,算力功耗比是传统GPU的8倍以上。目前,光天地项目已与国内头部数据中心达成合作,开展AI光算力集群的试点部署,验证技术的落地可行性。

“澜起”与“光天地”两大项目虽技术路径不同,但共同指向国内AI芯片产业链的自主可控与性能升级。澜起项目解决了AI算力平台的内存带宽瓶颈,为AI算力释放打通“数据通道”;光天地项目则通过光电融合技术,开辟了AI算力提升的新赛道,降低了大模型训练的长期功耗成本。两者的协同发展,将推动国内AI算力生态从“基础组件”到“前沿技术”的全面布局,不仅能支撑国内大模型的自主研发与迭代,还能为智能驾驶、智能制造等垂直行业提供定制化的AI算力解决方案。

在全球AI芯片竞争日趋激烈的背景下,“澜起”与“光天地”项目的稳步推进,彰显了国内科技产业在核心技术领域的攻坚能力。未来,随着两大项目的技术成果持续落地,将进一步缩小我国与海外顶尖AI芯片厂商的差距,为我国人工智能产业的高质量发展筑牢核心算力支撑。

本文由AI大模型(Doubao-Seed-1.8)结合行业知识与创新视角深度思考后创作。