【香港中通社9月8日电】据中国科学院自动化研究所9月8日消息,近日,该研究所李国齐、徐波团队与相关单位合作,成功研发出类脑脉冲大模型「瞬悉1.0」(SpikingBrain-1.0)。
该模型基于团队原创的「内生复杂性」理论构建,在国产GPU平台上完成了全流程训练与推理,显著提升了大模型高效处理极长文本或数据序列的效率和速度,展示了构建国产自主可控的新型(非Transformer)大模型架构生态的可行性。
当前主流的Transformer模型,在处理超长文章或对话时速度会非常慢且成本极高,造成了巨大的资源消耗。可以说,当前大模型的飞速发展,背后是由巨大的资源消耗驱动的。因此,亟需发展一条低功耗高效率的新型大模型路线。
与当前主流大模型架构(Transformer架构)不同,「瞬悉1.0」借鉴大脑神经元内部工作机制,清晰地展示了一条不断提升模型复杂度和性能的新型可行路径。该模型仅需约主流模型2百分之的数据量,就能在多项语言理解和推理任务中达到众多主流模型的性能。
团队表示,这是中国首次提出大规模类脑线性基础模型架构,并首次在国产GPU算力集群上构建类脑脉冲大模型框架。
SpikingBrain-1.0在法律、医学文档分析、复杂多智能体模拟、高能粒子物理实验、DNA序列分析、分子动力学轨迹等超长序列任务中具有显著效率优势,为新一代人工智能发展提供了非Transformer架构的新技术路线,并将推动低功耗神经形态计算理论和芯片设计发展。◇