首页 小说推荐 实时讯息 百科知识 范文大全 经典语录
当前位置: 首页 > 实时讯息 >

大模型训练时间砍半,百度飞桨框架3.0正式版发布

0次浏览     发布时间:2025-04-02 18:15:00    

4月1日,中国首个自主研发、开源开放、功能丰富的深度学习平台飞桨,宣布新一代飞桨框架3.0正式发布,以“动静统一自动并行”等五大核心技术创新为大模型训推提速。

飞桨框架3.0从设计理念上实现了从底层硬件适配到顶层开发体验的全面进化,在训练效率、性能、兼容性等关键指标上建立了新标杆。其中,“动静统一自动并行”“大模型训推一体”“科学计算高阶微分”“神经网络编译器”“异构多芯适配”这五大技术新特性,系统性解决了当前大模型产业面临的训练成本高、推理效率低、硬件适配难等核心痛点。

飞桨提出的“动静统一自动并行”技术,大幅降低大模型开发训练成本,让算法创新回归核心价值创造;同时,“训推一体”设计理念打破了训练与推理的割裂状态,通过全方位深度优化,飞桨框架3.0能够支持众多开源大模型进行高性能推理,并在DeepSeek V3/R1上取得了突出的性能表现。

目前,飞桨框架3.0支持文心4.5、文心X1等多款主流大模型,DeepSeek-R1满血版单机部署吞吐提升一倍。通过技术算法创新,飞桨让低时延、高吞吐、低算力成本的推理服务成为了现实。

同时,在科学智能领域,飞桨框架3.0锚定科学前沿探索需要,提升微分方程求解速度。通过高阶自动微分和神经网络编译器技术,加速微分方程求解,速度比PyTorch开启编译器优化后的2.6版本平均快115%。飞桨还对DeepXDE、Modulus 等主流开源科学计算工具进行了广泛适配,并成为 DeepXDE 的默认推荐后端。其展现的科学智能潜力在气象预测、生命科学、航空航天等领域具有应用价值。

此外,在运算速度上,借助创新研制的神经网络编译器CINN,实现性能的显著提升,部分算子执行速度提升4倍,模型端到端训练速度提升27.4%。

在硬件适配方面,飞桨框架3.0推出了多芯片统一适配方案,构建“一次开发,全栈部署”的生态体系。目前已支持60余款主流芯片,覆盖训练集群、自动驾驶、智能终端等场景,开发者只需编写一份代码即可实现跨芯片无缝迁移,硬件适配成本直降80%。

南方+记者 郜小平

【作者】 郜小平

【来源】 南方报业传媒集团南方+客户端

相关文章:

神州数码郭为:DeepSeek最大贡献在于通过开源推动AI惠普04-03

版权伦理引发争议,艺术价值遭遇拷问,“吉卜力风”AI图片成政界新宠04-03

大模型训练时间砍半,百度飞桨框架3.0正式版发布04-02

先行一步谋突破04-01

2025中关村论坛年会|朱啸虎再谈AI:不能仅依赖技术,实现商业化至关重要03-31

三六零跌1.24%,该股筹码平均交易成本为12.00元,近期筹码减仓,但减仓程度减缓03-31