你的浏览器版本过低,可能导致网站不能正常访问!为了您能正常使用网站功能,请使用这些浏览器。
chrome
Firefox

工具栏

专为大语言模型训练定制 微软推出高效FP8混合精度训练框架

11月10日消息,来自微软 Azure 和微软研究院的一组研究人员推出了一个高效的 FP8 混合精度框架,专为大型语言模型训练量身定制。

经过测试,与广泛采用的 BF16 混合精度方法相比,FP8 混合精度框架内存占用减少 27% 至 42%,权重梯度通信开销显著降低 63% 至 65%。

运行速度比广泛采用的 BF16 框架(例如 Megatron-LM)快了 64%,比英伟达 Transformer Engine 的速度快了 17%。

在训练 GPT-175B 模型时,混合 FP8 精度框架在 H100 GPU 平台上节省 21% 的内存,而且相比较 TE(Transformer Engine),训练时间减少 17%。

标签: P8

内容由作者提供,不代表易车立场

收藏

收藏成功 ! 去易车app查看收藏文章

猜你想看

+加载更多

活动推荐

广告
  • 奖 
  • 抢 
  • 奖 

CopyRight © 2000-2023 BitAuto,All Rights Reserved. 版权所有 北京易车信息科技有限公司    购车咨询:4000-168-168 (周一至周日 9:00 – 21:00) 法定假日除外