本周,华为首次公布了完全用昇腾算力训练的两个大模型——盘古Pro 72B和 盘古Ultra MoE 718B。昇腾算力在全球范围内的实力再次得到验证。昇腾万卡集群在盘古Ultra MoE训练过程中表现出色,算力利用率从30%提升到41%,领先业界。盘古 Pro大模型,参数规模720亿,在权威榜单SuperCLUE中位居前列,技术结果得到公开验证。
来源:@国是直通车
本周,华为首次公布了完全用昇腾算力训练的两个大模型——盘古Pro 72B和 盘古Ultra MoE 718B。昇腾算力在全球范围内的实力再次得到验证。昇腾万卡集群在盘古Ultra MoE训练过程中表现出色,算力利用率从30%提升到41%,领先业界。盘古 Pro大模型,参数规模720亿,在权威榜单SuperCLUE中位居前列,技术结果得到公开验证。
来源:@国是直通车