搜索中心

字节豆包大模型团队提出稀疏模型架构,推理成本最高可降低83%

分享至

据豆包大模型团队消息,字节跳动豆包大模型Foundation团队近期提出UltraMem,一种同样将计算和参数解耦的稀疏模型架构,在保证模型效果的前提下解决了推理的访存问题。据介绍,该架构有效解决了MoE推理时高额的访存问题,推理速度较MoE架构提升2-6倍,推理成本最高可降低83%。

豆包大模型1.5Pro正式发布

分享至

1月22日,豆包大模型1.5Pro版本正式发布。团队称模型训练过程中未使用任何其他模型生成的数据。目前,Doubao-1.5-pro已在豆包APP灰度上线,开发者也可在火山引擎直接调用API。