智鹭

  • 最新推荐
  • AI文字
  • AI工具
  • MCP Servers
  • AI教程
  • AI绘画
  • AI插件
  • AI音乐
  • 数字人
  • 行业报告

大规模预训练

DiT-MoE

DiT-MoE

DiT-MoE是一种基于混合专家的扩展版扩散变换器模型,可扩展至160亿参数。它作为扩散变换器的稀疏版本,具有高度优化的推理能力,在保持与密集网络竞争力的同时实现了可扩展性。
扩散模型 混合专家 大规模预训练

本站所有资源收集整理于网络,本站不参与制作,用于互联网爱好者学习和研究,如不慎侵犯了您的权利,请及时联系站长处理删除。敬请谅解! 侵权删帖/违法举报/投稿等联系邮箱(#替换成@):ai#aiheron.com

vpsmundo gptwebtoolbox
Copyright © 2023 | AiHeron | All Rights Reserved