第一款完全开源的MoE大模型:OLMoE基于5T...

  • AIGCLINK
  • 2024-09-07 02:49:30
第一款完全开源的MoE大模型:OLMoE

基于5T token预训练实现7B总参数、1B活跃参数的MOE专家模型

最大特点:第一个权重、训练数据、代码和日志都是开源胡,为构建moe训练模型提供了POC参考用例

权重:moe
第一款完全开源的MoE大模型:OLMoE基于5T...