微软开源了一款MoE模型:GRIN-MoE 6.6B活跃参数,在编程和数学任务上能力出色 适用于需要强推理能力,特别是代码、数学和逻辑需求,内存
2024-09-20浏览详情
第一款完全开源的MoE大模型:OLMoE 基于5T token预训练实现7B总参数、1B活跃参数的MOE专家模型 最大特点:第一个权重、训练数据、
2024-09-07浏览详情
正在拼命加载中
我是有底线的
没有更多的页面可以加载啦!