AI2最近发布了全新的开源模型OLMoE,该模型采用稀疏混合专家架构,拥有70亿参数但每个输入标记仅使用10亿参数。
OLMoE在性能和成本方面具有竞争力,推动了开源模型的发展。
OLMoE是AI2发布的新开源模型,性能与成本具备竞争力。
OLMoE采用稀疏混合专家架构,有效降低推理成本和内存需求。
AI2致力于提供全面开源的AI模型,促进学术研究和开发。
AI2最近发布了全新的开源模型OLMoE,该模型采用稀疏混合专家架构,拥有70亿参数但每个输入标记仅使用10亿参数。
OLMoE在性能和成本方面具有竞争力,推动了开源模型的发展。
OLMoE是AI2发布的新开源模型,性能与成本具备竞争力。
OLMoE采用稀疏混合专家架构,有效降低推理成本和内存需求。
AI2致力于提供全面开源的AI模型,促进学术研究和开发。