4月2日,APUS与战略合作伙伴新旦智能联合训练、研发的千亿MoE(Mixture of Experts)架构大模型,在GitHub上正式开源。从适配低端算力芯片实现行业普惠,到国内*开源的千亿参数MoE架构大模型模型提质增效,APUS-xDAN 大模型4.0(MoE)的应用之风有望来袭。
相比国内其他大模型公司,此次与APUS联合开源大模型的新旦智能略显年轻,但创始团队阵容却颇为豪华:这是一支由清华、伯克利、腾讯、Meta等*学术与工程界精英组成的团队,成员包括全球*的开源AI社区知名开发者、资深腾讯云架构师等,并已于今年3月初,完成了千万级别的天使轮融资,由APUS与AI行业资深投资人周弘扬联合投资。
此次双方强强联合,集成各方优势,让APUS-xDAN 大模型4.0(MoE)在4090之类的低端算力芯片上,综合性能达到了GPT-4 的90%。这一突破,将为中国企业应用大模型技术提供更大价值,进一步通过算法优化成功破解“算力卡脖子”的难题。