鸿海研究院近日宣布推出首个繁体中文大语言模型FoxBrain,该模型在短短四周内完成了高效且低成本的训练。
FoxBrain基于Meta Llama 3.1架构,拥有70B参数,训练过程由120颗英伟达*** GPU驱动,并采用英伟达Quantum-2 InfiniBand网络进行扩展。该模型最初设计用于集团内部系统,涵盖数据分析、决策支持、文档协作、数学推理、问题解决及代码生成等多种功能。未来,鸿海研究院计划开放FoxBrain的源代码并公开共享,以促进技术的广泛应用和发展。
鸿海研究院近日宣布推出首个繁体中文大语言模型FoxBrain,该模型在短短四周内完成了高效且低成本的训练。
FoxBrain基于Meta Llama 3.1架构,拥有70B参数,训练过程由120颗英伟达*** GPU驱动,并采用英伟达Quantum-2 InfiniBand网络进行扩展。该模型最初设计用于集团内部系统,涵盖数据分析、决策支持、文档协作、数学推理、问题解决及代码生成等多种功能。未来,鸿海研究院计划开放FoxBrain的源代码并公开共享,以促进技术的广泛应用和发展。