元象发布了全球首个上下文窗口长度为256K 的开源大模型 XVERSE-Long-256K,支持输入25万汉字,无条件免费商用。
该模型填补了开源生态空白,与元象之前的大模型组成了高性能全家桶。XVERSE-Long-256K 在评测中表现出色,超越了其他长文本模型。通过算法与工程的极致优化,实现了长序列的注意力机制,使窗口长度与模型性能同步提升。
XVERSE-Long-256K 在大规模数据分析、多文档阅读理解、跨领域知识融合等方面有出色的能力,并能推动大模型应用的深层次产业落地。元象还提供了详细的手把手训练教程与技术解析,帮助用户训练长文本大模型。