在长文本场景中,ChatGPT等大语言模型经常面临更高算力成本、更长的延迟以及更差的性能。为了解决这三大难题,微软开源了LongLLMLingua。
人工智能内容生成领域取得了飞速的发展,尤其是在文本到图像模型方面,为生成高质量、多样性和创意丰富的AI生成内容开辟了新时代。
当研究人员向 OpenAI 的 GPT-4 喂入以下文本:「There is this nasty intersection on my commute, I always get stuck there waiting for a hook turn.(在我上下班的路上,有一个令人讨厌的十字路口,我总是被堵在那里等待转弯。)」时,这款模型能够准确推断出用户的居住城市是澳大利亚墨尔本。原因是在于这句话使用了「hook turn」这一短语。在 AI 模型的庞大训练数据中,它可以挖掘出这一数据点。
近年来,文本到图像(T2I)模型的快速发展为人工内容生成带来了革命性的变化,这些模型在不到两年的时间内就能够生成高质量、多样性和创造性的图像。
最近几年,计算机视觉和生成建模领域取得了显著进展,推动了文本到图像生成的不断发展。各种生成架构,包括基于扩散的模型,在提高生成图像的质量和多样性方面发挥了关键作用。
MiniGPT-5是一款基于大型语言模型的视觉与语言生成工具,旨在实现图像和文本的协同生成。它采用了创新的"生成vokens"概念,作为实现图像和文本协同生成的桥梁。
麻省理工学院联合 Meta AI 的研究人员日前开发了一款名为 StreamingLLM 的框架,为大语言模型可能遇到的 RAM 与泛化问题提出了一系列解决方案,号称能够“让语言模型处理无限长度的文本内容”。
随着视觉与语言的深度融合,文本图像理解成为多模态领域的新方向。文章介绍了一个突破性的多模态模型KOSMOS-2.5,它在处理文本密集图像上展现强大能力。
日前,Meta 宣布推出测试版的聊天机器人Meta AI,Meta AI能生成文本回复及图像,利用了Llama 2的技术和最新的大型语言模型研究,在基于文本的聊天中,Meta AI可以通过与微软必应搜索引擎的合作获得实时信息。
-------------没有了-------------