科技魔方

Yandex研究人员推出两种创新LLM压缩方法,可让模型体积缩小8倍

更多动态

2024年07月24日

  近日,在Yandex Research、IST Austria、Neural Magic和KAUST的共同努力下,两种创新的大型语言模型(LLM)压缩方法——加性量化语言模型(Additive Quantization for Language Models, AQLM)和PV-Tuning正式发布。

  这两种方法可以将模型大小减少多达8倍,同时保留95%的响应质量。这项研究成果已经于正在维也纳举行的国际机器学习会议(International Conference on Machine Learning, ICML)上展示。

+1

来源:DoNews

延展资讯