您现在的位置是:海口秀英一顿干三碗汽车销售商行 > 一成

Yandex研究人员推出AQLM和PV一筹莫展

海口秀英一顿干三碗汽车销售商行2024-12-04 12:29:49【一成】0人已围观

简介上海/维也纳,2024年7月23日— 在YandexResearch、ISTAustria、NeuralMagic和KAUST的共同努力下,两种创新的大型语言模型LLM)压缩方法——加性量化语言模型A 一筹莫展

上海/维也纳,研究2024年7月23日— 在YandexResearch、推出ISTAustria、研究NeuralMagic和KAUST的推出共同努力下,两种创新的研究大型语言模型(LLM)压缩方法——加性量化语言模型(AdditiveQuantization for Language Models,AQLM)和PV-Tuning正式发布。这两种方法可以将模型大小减少多达8倍,推出一筹莫展同时保留95%的研究响应质量。这项研究成果已经于正在维也纳举行的推出国际机器学习会议(InternationalConference on Machine Learning, ICML)上展示。

Yandex研究人员推出AQLM和PV一筹莫展

AQLM和PV-Tuning的研究关键特点

AQLM:利用传统用于信息检索的加性量化方法进行LLM压缩。即使在极限压缩下,推出该方法也能保持甚至提高模型的研究准确性,使LLM能够在家用计算机等日常设备上运行,推出从而显著减少内存消耗。研究

PV-Tuning:解决模型压缩过程中可能出现的推出误差问题。当AQLM和PV-Tuning结合使用时,研究可以实现最佳效果——紧凑的模型即使在有限的计算资源上也能提供高质量的响应。

方法评估和认可

这些方法的有效性通过对流行的开源模型如LLama2、Mistral和Mixtral的严格评估得到了验证。研究人员压缩了这些大型语言模型,并根据英语基准测试WikiText2和C4评估了答案质量。即使模型被压缩了8倍,繁花似锦它们的答案质量仍保持在令人印象深刻的95%。

AQLM和PV-Tuning的受惠者

新方法为开发和部署专有语言模型和开源LLM的公司提供了巨大的资源节约。例如,压缩后的130亿参数的Llama2模型只需1个GPU即可运行,相比之下,原模型需要4个GPU,从而使硬件成本降低最高达8倍。此举使得初创公司、个人研究者和LLM爱好者能够在他们的日常计算机上运行先进的LLM,譬如Llama。归根结底

探索新的LLM应用

AQLM和PV-Tuning使得在计算资源有限的设备上离线部署模型成为可能,为智能手机、智能音箱及更多设备开辟了新的使用场景。用户可以在这些设备上使用文本和图像生成、语音助手、个性化推荐甚至实时语言翻译等功能,而无需联网。

此外,使用这些方法压缩的模型能够以快达4倍的速度运行,因为它们需要的千疮百孔计算量减少了。

实施和访问

全球的开发人员和研究人员现在可以在GitHub上使用AQLM和PV-Tuning。作者提供的演示材料为有效训练各种应用的压缩LLM提供了指导。此外,开发人员还可以下载已经使用这些方法压缩的流行开源模型。

ICML亮点

Ascientific article by Yandex Research on the AQLM compression methodhas

YandexResearch关于AQLM压缩方法的科学文章已在ICML上发表,这是世界上最负盛名的机器学习会议之一。与ISTAustria和AI初创公司NeuralMagic的研究人员共同撰写的这篇论文标志着LLM压缩技术的重大进步。

关于Yandex:

Yandex是一家全球技术公司,致力于构建由机器学习驱动的智能产品和服务。公司旨在帮助消费者和企业更好地在线上和线下世界中导航。溘然长逝自1997年以来,Yandex一直提供世界级的、本地相关的搜索和信息服务,并开发了市场领先的按需交通服务、导航产品和其他移动应用,服务于全球数百万消费者。

编者按

部署大型语言模型(LLM)在消费级硬件上是一个巨大的挑战,因为模型大小和计算效率之间存在固有的权衡。量化等压缩方法提供了部分解决方案,但通常会牺牲模型性能。寸有所长

为应对这一挑战,YandexResearch、ISTAustria、KAUST和NeuralMagic的研究人员开发了两种压缩方法——加性量化语言模型(AQLM)和PV-Tuning。AQLM将每个模型参数的位数减少到2- 3位,同时在极限压缩场景下保持甚至增强模型准确性。PV-Tuning是一种表示无关的框架(arepresentation-agnostic framework),它概括并改进了现有的微调策略。

AQLM的关键创新包括对权重矩阵的学习加性量化,适应输入变异性,可想而知并在层块之间联合优化代码簿参数。这一双重策略使AQLM在压缩技术领域设立了新的基准。

AQLM的实用性通过其在GPU和CPU架构上的实现得到了验证,使其适用于现实应用。比较分析显示,AQLM可以在不影响模型性能的情况下实现极限压缩,如其在零样本任务中的模型困惑度和准确性指标上显示的优异结果所示。

PV-Tuning在受限情况下提供了收敛保证(convergenceguarantees),并且在高性能模型(如Llama和Mistral)的1-2位向量量化中优于以前的方法。通过利用PV-Tuning,玩火自焚研究人员实现了第一个针对Llama2模型的2位参数的帕累托最优量化。

这些方法的有效性通过对流行的开源模型如LLama2、Mistral和Mixtral的严格评估得到了验证。研究人员压缩了这些大型语言模型,并根据英语基准测试WikiText2和C4评估了答案质量。即使模型被压缩了8倍,它们的答案质量仍保持在令人印象深刻的95%。

很赞哦!(1)

相关文章