来源 | 量子位(QbitAI)
编辑 | 梦晨 发自 凹非寺
自动测试分数达到ChatGPT的99.3%,人类难以分辨两者的回答……
这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLdPbHVh5WaM85o4UjDCbMpmP62GicKINho7ZBQHicLVhExcxtzqLF8ibrA/640?wx_fmt=png)
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到<48GB。
开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLRQEiasEw1Pff2Bud9S4r31cIYn1XRibeGPFwXf3JyUjLlEuHricVEpqdw/640?wx_fmt=png)
以Meta的美洲驼LLaMA为基础,得到原驼650亿参数版只需要48GB显存单卡微调24小时,330亿参数版只需要24GB显存单卡微调12小时。
24GB显存,也就是一块消费级RTX3090或RTX4090显卡足以。
不少网友在测试后也表示,更喜欢它而不是ChatGPT。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QL0IzI80cKWekM5Hm7K1Dwjo1azK5oRZAkQmBlW9vA20CibzIw4R9EXsQ/640?wx_fmt=png)
英伟达科学家Jim Fan博士对此评价为:大模型小型化的又一里程碑。
先扩大规模再缩小,将成为开源AI社区的节奏。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QL55kpmDWpluZSEz5YUknKCzeGOzsria66eJJ60CwNKWMrOyy2aC2ibrqw/640?wx_fmt=png)
而新的高效微调方法QLoRA迅速被开源社区接受,HuggingFace也在第一时间整合上线了相关代码。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLtdd6vRZicmLUAP5LNcMcfOq9ks8RVHbicu60AcOZ1iafbaxBl9IwafJmg/640?wx_fmt=png)
GPT-4做裁判,原驼得分达到ChatGPT的99.3%
论文中,团队对原驼总共做了三项测试,自动评估、随机匹配和人类评估。
测试数据来自小羊驼Vicuna和Open Assistant。
自动评估由大模型天花板GPT-4当裁判,对不同模型的回答进行打分,以ChatGPT(GPT3.5)的成绩作为100%。
最终原驼650亿版得分达到ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLXXgEBNdeKrFUk5y7lOibbhd0Bw0WGgIn7mfxxGnulkmia1NESWvwdkNQ/640?wx_fmt=png)
随机匹配,采用棋类专业比赛和电子竞技同款的Elo记分机制,由GPT-4和人类共同做裁判。
原驼650亿和330亿版最终得分超过ChatGPT(GPT3.5)。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLbTicVicUGLdQg0pFQX67TsYKXiaeFRV9Z0eKPeQfFZaYRmviblcntJ3O7Q/640?wx_fmt=png)
人类评估,则是把原驼650亿版的回答和ChatGPT的回答匿名乱序放在一起,人类来盲选哪个最好。
论文共同一作表示,研究团队里的人都很难分辨出来,并把测试做成了一个小游戏放在Colab上,开放给大家挑战。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLT1gf8ibJic2JgCfmjnzCEXicOK3BvqUdrecq7rrOTuuCpgfictlpHTn5IA/640?wx_fmt=png)
这里节选其中一个问题(附中文翻译),你能分辨出哪个是ChatGPT回答的吗?
问题:How can I improve my time management skills?(如何提高时间管理技能?)
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLhzicwHYQjOkF7l3Boo5yl7lvs27wygA1kIGgJ1Mf2iaaTEicJQ4iaYHvyA/640?wx_fmt=png)
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLc1hoCP9Rbzok5GFsicOuCpwh8oz1B8f09YmiaVUNeC2sw2eEVnIgwNSw/640?wx_fmt=png)
(完整测试地址在文末)
总的来说,原驼的优势在于不容易被问题中的错误信息误导,比如能指出地球从来没有被科学界认为是平的。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLWvZkibrjicQBgDQbkHmhWDnNfQca75jh8tZ0PPmFicYH6pcasR6Qq2WLw/640?wx_fmt=png)
以及擅长心智理论(Theory of Mind),也就是能推测理解他人的心理状态。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QL1TicTSzeUpBMsjAqiacuXpsRf7caf60gomOdH9oIunOlZN5icXRvqEVoQ/640?wx_fmt=png)
但原驼也并非没有弱点,团队发发现它不太擅长数学,以及容易用提示注入攻击把要求保密的信息从它嘴里套出来。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLBMjRBib7DyDtCnL95md04RfuVFJkI1KcDHHgOibVaZJJPNrLibMAuM5oQ/640?wx_fmt=png)
也有网友表示,虽然一个模型能在某个数据集上无限接近ChatGPT,但像ChatGPT那样通用还是很难的。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLp6BicxXmMIUQBFQc1G1RWjYd5na93tEsQGTYNLYKLG8iaNnwLelhxUyA/640?wx_fmt=png)
原驼论文的核心贡献是提出新的微调方法QLoRA。
其中Q代表量化(Quantization),用低精度数据类型去逼近神经网络中的高精度浮点数,以提高运算效率。
LoRA是微软团队在2021年提出的低秩适应(Low-Rank Adaptation)高效微调方法,LoRA后来被移植到AI绘画领域更被大众熟知,但最早其实就是用于大语言模型的。
通常来说,LoRA微调与全量微调相比效果会更差,但团队将LoRA添加到所有的线性层解决了这个问题。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLoTBmca2drZLKj37q3VibjyscxMDOqH9qHXhdOhk6dfcOnzObhkgRfdQ/640?wx_fmt=png)
具体来说,QLoRA结合了4-bit量化和LoRA,以及团队新创的三个技巧:新数据类型4-bit NormalFloat、分页优化器(Paged Optimizers)和双重量化(Double Quantization)。
最终QLoRA让4-bit的原驼在所有场景和规模的测试中匹配16-bit的性能。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLic4FUCBePYV711v2NcmsvAx9uGgaekQ2TfTPVgx3AFibiavk5zj5EtvGA/640?wx_fmt=png)
QLoRA的高效率,让团队在华盛顿大学的小型GPU集群上每天可以微调LLaMA 100多次……
最终使用Open Assistant数据集微调的版本性能胜出,成为原驼大模型。
Open Assistant数据集来自非盈利研究组织LAION(训练Stable Diffusion的数据集也来自这里),虽然只有9000个样本但质量很高,经过开源社区的人工仔细验证。
这9000条样本用于微调大模型,比100万条指令微调(Instruction Finetune)样本的谷歌FLAN v2效果还好。
研究团队也据此提出两个关键结论:
数据质量 >> 数据数量
指令微调有利于推理,但不利于聊天
最后,QLoRA的高效率,还意味着可以用在手机上,论文共同一作Tim Dettmers估计以iPhone 12 Plus的算力每个晚上能微调300万个单词的数据量。
这意味着,很快手机上的每个App都能用上专用大模型。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDO1icOficktibjZ3GRtXkM5QLY728gkkG6SJyYzoIJ8CFCOyb9icia3PrAMykLs9GXZORibQ1ibLG09OYoQ/640?wx_fmt=png)
论文:
https://arxiv.org/abs/2305.14314
GitHub:
https://github.com/artidoro/qlora
与ChatGPT对比测试:
https://colab.research.google.com/drive/1kK6xasHiav9nhiRUJjPMZb4fAED4qRHb
330亿参数版在线试玩:
https://huggingface.co/spaces/uwnlp/guanaco-playground-tgi
参考链接:
[1]https://twitter.com/Tim_Dettmers/status/1661379376225697794
[2]https://huggingface.co/blog/4bit-transformers-bitsandbytes
推荐一个人工智能AI公众号,我们每日更新AI行业最新动态,机器学习干货文章,深度学习原创博客,深度学习实战项目,国外最新论文翻译等,为大家分享AI行业的新鲜事,希望大家喜欢。点击下方卡片关注我们吧~ ✄-----------------------------------------------看到这里,说明你喜欢这篇文章,请点击「在看」或顺手「转发」「点赞」。
欢迎微信搜索「panchuangxx」,添加小编磐小小仙微信,每日朋友圈更新一篇高质量推文(无广告),为您提供更多精彩内容。
![](http://mmbiz.qpic.cn/mmbiz_png/7PuqRWWU6zMoOVLzfFjwnzCDnnoBFtHu8pTiaxLLosYuf9QnFFsndFyVNLpEVmyzaRG1iajld2vRutibqgzMiaZvTQ/640?wx_fmt=jpeg)