全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2023-10-16_选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了

您的位置:首页 >> 新闻 >> 行业资讯

选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了 机器之心编译 选自 ragntune 的博客 编辑:rome rome 通过对 GPT-3.5 和 Llama 2 在不同任务上的微调对比,我们可以得知在什么情况下选择 GPT-3.5,什么情况下选择 Llama 2 或其他模型。 众所周知,对 GPT-3.5 进行微调是非常昂贵的。本文通过实验来验证手动微调模型是否可以接近 GPT-3.5 的性能,而成本只是 GPT-3.5 的一小部分。有趣的是,本文确实做到了。 在 SQL 任务和 functional representation 任务上的结果对比,本文发现: GPT-3.5 在两个数据集(Spider 数据集的子集以及 Viggo functional representation 数据集)上都比经过 Lora 微调的 Code Llama 34B 表现略微好一点。 GPT-3.5 的训练成本高出 4-6 倍,部署成本也更高。 本实验的结论之一是微调 GPT-3.5 适用于初始验证工作,但在那之后,像 Llama 2 这样的模型可能是最佳选择,简单总结一下: 如果你想验证微调是解决特定任务 / 数据集的正确方法,又或者想要一个完全托管的环境,那么微调 GPT-3.5。 如果想省钱、想从数据集中获取最大性能、想要在训练和部署基础设施方面具有更大的灵活性、又或者想要保留一些私有数据,那么就微调类似 Llama 2 的这种开源模型。 接下来我们看看,本文是如何实现的。 下图为 Code Llama 34B 和 GPT-3.5 在 SQL 任务和 functional representation 任务上训练至收敛的性能。结果表明,GPT-3.5 在这两个任务上都取得了更好的准确率。 在硬件使用上,实验使用的是 A40 GPU,每小时约 0.475 美元。 此外,实验选取了两个非常适合进行微调的数据集,Spider 数据集的子集以及 Viggo functional representation 数据集。 为了与 GPT-3.5 模型进行公平的比较,实验对 Llama 进行了最少超参数微调。 本文实验的两个关键选择是使用 Code Llama 34B 和 Lora 微调,而不是全参数微调。 实验在很大程度上遵循了有关 Lora 超参数微调的规则,Lora 适配器配置如下: SQL 提示示例如下: SQL 提示部分展示,完整提示请查看原博客 实验没有使用完整的 Spider 数据集,具体形式如下 department : Department_ID [ INT ] primary_key Name [ TEXT ] Creation [ TEXT ] Ranking [ INT ] Budget_in_Billions [ INT ] Num_Employees [ INT ] head : head_ID [ INT ] primary_key name [ TEXT ] born_state [ TEXT ] age [ INT ] management : department_ID [ INT ] primary_key management.department_ID = department.Department_ID head_ID [ INT ] management.head_ID = head.head_ID temporary_acting [ TEXT ] 实验选择使用 sql-create-context 数据集和 Spider 数据集的交集。为模型提供的上下文是一个 SQL 创建命令,如下所示: CREATE TABLE table_name_12 (class VARCHAR, frequency_mhz VARCHAR, city_of_license VARCHAR) SQL 任务的代码和数据地址:https://github.com/samlhuillier/spider-sql-finetune functional representation 提示的示例如下所示: functional representation 提示部分展示,完整提示请查看原博客 输出如下所示: verify_attribute(name[Little Big Adventure], rating[average], has_multiplayer[no], platforms[PlayStation]) 评估阶段,两个实验很快就收敛了: functional representation 任务代码和数据地址:https://github.com/samlhuillier/viggo-finetune 了解更多内容,请查看原博客。 原文链接: https://ragntune.com/blog/gpt3.5-vs-llama2-finetuning?continueFlag=11fc7786e20d498fc4daa79c5923e198 ?THE END 转载请联系本公众号获得授权 投稿或寻求报道:content@jiqizhixin.com

上一篇:2019-04-07_纨绔少爷、女性大佬、毒舌抖S…品牌凹起人设来可不输流量明星 下一篇:2021-12-28_经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文

TAG标签:

18
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价