微调Llama 3大模型!简单几步即可轻松打造自己的专属大模型!无需本地配置即可轻松完成!

作者: AI超元域分类: 计算机技术 发布时间: 2024-04-20 18:47:20 浏览:34793 次

微调Llama 3大模型!简单几步即可轻松打造自己的专属大模型!无需本地配置即可轻松完成!

_blayt_man_:
我单位只有个双4090卡的工作站,想用内部报告做数据集微调一个专门生成报告的大模型。报告格式措辞基本都是固定的,有必要做预训练这一步不?看了些教程只看到用lora做监督学习的,不知道lora来预训练效果怎样。我用的微调工具是LLaMA-Factory,里面有个预训练选项

【回复】回复 @AI超元域 : 我不是学这个的最近在自己研究,我的理解是如果要注入知识的话还是需要预训练吧。通用模型可能没涵盖我行业的大部分知识,我想把这些都弄到模型里。之前我研究了下langchain Chat,它可以让模型检索本地知识库,但结合到生成报告里感觉不是特别理想
【回复】你这个用RAG,向量搜索,构建向量数据库来做
【回复】通过提示词就能让大模型输出固定格式的内容。不用微调。大模型是针对通用知识训练的,如果你要让大模型理解专业内容,才需要微调。
四叶花之恋:
这个视频说明了怎么微调,用什么工具微调。不过我觉得效果不是很好,主要是:没有前后对比。 比如我问ollama3 讲一个笑话,它不理解,然后经过我的微调后它理解了。 其次就是,数据微调这块,可以介绍一下,比如楼上有人说中文问题。我们微调,无非就是让它某类问题上更加智能,比如:中文,代码,数学等等,或者某个话题:旅游,摄影等等。 如果能给一个比较通用的例子就更好了

ファルモクヨ:
有没有高质量的中文数据集可以拿来直接用?微调个对中文支持比较好的羊驼3八B本地部署在自己的笔记本上

【回复】回复 @0大冻梨0 :等我出一期如何将网络小说清洗成数据集的视频
【回复】回复 @0大冻梨0 :我在抱脸上看过 17个G的NSFW小说数据而且都清洗过的。[doge]
【回复】回复 @ファルモクヨ :好的
三猫叔不是老法师:
Llama3只有5%的非英文字符,8B我测了几天,中文真是一言难尽,英文回复比gpt有人味,楼主这个训练可以做历史文学类的吗

【回复】回复 @流氓兔666666 :https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat 看看这个,清华已经微调好了一个中文llama3
【回复】回复 @范Sr :谢谢啦,再请教一下,有没有ollma能用的14b或以下的uncensored中文微调版本[脱单doge]
【回复】回复 @AI超元域 :好的,谢谢啦
ファルモクヨ:
在10B以下的开源大模型中,这个羊驼3八B是不是最强的了?(不考虑对中文的支持)

【回复】回复 @故梦思渊_ :完全体很大,量化过后的模型4090加64内存跑gguf没啥问题,会损失性能
【回复】回复 @故梦思渊_ : Q4量化 模型40G 48g单卡应该能跑推理。
zzhield:
想问一下,训练完了后,怎么下载下来,私有化部署呢

【回复】同问,怎么输出和下载gguf文件
L-SGGGG:
请问up,如何把训练好的模型从colab中提取出来,并移动到本地?

【回复】上传到hf,然后下载,你可以看我后续的视频
月下刺猹的迅鸽:
这个微调中有哪里可以缓解幻觉问题吗?

托托coco:
请问下大家,保存了lora adaptor之后,为什么可以直接调用进行推理呢,难道不需要和原本的模型进行合并之后再调用进行推理吗? 有大神稍微解释下吗

【回复】回复 @AI超元域 : @AI超元域 model.save_pretrained_merged("merger_model", tokenizer) 这样对吗?
【回复】保持为全精度的gguf就是合并了
贾开富:
从这个视频其实最适合我们用的,就是关键步,基础模型和训练好的模型(100多兆)合并问题能解决,这模型就可以用了。

楠楠公子ing:
这个参数在哪里定义的啊,提示未定义

bili_43251687820:
up主请问在模型训练过程中得到的output.event文件是表示的什么信息呢?在训练过程中,只打印出损失值。那误差值等其他评价模型的指标如何得到呢?在模型评估中如何大量使用测试集进行测试呢?

bili_43251687820:
请问怎么替换自己的数据集呢。只更改地址吗?可以详细解答一下吗?感谢

【回复】回复 @bili_43251687820 : 真是要哭了,刚买的colab pro 就运行错误,还改不对,真是气人呀
【回复】回复 @AI超元域 : 线上程序运行好像有问题了,运行出错了,在线上更改数据集是怎么操作呢
【回复】请看最新的视频 已经发布好几天了
Emotion122418:
up主,我在huggingface上没看到这个数据集文件,我的目的是替换为我自己的数据集,用我自己的json数据进行微调,我刚开始做大模型微调,望指点!!求。

【回复】可以看最新一期视频 我将数据集的下载链接也放上了
cf17:
我也一直在尝试如何用大模型和本地数据来生成特定行业的文章,通过喂特定行业的文章来让它生成质量高点的文章,但是目前来说用过anything试下来不理想,请问还有其他什么方法吗?

【回复】应该是数据清洗不到位吧

人工智能 llama3 微调 ai llama 大模型 meta LLM aigc AI改变世界 这就是AI

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!

更多相关阅读