自定义数据集使用llama_factory微调模型并导入ollama

Published on Jul 5, 2024

微调 LLaMA-Factory

网页主要介绍了如何使用llama_factory在linux系统下对大型语言模型进行微调,并将微调后的模型导入到ollama框架中。

摘要

本文详细讲解了自定义数据集使用llama_factory进行模型微调的全过程,包括llama_factory的安装、运行、微调数据集的准备、微调过程、模型的导出(包括全精度和量化导出)、微调模型的格式转换和量化、以及最终将模型导入到ollama中。文章指出,所有操作都在linux系统下完成,并提供了具体的命令和步骤。在数据集准备阶段,强调了按照alpaca格式准备训练数据的重要性,并给出了数据集注册的方法和示例。在模型导出阶段,阐述了全精度和量化导出的具体操作。在模型导入ollama阶段,提供了ollama docker的使用方法和Modelfile配置的示例。文章还列出了相关推荐和热门文章,以及如何联系网站的方式。

观点

  1. llama_factory是一个在linux系统下运行的工具,用于微调大型语言模型,支持单卡和多卡运行。
  2. 微调数据集需要按照alpaca格式准备,并且在dataset_info.json中注册,包括数据集名称、文件名和文件的SHA-1哈希值。
  3. 微调过程涉及选择模型、上传数据集、预览数据集内容,并通过web界面启动训练。
  4. 模型导出分为全精度导出和量化导出,需要指定模型路径、适配器路径、最大分块大小和导出量化等级。
  5. 微调模型需要转换格式并量化,以便与ollama兼容,可以使用ollama/quantize的docker工具进行。
  6. 导入ollama的自定义微调模型需要创建一个Modelfile文件,并指定模型文件的存储路径和其他相关参数。
  7. 文章提供了多个参考资源,包括LLaMA-Factory的github仓库、ollama/quantize的docker镜像、以及ollama的官方导入教程。
Read Original Article

《Maeiee成长感悟》- 从北漂到准父亲的生活洞察

生活在快速节奏的都市,作为程序员和即将迎来人生新角色的我,经历了无数难忘的瞬间和深刻的思考。这些体验和感悟,我渴望与你分享。

《Maeiee成长感悟》是一个收集我所有重要生活事件和心得的地方。每一篇文章都是对过去经历的反思和对未来生活的展望,真实记录作为一个程序员、副业探索者、终身学习者、一个准爸爸和一个北漂的多重身份之间的平衡与挑战。

这里没有华丽的辞藻,只有最真实的思考和感受,希望它们能触动你的心弦,也许能在你的生活旅程中提供一些启示和慰藉。