大模型训练、微调神器:LLaMA-Efficient-Tuning,你值得拥有,保姆级教程~~~
КОНЧИК! Щелкните правой кнопкой мыши и выберите "Save link as..." для загрузки.
荀子在《劝学》中说过:君子生非异也,善假于物也。
在人工智能时代,各种各样的工具层出不穷,如何应用这些工具来提高效率呢?
自从上次分享了基于LangChain和ChatGLM2搭建专属知识库以后,很多人都说这个知识库的准确度有点低,有没有什么办法让它聪明一点呢?
首先,准确度低那是因为现有的大模型都是通用的,没经过大家各自领域的专有知识训练。
今天分享的是一个对大模型进行训练、微调的工具,要训练的大模型是我们之前部署的chatGLM2。如果觉得有用,欢迎点赞、转发。
以下是基于阿里云平台PAI的操作步骤。
第一步:安装
git clone https://github.com/hiyouga/LLaMA-Efficient-Tuning.git
cd LLaMA-Efficient-Tuning
python -m venv venv
source ./venv/bin/activate
添加bitsandbytes==0.40.0(白嫖的阿里云机器显存16G,不太够,要装这个包)
pip install -r requirements.txt
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
第二步:训练前测试
大家可以看到,训练之前大模型记得自己的身份就是chatGLM2。
第三步:准备训练数据
这个工具自带了很多的训练数据,我们用其中一个来训练大模型
第四步:训练
训练之前要设定一些参数,参看视频里的操作。如果机器显存小的话,“批处理大小”设为最小值1。
第五步:训练后测试
用我们准备的数据对大模型训练(洗脑)之后,我们发现它记得自己的新身份了,神不神奇?好不好玩?
更多信息请查阅工具的官网:
https://github.com/hiyouga/LLaMA-Efficient-Tuning.git