Загрузчик видео Bilibili

Самый простой способ скачать видео Bilibili без водяных знаков или логотипа

大模型训练、微调神器:LLaMA-Efficient-Tuning,你值得拥有,保姆级教程~~~

КОНЧИК! Щелкните правой кнопкой мыши и выберите "Save link as..." для загрузки.

VIDEOS
MP4 N/A 480P Скачать
MP4 N/A 480P Скачать
MP4 N/A 360P Скачать
MP4 N/A 360P Скачать
AUDIO
MP4 N/A mp4a.40.5 Скачать
MP4 N/A mp4a.40.5 Скачать
MP4 N/A mp4a.40.5 Скачать
THUMBNAILS
大模型训练、微调神器:LLaMA-Efficient-Tuning,你值得拥有,保姆级教程~~~ JPEG Origin Image Скачать
荀子在《劝学》中说过:君子生非异也,善假于物也。
在人工智能时代,各种各样的工具层出不穷,如何应用这些工具来提高效率呢?

自从上次分享了基于LangChain和ChatGLM2搭建专属知识库以后,很多人都说这个知识库的准确度有点低,有没有什么办法让它聪明一点呢?

首先,准确度低那是因为现有的大模型都是通用的,没经过大家各自领域的专有知识训练。

今天分享的是一个对大模型进行训练、微调的工具,要训练的大模型是我们之前部署的chatGLM2。如果觉得有用,欢迎点赞、转发。

以下是基于阿里云平台PAI的操作步骤。

第一步:安装

git clone https://github.com/hiyouga/LLaMA-Efficient-Tuning.git

cd LLaMA-Efficient-Tuning

python -m venv venv

source ./venv/bin/activate

添加bitsandbytes==0.40.0(白嫖的阿里云机器显存16G,不太够,要装这个包)

pip install -r requirements.txt

CUDA_VISIBLE_DEVICES=0 python src/train_web.py

第二步:训练前测试

大家可以看到,训练之前大模型记得自己的身份就是chatGLM2。

第三步:准备训练数据

这个工具自带了很多的训练数据,我们用其中一个来训练大模型

第四步:训练

训练之前要设定一些参数,参看视频里的操作。如果机器显存小的话,“批处理大小”设为最小值1。

第五步:训练后测试

用我们准备的数据对大模型训练(洗脑)之后,我们发现它记得自己的新身份了,神不神奇?好不好玩?

更多信息请查阅工具的官网:

https://github.com/hiyouga/LLaMA-Efficient-Tuning.git

Поддерживаемые сайты