Skip to content

实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。该方案简易高效,目标是使此类语言模型能够低能耗广泛部署,并最终在小模型的基座上发生“智能涌现”,力图最小计算代价达成ChatGPT、GPT4、ChatRWKV等人类友好亲和效果。当前可以满足总结、提问、问答、摘要、改写、评论、扮演等各种需求。

License

Notifications You must be signed in to change notification settings

StarRing2022/ChatGPTX-Uni

Repository files navigation

ChatGPTX-Uni

Lora能在不同的大语言模型间集成切换使用吗?(LLAMA-Lora & GLM-Lora集成增强学习)

1.工程介绍:
为找到一种在每种GPT类LLM大语言模型的通用交流方案,并能使得不同模型之间进行互补互足,发挥出集成优势。实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。理论上,任何支持HF格式,可以使用Peft库的两个甚至三个以上的LLM模型都可以利用此方法进行交流和集成。
注意:Peft库新版有变动,请使用本工程的RingPeft库,其基于Peft0.2,但又添入了新版Peft的一些Lora方法。

2.主要代码说明:
llama-finetune.py:基于原英文Alpaca数据集,LLAMA 7B的Lora微调
glm-finetunejsonl.py:基于test.jsonl数据集,GLM 6B的Lora微调
cover_alpaca2jsonl.py:将json数据集转为jsonl数据集
tokenize_dataset_rowsjsonl.py:对jsonl数据集转为transfomers的datasets文件夹
zerofinetune.py:在不进行训练的情况下,仅使用提示工程进行微调
generate.py:架设网页服务

3.使用:
环境:WIN10+Torch1.31+Cuda11.6
python generate.py
test.json仅为2条数据,训练100个epoch,仅供测试

About

实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。该方案简易高效,目标是使此类语言模型能够低能耗广泛部署,并最终在小模型的基座上发生“智能涌现”,力图最小计算代价达成ChatGPT、GPT4、ChatRWKV等人类友好亲和效果。当前可以满足总结、提问、问答、摘要、改写、评论、扮演等各种需求。

Topics

Resources

License

Stars

Watchers

Forks

Packages

No packages published

Languages

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy