【论文阅读】大模型参数高效微调方式——LORA

面向大模型的全参数finetune 需要很高的计算消耗和存储成本,学界开始探索参数高效的微调方法。LoRA就是其中的代表,他在原始的Transformer模型上插入少量的参数,只训练增量的参数就能达到与全参数finetune相同/更优的效果
posted @ 2023-11-01 12:06  HongmingYou  阅读(838)  评论(0编辑  收藏  举报