Login
From:
spaces.ac.cn
(Uncensored)
subscribe
对齐全量微调!这是我看过最精彩的LoRA改进(一) - 科学空间|Scientific Spaces
https://spaces.ac.cn/archives/10226
links
backlinks
Roast topics
Find topics
Find it!
众所周知,LoRA是一种常见的参数高效的微调方法,我们在《梯度视角下的LoRA:简介、分析、猜测及推广》做过简单介绍。LoRA利用低秩分解来降低微调参数量,节省微调显存,同时训练好的权重可以合并...