Python知識分享網(wǎng) - 專業(yè)的Python學習網(wǎng)站 學Python,上Python222
如何使用 PEFT庫 中 LoRA? PDF 下載
匿名網(wǎng)友發(fā)布于:2025-04-18 10:27:02
(侵權舉報)
(假如點擊沒反應,多刷新兩次就OK!)

如何使用 PEFT庫 中 LoRA? PDF 下載 圖1

 

 

資料內(nèi)容:

 

三、模型 加入PEFT策略
3.1 模型加載 策略有哪些?
模型加載雖然很簡單,這里涉及到2個時間換空間的大模型顯存壓縮技巧,主要說下load_in_8bit
prepare_model_for_int8_training。
 
3.2 模型顯存占用的部分有哪些?
這里需要介紹一下 兩個模型顯存占用的部分:
1. 靜態(tài)顯存基本由模型參數(shù)量級決定;
2. 動態(tài)顯存在向前傳播的過程中每個樣本的每個神經(jīng)元都會計算激活值并存儲,用于向后傳播時的梯度計算,
這部分和batchsize以及參數(shù)量級相關;
 
3.3 模型顯存占用 優(yōu)化策略?
模型顯存占用 有以下兩種方式:
1. 8bit量化優(yōu)化。該方式只要用于優(yōu)化 靜態(tài)顯存;
2. 梯度檢查優(yōu)化。該方式只要用于優(yōu)化 動態(tài)顯存;