Maya Eary 2 년 전
부모
커밋
1c075d8d21
1개의 변경된 파일1개의 추가작업 그리고 1개의 파일을 삭제
  1. 1 1
      modules/GPTQ_loader.py

+ 1 - 1
modules/GPTQ_loader.py

@@ -65,7 +65,7 @@ def load_quantized(model_name):
         model_type = shared.args.model_type.lower()
 
     if model_type == 'llama' and shared.args.pre_layer:
-        oad_quant = llama_inference_offload.load_quant
+        load_quant = llama_inference_offload.load_quant
     elif model_type in ('llama', 'opt', 'gptj'):
         load_quant = _load_quant
     else: