Parcourir la source

use updated load_quantized

Ayanami Rei il y a 2 ans
Parent
commit
8778b756e6
1 fichiers modifiés avec 1 ajouts et 1 suppressions
  1. 1 1
      modules/models.py

+ 1 - 1
modules/models.py

@@ -91,7 +91,7 @@ def load_model(model_name):
     elif shared.args.gptq_bits > 0:
         from modules.quant_loader import load_quantized
 
-        model = load_quantized(model_name, shared.args.gptq_model_type.lower())
+        model = load_quantized(model_name)
 
     # Custom
     else: