EyeDeck
|
39f3fec913
Broaden GPTQ-for-LLaMA branch support (#820)
|
2 yıl önce |
oobabooga
|
3d6cb5ed63
Minor rewrite
|
2 yıl önce |
oobabooga
|
f3a2e0b8a9
Disable pre_layer when the model type is not llama
|
2 yıl önce |
catalpaaa
|
4ab679480e
allow quantized model to be loaded from model dir (#760)
|
2 yıl önce |
OWKenobi
|
ee4547cd34
Detect "vicuna" as llama model type (#772)
|
2 yıl önce |
oobabooga
|
1cb9246160
Adapt to the new model names
|
2 yıl önce |
oobabooga
|
010b259dde
Update documentation
|
2 yıl önce |
oobabooga
|
0bec15ebcd
Reorder imports
|
2 yıl önce |
Maya Eary
|
41ec682834
Disable kernel threshold for gpt-j
|
2 yıl önce |
Maya Eary
|
1c075d8d21
Fix typo
|
2 yıl önce |
Maya Eary
|
c8207d474f
Generalized load_quantized
|
2 yıl önce |
oobabooga
|
49c10c5570
Add support for the latest GPTQ models with group-size (#530)
|
2 yıl önce |
EyeDeck
|
dcfd866402
Allow loading of .safetensors through GPTQ-for-LLaMa
|
2 yıl önce |
oobabooga
|
db4219a340
Update comments
|
2 yıl önce |
oobabooga
|
7618f3fe8c
Add -gptq-preload for 4-bit offloading (#460)
|
2 yıl önce |
oobabooga
|
9a3bed50c3
Attempt at fixing 4-bit with CPU offload
|
2 yıl önce |
askmyteapot
|
53b6a66beb
Update GPTQ_Loader.py
|
2 yıl önce |
oobabooga
|
265ba384b7
Rename a file, add deprecation warning for --load-in-4bit
|
2 yıl önce |