oobabooga
|
65dda28c9d
Rename --llama-bits to --gptq-bits
|
2 年 前 |
oobabooga
|
fed3617f07
Move LLaMA 4-bit into a separate file
|
2 年 前 |
draff
|
001e638b47
Make it actually work
|
2 年 前 |
draff
|
804486214b
Re-implement --load-in-4bit and update --llama-bits arg description
|
2 年 前 |
ItsLogic
|
9ba8156a70
remove unnecessary Path()
|
2 年 前 |
draff
|
e6c631aea4
Replace --load-in-4bit with --llama-bits
|
2 年 前 |
oobabooga
|
e9dbdafb14
Merge branch 'main' into pt-path-changes
|
2 年 前 |
oobabooga
|
706a03b2cb
Minor changes
|
2 年 前 |
oobabooga
|
de7dd8b6aa
Add comments
|
2 年 前 |
oobabooga
|
e461c0b7a0
Move the import to the top
|
2 年 前 |
deepdiffuser
|
9fbd60bf22
add no_split_module_classes to prevent tensor split error
|
2 年 前 |
deepdiffuser
|
ab47044459
add multi-gpu support for 4bit gptq LLaMA
|
2 年 前 |
rohvani
|
2ac2913747
fix reference issue
|
2 年 前 |
rohvani
|
826e297b0e
add llama-65b-4bit support & multiple pt paths
|
2 年 前 |
oobabooga
|
9849aac0f1
Don't show .pt models in the list
|
2 年 前 |
oobabooga
|
74102d5ee4
Insert to the path instead of appending
|
2 年 前 |
oobabooga
|
2965aa1625
Check if the .pt file exists
|
2 年 前 |
oobabooga
|
828a524f9a
Add LLaMA 4-bit support
|
2 年 前 |
oobabooga
|
e91f4bc25a
Add RWKV tokenizer
|
2 年 前 |
oobabooga
|
c33715ad5b
Move towards HF LLaMA implementation
|
2 年 前 |
oobabooga
|
bd8aac8fa4
Add LLaMA 8-bit support
|
2 年 前 |
oobabooga
|
ed8b35efd2
Add --pin-weight parameter for FlexGen
|
2 年 前 |
oobabooga
|
ea5c5eb3da
Add LLaMA support
|
2 年 前 |
oobabooga
|
659bb76722
Add RWKVModel class
|
2 年 前 |
oobabooga
|
6837d4d72a
Load the model by name
|
2 年 前 |
oobabooga
|
70e522732c
Move RWKV loader into a separate file
|
2 年 前 |
oobabooga
|
ebc64a408c
RWKV support prototype
|
2 年 前 |
oobabooga
|
8e3e8a070f
Make FlexGen work with the newest API
|
2 年 前 |
oobabooga
|
65326b545a
Move all gradio elements to shared (so that extensions can use them)
|
2 年 前 |
oobabooga
|
f6f792363b
Separate command-line params by spaces instead of commas
|
2 年 前 |