oobabooga
|
e91f4bc25a
Add RWKV tokenizer
|
2 лет назад |
oobabooga
|
a54b91af77
Improve readability
|
2 лет назад |
oobabooga
|
8e706df20e
Fix a memory leak when text streaming is on
|
2 лет назад |
oobabooga
|
c33715ad5b
Move towards HF LLaMA implementation
|
2 лет назад |
oobabooga
|
c93f1fa99b
Count the tokens more conservatively
|
2 лет назад |
oobabooga
|
05e703b4a4
Print the performance information more reliably
|
2 лет назад |
oobabooga
|
a345a2acd2
Add a tokenizer placeholder
|
2 лет назад |
oobabooga
|
5b354817f6
Make chat minimally work with LLaMA
|
2 лет назад |
oobabooga
|
ea5c5eb3da
Add LLaMA support
|
2 лет назад |
oobabooga
|
7bbe32f618
Don't return a value in an iterator function
|
2 лет назад |
oobabooga
|
ff9f649c0c
Remove some unused imports
|
2 лет назад |
oobabooga
|
955cf431e8
Minor consistency fix
|
2 лет назад |
oobabooga
|
831ac7ed3f
Add top_p
|
2 лет назад |
oobabooga
|
7c4d5ca8cc
Improve the text generation call a bit
|
2 лет назад |
oobabooga
|
0f6708c471
Sort the imports
|
2 лет назад |
oobabooga
|
e735806c51
Add a generate() function for RWKV
|
2 лет назад |
oobabooga
|
f871971de1
Trying to get the chat to work
|
2 лет назад |
oobabooga
|
ebd698905c
Add streaming to RWKV
|
2 лет назад |
oobabooga
|
70e522732c
Move RWKV loader into a separate file
|
2 лет назад |
oobabooga
|
ebc64a408c
RWKV support prototype
|
2 лет назад |
oobabooga
|
6e843a11d6
Fix FlexGen in chat mode
|
2 лет назад |
oobabooga
|
fa58fd5559
Proper way to free the cuda cache
|
2 лет назад |
oobabooga
|
700311ce40
Empty the cuda cache at model.generate()
|
2 лет назад |
oobabooga
|
78ad55641b
Remove duplicate max_new_tokens parameter
|
2 лет назад |
oobabooga
|
65326b545a
Move all gradio elements to shared (so that extensions can use them)
|
2 лет назад |
oobabooga
|
9ae063e42b
Fix softprompts when deepspeed is active (#112)
|
2 лет назад |
oobabooga
|
7224343a70
Improve the imports
|
2 лет назад |
oobabooga
|
1dacd34165
Further refactor
|
2 лет назад |
oobabooga
|
ce7feb3641
Further refactor
|
2 лет назад |