loeken
|
52339e9b20
add make/g++ to docker (#1015)
|
2 年 前 |
oobabooga
|
4961f43702
Improve header bar colors
|
2 年 前 |
oobabooga
|
617530296e
Instruct mode color/style improvements
|
2 年 前 |
oobabooga
|
0f1627eff1
Don't treat Intruct mode histories as regular histories
|
2 年 前 |
oobabooga
|
d679c4be13
Change a label
|
2 年 前 |
oobabooga
|
45244ed125
More descriptive download info
|
2 年 前 |
oobabooga
|
7e70741a4e
Download models from Model tab (#954 from UsamaKenway/main)
|
2 年 前 |
oobabooga
|
11b23db8d4
Remove unused imports
|
2 年 前 |
oobabooga
|
2c14df81a8
Use download-model.py to download the model
|
2 年 前 |
oobabooga
|
c6e9ba20a4
Merge branch 'main' into UsamaKenway-main
|
2 年 前 |
oobabooga
|
843f672227
fix random seeds to actually randomize (#1004 from mcmonkey4eva/seed-fix)
|
2 年 前 |
oobabooga
|
769aa900ea
Print the used seed
|
2 年 前 |
oobabooga
|
32d078487e
Add llama-cpp-python to requirements.txt
|
2 年 前 |
Alex "mcmonkey" Goodwin
|
30befe492a
fix random seeds to actually randomize
|
2 年 前 |
oobabooga
|
1911504f82
Minor bug fix
|
2 年 前 |
BlueprintCoding
|
8178fde2cb
Added dropdown to character bias. (#986)
|
2 年 前 |
oobabooga
|
dba2000d2b
Do things that I am not proud of
|
2 年 前 |
oobabooga
|
65552d2157
Merge branch 'main' of github.com:oobabooga/text-generation-webui
|
2 年 前 |
oobabooga
|
8c6155251a
More robust 4-bit model loading
|
2 年 前 |
MarkovInequality
|
992663fa20
Added xformers support to Llama (#950)
|
2 年 前 |
Brian O'Connor
|
625d81f495
Update character log logic (#977)
|
2 年 前 |
oobabooga
|
57f768eaad
Better preset in api-example.py
|
2 年 前 |
oobabooga
|
a3085dba07
Fix LlamaTokenizer eos_token (attempt)
|
2 年 前 |
oobabooga
|
120f5662cf
Better handle spaces for Continue
|
2 年 前 |
oobabooga
|
b27d757fd1
Minor change
|
2 年 前 |
oobabooga
|
d29f4624e9
Add a Continue button to chat mode
|
2 年 前 |
oobabooga
|
170e0c05c4
Typo
|
2 年 前 |
oobabooga
|
34ec02d41d
Make download-model.py importable
|
2 年 前 |
oobabooga
|
f91d3a3ff4
server.py readability
|
2 年 前 |
Usama Kenway
|
ebdf4c8c12
path fixed
|
2 年 前 |