oobabooga 113f94b61e Bump transformers (16-bit llama must be reconverted/redownloaded) vor 2 Jahren
..
GPTQ_loader.py 39f3fec913 Broaden GPTQ-for-LLaMA branch support (#820) vor 2 Jahren
LoRA.py a21e580782 Move an import vor 2 Jahren
RWKV.py 09b0a3aafb Add repetition_penalty vor 2 Jahren
api.py 3f3e42e26c Refactor several function calls and the API vor 2 Jahren
callbacks.py b246d17513 Fix `type object is not subscriptable` vor 2 Jahren
chat.py e94ab5dac1 Minor fixes vor 2 Jahren
deepspeed_parameters.py f38c9bf428 Fix deepspeed (oops) vor 3 Jahren
extensions.py 1edfb96778 Fix loading extensions from within the interface vor 2 Jahren
html_generator.py 8203ce0cac Stop character pic from being cached when changing chars or clearing. (#798) vor 2 Jahren
llamacpp_model.py 2c52310642 Add --threads flag for llama.cpp vor 2 Jahren
llamacpp_model_alternative.py 03cb44fc8c Add new llama.cpp library (2048 context, temperature, etc now work) vor 2 Jahren
models.py 113f94b61e Bump transformers (16-bit llama must be reconverted/redownloaded) vor 2 Jahren
shared.py 378d21e80c Add LLaMA-Precise preset (#767) vor 2 Jahren
text_generation.py 113f94b61e Bump transformers (16-bit llama must be reconverted/redownloaded) vor 2 Jahren
training.py 0c7ef26981 Lora trainer improvements (#763) vor 2 Jahren
ui.py d30a14087f Further reorganize the UI vor 2 Jahren