Історія комітів

Автор SHA1 Опис Дата
  oobabooga d88b7836c6 Fix bug in multigpu setups 2 роки тому
  oobabooga e91f4bc25a Add RWKV tokenizer 2 роки тому
  oobabooga a54b91af77 Improve readability 2 роки тому
  oobabooga 8e706df20e Fix a memory leak when text streaming is on 2 роки тому
  oobabooga c33715ad5b Move towards HF LLaMA implementation 2 роки тому
  oobabooga c93f1fa99b Count the tokens more conservatively 2 роки тому
  oobabooga 05e703b4a4 Print the performance information more reliably 2 роки тому
  oobabooga a345a2acd2 Add a tokenizer placeholder 2 роки тому
  oobabooga 5b354817f6 Make chat minimally work with LLaMA 2 роки тому
  oobabooga ea5c5eb3da Add LLaMA support 2 роки тому
  oobabooga 7bbe32f618 Don't return a value in an iterator function 2 роки тому
  oobabooga ff9f649c0c Remove some unused imports 2 роки тому
  oobabooga 955cf431e8 Minor consistency fix 2 роки тому
  oobabooga 831ac7ed3f Add top_p 2 роки тому
  oobabooga 7c4d5ca8cc Improve the text generation call a bit 2 роки тому
  oobabooga 0f6708c471 Sort the imports 2 роки тому
  oobabooga e735806c51 Add a generate() function for RWKV 2 роки тому
  oobabooga f871971de1 Trying to get the chat to work 2 роки тому
  oobabooga ebd698905c Add streaming to RWKV 2 роки тому
  oobabooga 70e522732c Move RWKV loader into a separate file 2 роки тому
  oobabooga ebc64a408c RWKV support prototype 2 роки тому
  oobabooga 6e843a11d6 Fix FlexGen in chat mode 2 роки тому
  oobabooga fa58fd5559 Proper way to free the cuda cache 2 роки тому
  oobabooga 700311ce40 Empty the cuda cache at model.generate() 2 роки тому
  oobabooga 78ad55641b Remove duplicate max_new_tokens parameter 2 роки тому
  oobabooga 65326b545a Move all gradio elements to shared (so that extensions can use them) 2 роки тому
  oobabooga 9ae063e42b Fix softprompts when deepspeed is active (#112) 2 роки тому
  oobabooga 7224343a70 Improve the imports 2 роки тому
  oobabooga 1dacd34165 Further refactor 2 роки тому
  oobabooga ce7feb3641 Further refactor 2 роки тому