Histórico de Commits

Autor SHA1 Mensagem Data
  oobabooga c93f1fa99b Count the tokens more conservatively há 2 anos atrás
  oobabooga 05e703b4a4 Print the performance information more reliably há 2 anos atrás
  oobabooga a345a2acd2 Add a tokenizer placeholder há 2 anos atrás
  oobabooga 5b354817f6 Make chat minimally work with LLaMA há 2 anos atrás
  oobabooga ea5c5eb3da Add LLaMA support há 2 anos atrás
  oobabooga 7bbe32f618 Don't return a value in an iterator function há 2 anos atrás
  oobabooga ff9f649c0c Remove some unused imports há 2 anos atrás
  oobabooga 955cf431e8 Minor consistency fix há 2 anos atrás
  oobabooga 831ac7ed3f Add top_p há 2 anos atrás
  oobabooga 7c4d5ca8cc Improve the text generation call a bit há 2 anos atrás
  oobabooga 0f6708c471 Sort the imports há 2 anos atrás
  oobabooga e735806c51 Add a generate() function for RWKV há 2 anos atrás
  oobabooga f871971de1 Trying to get the chat to work há 2 anos atrás
  oobabooga ebd698905c Add streaming to RWKV há 2 anos atrás
  oobabooga 70e522732c Move RWKV loader into a separate file há 2 anos atrás
  oobabooga ebc64a408c RWKV support prototype há 2 anos atrás
  oobabooga 6e843a11d6 Fix FlexGen in chat mode há 2 anos atrás
  oobabooga fa58fd5559 Proper way to free the cuda cache há 2 anos atrás
  oobabooga 700311ce40 Empty the cuda cache at model.generate() há 2 anos atrás
  oobabooga 78ad55641b Remove duplicate max_new_tokens parameter há 2 anos atrás
  oobabooga 65326b545a Move all gradio elements to shared (so that extensions can use them) há 2 anos atrás
  oobabooga 9ae063e42b Fix softprompts when deepspeed is active (#112) há 2 anos atrás
  oobabooga 7224343a70 Improve the imports há 2 anos atrás
  oobabooga 1dacd34165 Further refactor há 2 anos atrás
  oobabooga ce7feb3641 Further refactor há 2 anos atrás