История коммитов

Автор SHA1 Сообщение Дата
  oobabooga 8d788874d7 Add support for characters 3 лет назад
  oobabooga 3121f4788e Fix uploading chat log in --chat mode 3 лет назад
  oobabooga 849e4c7f90 Better way of finding the generated reply in the output string 3 лет назад
  oobabooga d03b0ad7a8 Implement saving/loading chat logs (#9) 3 лет назад
  oobabooga 39bfea5a22 Add a progress bar 3 лет назад
  oobabooga 5390fc87c8 add auto-devices when disk is used 3 лет назад
  oobabooga 759da435e3 Release 8-bit models memory 3 лет назад
  oobabooga f9faad4cfa Add low VRAM guide 3 лет назад
  oobabooga 7ace04864a Implement sending layers to disk with --disk (#10) 3 лет назад
  oobabooga 1ce95ee817 Mention text streaming 3 лет назад
  oobabooga 93fa9bbe01 Clean up the streaming implementation 3 лет назад
  oobabooga c90310e40e Small simplification 3 лет назад
  oobabooga 99536ef5bf Add no-stream option 3 лет назад
  oobabooga 116299b3ad Manual eos_token implementation 3 лет назад
  oobabooga 3cb30bed0a Add a "stop" button 3 лет назад
  oobabooga 8f27d33034 Fix another bug 3 лет назад
  oobabooga 6c7f187586 Minor change 3 лет назад
  oobabooga b3cba0b330 Bug 3 лет назад
  oobabooga df2e910421 Stop generating in chat mode when \nYou: is generated 3 лет назад
  oobabooga 022960a087 This is the correct way of sampling 1 token at a time 3 лет назад
  oobabooga 0f01a3b1fa Implement text streaming (#10) 3 лет назад
  oobabooga ca13acdfa0 Ensure that the chat prompt will always contain < 2048 tokens 3 лет назад
  oobabooga 6456777b09 Clean things up 3 лет назад
  oobabooga 3a99b2b030 Change a truncation parameter 3 лет назад
  oobabooga 54bf55372b Truncate prompts to 2048 characters 3 лет назад
  oobabooga 99d24bdbfe Update README.md 3 лет назад
  oobabooga ed1d2c0d38 Update README.md 3 лет назад
  oobabooga 82c50a09b2 Update README.md 3 лет назад
  oobabooga c7a2818665 Grammar 3 лет назад
  oobabooga 3a28865eb2 Update README.md 3 лет назад