Commit Verlauf

Autor SHA1 Nachricht Datum
  oobabooga 83808171d3 Add --share option for Colab vor 3 Jahren
  oobabooga 8d788874d7 Add support for characters vor 3 Jahren
  oobabooga 3121f4788e Fix uploading chat log in --chat mode vor 3 Jahren
  oobabooga 849e4c7f90 Better way of finding the generated reply in the output string vor 3 Jahren
  oobabooga d03b0ad7a8 Implement saving/loading chat logs (#9) vor 3 Jahren
  oobabooga 39bfea5a22 Add a progress bar vor 3 Jahren
  oobabooga 5390fc87c8 add auto-devices when disk is used vor 3 Jahren
  oobabooga 759da435e3 Release 8-bit models memory vor 3 Jahren
  oobabooga 7ace04864a Implement sending layers to disk with --disk (#10) vor 3 Jahren
  oobabooga 93fa9bbe01 Clean up the streaming implementation vor 3 Jahren
  oobabooga c90310e40e Small simplification vor 3 Jahren
  oobabooga 99536ef5bf Add no-stream option vor 3 Jahren
  oobabooga 116299b3ad Manual eos_token implementation vor 3 Jahren
  oobabooga 3cb30bed0a Add a "stop" button vor 3 Jahren
  oobabooga 8f27d33034 Fix another bug vor 3 Jahren
  oobabooga 6c7f187586 Minor change vor 3 Jahren
  oobabooga b3cba0b330 Bug vor 3 Jahren
  oobabooga df2e910421 Stop generating in chat mode when \nYou: is generated vor 3 Jahren
  oobabooga 022960a087 This is the correct way of sampling 1 token at a time vor 3 Jahren
  oobabooga 0f01a3b1fa Implement text streaming (#10) vor 3 Jahren
  oobabooga ca13acdfa0 Ensure that the chat prompt will always contain < 2048 tokens vor 3 Jahren
  oobabooga 6456777b09 Clean things up vor 3 Jahren
  oobabooga 3a99b2b030 Change a truncation parameter vor 3 Jahren
  oobabooga 54bf55372b Truncate prompts to 2048 characters vor 3 Jahren
  oobabooga c7a2818665 Grammar vor 3 Jahren
  oobabooga d973897021 Typo vor 3 Jahren
  oobabooga 47a20638de Don't need this vor 3 Jahren
  oobabooga b55486fa00 Reorganize things vor 3 Jahren
  oobabooga ebf4d5f506 Add --max-gpu-memory parameter for #7 vor 3 Jahren
  oobabooga bb1a172da0 Fix a bug in cai mode chat vor 3 Jahren