Historial de Commits

Autor SHA1 Mensaje Fecha
  oobabooga 83808171d3 Add --share option for Colab hace 3 años
  oobabooga 8d788874d7 Add support for characters hace 3 años
  oobabooga 3121f4788e Fix uploading chat log in --chat mode hace 3 años
  oobabooga 849e4c7f90 Better way of finding the generated reply in the output string hace 3 años
  oobabooga d03b0ad7a8 Implement saving/loading chat logs (#9) hace 3 años
  oobabooga 39bfea5a22 Add a progress bar hace 3 años
  oobabooga 5390fc87c8 add auto-devices when disk is used hace 3 años
  oobabooga 759da435e3 Release 8-bit models memory hace 3 años
  oobabooga 7ace04864a Implement sending layers to disk with --disk (#10) hace 3 años
  oobabooga 93fa9bbe01 Clean up the streaming implementation hace 3 años
  oobabooga c90310e40e Small simplification hace 3 años
  oobabooga 99536ef5bf Add no-stream option hace 3 años
  oobabooga 116299b3ad Manual eos_token implementation hace 3 años
  oobabooga 3cb30bed0a Add a "stop" button hace 3 años
  oobabooga 8f27d33034 Fix another bug hace 3 años
  oobabooga 6c7f187586 Minor change hace 3 años
  oobabooga b3cba0b330 Bug hace 3 años
  oobabooga df2e910421 Stop generating in chat mode when \nYou: is generated hace 3 años
  oobabooga 022960a087 This is the correct way of sampling 1 token at a time hace 3 años
  oobabooga 0f01a3b1fa Implement text streaming (#10) hace 3 años
  oobabooga ca13acdfa0 Ensure that the chat prompt will always contain < 2048 tokens hace 3 años
  oobabooga 6456777b09 Clean things up hace 3 años
  oobabooga 3a99b2b030 Change a truncation parameter hace 3 años
  oobabooga 54bf55372b Truncate prompts to 2048 characters hace 3 años
  oobabooga c7a2818665 Grammar hace 3 años
  oobabooga d973897021 Typo hace 3 años
  oobabooga 47a20638de Don't need this hace 3 años
  oobabooga b55486fa00 Reorganize things hace 3 años
  oobabooga ebf4d5f506 Add --max-gpu-memory parameter for #7 hace 3 años
  oobabooga bb1a172da0 Fix a bug in cai mode chat hace 3 años