Histórico de Commits

Autor SHA1 Mensagem Data
  oobabooga cacbcda208 Two new options: truncation length and ban eos token há 2 anos atrás
  oobabooga 1911504f82 Minor bug fix há 2 anos atrás
  oobabooga dba2000d2b Do things that I am not proud of há 2 anos atrás
  MarkovInequality 992663fa20 Added xformers support to Llama (#950) há 2 anos atrás
  oobabooga a3085dba07 Fix LlamaTokenizer eos_token (attempt) há 2 anos atrás
  oobabooga 0b458bf82d Simplify a function há 2 anos atrás
  Φφ ffd102e5c0 SD Api Pics extension, v.1.1 (#596) há 2 anos atrás
  oobabooga ea6e77df72 Make the code more like PEP8 for readability (#862) há 2 anos atrás
  oobabooga 113f94b61e Bump transformers (16-bit llama must be reconverted/redownloaded) há 2 anos atrás
  oobabooga 03cb44fc8c Add new llama.cpp library (2048 context, temperature, etc now work) há 2 anos atrás
  catalpaaa 4ab679480e allow quantized model to be loaded from model dir (#760) há 2 anos atrás
  oobabooga 3a47a602a3 Detect ggml*.bin files automatically há 2 anos atrás
  oobabooga 4c27562157 Minor changes há 2 anos atrás
  Thomas Antony 79fa2b6d7e Add support for alpaca há 2 anos atrás
  Thomas Antony 7745faa7bb Add llamacpp to models.py há 2 anos atrás
  oobabooga 1cb9246160 Adapt to the new model names há 2 anos atrás
  oobabooga 53da672315 Fix FlexGen há 2 anos atrás
  oobabooga ee95e55df6 Fix RWKV tokenizer há 2 anos atrás
  oobabooga fde92048af Merge branch 'main' into catalpaaa-lora-and-model-dir há 2 anos atrás
  oobabooga 49c10c5570 Add support for the latest GPTQ models with group-size (#530) há 2 anos atrás
  catalpaaa b37c54edcf lora-dir, model-dir and login auth há 2 anos atrás
  oobabooga a6bf54739c Revert models.py (accident) há 2 anos atrás
  oobabooga a80aa65986 Update models.py há 2 anos atrás
  oobabooga ddb62470e9 --no-cache and --gpu-memory in MiB for fine VRAM control há 2 anos atrás
  oobabooga e26763a510 Minor changes há 2 anos atrás
  Wojtek Kowaluk 7994b580d5 clean up duplicated code há 2 anos atrás
  Wojtek Kowaluk 30939e2aee add mps support on apple silicon há 2 anos atrás
  oobabooga ee164d1821 Don't split the layers in 8-bit mode by default há 2 anos atrás
  oobabooga e085cb4333 Small changes há 2 anos atrás
  awoo 83cb20aad8 Add support for --gpu-memory witn --load-in-8bit há 2 anos atrás