Historie revizí

Autor SHA1 Zpráva Datum
  oobabooga 265ba384b7 Rename a file, add deprecation warning for --load-in-4bit před 2 roky
  Ayanami Rei 8778b756e6 use updated load_quantized před 2 roky
  Ayanami Rei e1c952c41c make argument non case-sensitive před 2 roky
  Ayanami Rei 3c9afd5ca3 rename method před 2 roky
  Ayanami Rei edbc61139f use new quant loader před 2 roky
  oobabooga 65dda28c9d Rename --llama-bits to --gptq-bits před 2 roky
  oobabooga fed3617f07 Move LLaMA 4-bit into a separate file před 2 roky
  draff 001e638b47 Make it actually work před 2 roky
  draff 804486214b Re-implement --load-in-4bit and update --llama-bits arg description před 2 roky
  ItsLogic 9ba8156a70 remove unnecessary Path() před 2 roky
  draff e6c631aea4 Replace --load-in-4bit with --llama-bits před 2 roky
  oobabooga e9dbdafb14 Merge branch 'main' into pt-path-changes před 2 roky
  oobabooga 706a03b2cb Minor changes před 2 roky
  oobabooga de7dd8b6aa Add comments před 2 roky
  oobabooga e461c0b7a0 Move the import to the top před 2 roky
  deepdiffuser 9fbd60bf22 add no_split_module_classes to prevent tensor split error před 2 roky
  deepdiffuser ab47044459 add multi-gpu support for 4bit gptq LLaMA před 2 roky
  rohvani 2ac2913747 fix reference issue před 2 roky
  rohvani 826e297b0e add llama-65b-4bit support & multiple pt paths před 2 roky
  oobabooga 9849aac0f1 Don't show .pt models in the list před 2 roky
  oobabooga 74102d5ee4 Insert to the path instead of appending před 2 roky
  oobabooga 2965aa1625 Check if the .pt file exists před 2 roky
  oobabooga 828a524f9a Add LLaMA 4-bit support před 2 roky
  oobabooga e91f4bc25a Add RWKV tokenizer před 2 roky
  oobabooga c33715ad5b Move towards HF LLaMA implementation před 2 roky
  oobabooga bd8aac8fa4 Add LLaMA 8-bit support před 2 roky
  oobabooga ed8b35efd2 Add --pin-weight parameter for FlexGen před 2 roky
  oobabooga ea5c5eb3da Add LLaMA support před 2 roky
  oobabooga 659bb76722 Add RWKVModel class před 2 roky
  oobabooga 6837d4d72a Load the model by name před 2 roky