コミット履歴

作者 SHA1 メッセージ 日付
  oobabooga 3c31fa7079 Simplifications 3 年 前
  oobabooga 80fbc584f7 Readability 3 年 前
  oobabooga b397bea387 Make chat history persistent 3 年 前
  oobabooga 7be372829d Set chat prompt size in tokens 3 年 前
  oobabooga 1622059179 Move BLIP to the CPU 3 年 前
  oobabooga d4d90a8000 Merge pull request #76 from SillyLossy/main 3 年 前
  oobabooga 8c3ef58e00 Use BLIP directly + some simplifications 3 年 前
  SillyLossy a7d98f494a Use BLIP to send a picture to model 3 年 前
  oobabooga 79d3a524f2 Add a file 3 年 前
  oobabooga f6bf74dcd5 Add Silero TTS extension 3 年 前
  oobabooga 01e5772302 Update README.md 3 年 前
  oobabooga d910d435cd Consider the softprompt in the maximum prompt length calculation 3 年 前
  oobabooga 8b3bb512ef Minor bug fix (soft prompt was being loaded twice) 3 年 前
  oobabooga 56bbc996a4 Minor CSS change for readability 3 年 前
  oobabooga 210c918199 Update README.md 3 年 前
  oobabooga 2fe9d7f372 Merge branch 'main' of github.com:oobabooga/text-generation-webui 3 年 前
  oobabooga 7739a29524 Some simplifications 3 年 前
  oobabooga b7ddcab53a Update README.md 3 年 前
  oobabooga 3277b751f5 Add softprompt support (for real this time) 3 年 前
  oobabooga aa1177ff15 Send last internal reply to input rather than visible 3 年 前
  oobabooga 61aed97439 Slightly increase a margin 3 年 前
  oobabooga 2c3abcf57a Add support for rosey/chip/joi instruct models 3 年 前
  oobabooga 7ef7bba6e6 Add progress bar for model loading 3 年 前
  oobabooga 939e9d00a2 Update README.md 3 年 前
  oobabooga bf9dd8f8ee Add --text-only option to the download script 3 年 前
  oobabooga 42cc307409 Update README.md 3 年 前
  oobabooga 66862203fc Only download safetensors if both pytorch and safetensors are present 3 年 前
  oobabooga 5d3f15b915 Use the CPU if no GPU is detected 3 年 前
  oobabooga 337290777b Rename example extension to "softprompt" 3 年 前
  oobabooga b3c4657c47 Remove commas from preset files 3 年 前