This website works better with JavaScript
ホーム
エクスプローラ
ヘルプ
サインイン
zhengjl
/
text-generation-webui
ウォッチ
1
スター
0
フォーク
0
ファイル
課題
0
プルリクエスト
0
Wiki
ブランチ:
prompt_template_extension
ブランチ
タグ
concatenate-events
dependabot/pip/llama-cpp-python-0.1.32
main
new-qwop
prompt_template_extension
refactor
reformat
reformat2
state_as_function_params
installers
コミット履歴
検索
作者
SHA1
メッセージ
日付
oobabooga
2c52310642
Add --threads flag for llama.cpp
2 年 前
oobabooga
52065ae4cd
Add repetition_penalty
2 年 前
oobabooga
2259143fec
Fix llama.cpp with --no-stream
2 年 前
oobabooga
9d1dcf880a
General improvements
2 年 前
Thomas Antony
7fa5d96c22
Update to use new llamacpp API
2 年 前
Thomas Antony
7a562481fa
Initial version of llamacpp_model.py
2 年 前