Просмотр исходного кода

The soft prompt length must be considered here too

oobabooga 3 лет назад
Родитель
Сommit
596732a981
1 измененных файлов с 6 добавлено и 0 удалено
  1. 6 0
      server.py

+ 6 - 0
server.py

@@ -505,11 +505,17 @@ def clean_chat_message(text):
     return text
 
 def generate_chat_prompt(text, tokens, name1, name2, context, chat_prompt_size, impersonate=False):
+    global soft_prompt, soft_prompt_tensor
+
     text = clean_chat_message(text)
     rows = [f"{context.strip()}\n"]
     i = len(history['internal'])-1
     count = 0
+
+    if soft_prompt:
+        chat_prompt_size -= soft_prompt_tensor.shape[1]
     max_length = min(get_max_prompt_length(tokens), chat_prompt_size)
+
     while i >= 0 and len(encode(''.join(rows), tokens)[0]) < max_length:
         rows.insert(1, f"{name2}: {history['internal'][i][1].strip()}\n")
         count += 1