Jelajahi Sumber

Make chat minimally work with LLaMA

oobabooga 2 tahun lalu
induk
melakukan
5b354817f6
1 mengubah file dengan 1 tambahan dan 1 penghapusan
  1. 1 1
      modules/text_generation.py

+ 1 - 1
modules/text_generation.py

@@ -21,7 +21,7 @@ def get_max_prompt_length(tokens):
     return max_length
     return max_length
 
 
 def encode(prompt, tokens_to_generate=0, add_special_tokens=True):
 def encode(prompt, tokens_to_generate=0, add_special_tokens=True):
-    if shared.is_RWKV:
+    if shared.is_RWKV or shared.is_LLaMA:
         return prompt
         return prompt
 
 
     input_ids = shared.tokenizer.encode(str(prompt), return_tensors='pt', truncation=True, max_length=get_max_prompt_length(tokens_to_generate), add_special_tokens=add_special_tokens)
     input_ids = shared.tokenizer.encode(str(prompt), return_tensors='pt', truncation=True, max_length=get_max_prompt_length(tokens_to_generate), add_special_tokens=add_special_tokens)