File size: 1,508 Bytes
8c847af
ef9b45b
 
 
 
 
 
 
 
 
 
4b6c9a6
 
 
 
ef9b45b
4b6c9a6
 
 
 
 
06f0d67
4b6c9a6
72048e3
 
4b6c9a6
 
 
 
 
 
 
 
 
 
ef9b45b
 
 
 
d877ae1
ef9b45b
 
d877ae1
8c847af
 
ef9b45b
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
import gradio as gr
from transformers import pipeline

# Modelini buraya yazıyoruz
model_id = "SykoSLM/SykoLLM-V5.6"

# Text generation (metin üretme) pipeline'ı oluşturuyoruz
print("Model yükleniyor, biraz sürebilir...")
pipe = pipeline("text-generation", model=model_id)

def generate_text(prompt):
    # EFSANE DOKUNUŞ: Senin eğitim formatını buraya uyguluyoruz!
    # Model artık nerede başlayıp nerede biteceğini bilecek.
    formatted_prompt = f"<|user|>\n{prompt}<|end|>\n<|assistant|>\n"
    
    # Modele prompt'u verip cevabı alıyoruz
    result = pipe(
        formatted_prompt, 
        max_new_tokens=150,       
        do_sample=True,           
        temperature=0.2,          
        repetition_penalty=1.19,  # Tekrar cezasını 1.18 yaptık
        num_return_sequences=1,
        return_full_text=False,    # Bu ayar sayesinde model bizim sorumuzu cevaba katmıyor
        use_cache=True
    )
    
    generated = result[0]['generated_text']
    
    # Model cevap vermeyi bitirdiğinde muhtemelen sonuna <|end|> koyacaktır.
    # Kullanıcı bunu görmesin diye o kısmı kesip atıyoruz.
    if "<|end|>" in generated:
        generated = generated.split("<|end|>")[0]
        
    return generated.strip()

# Gradio arayüzünü oluşturuyoruz
iface = gr.Interface(
    fn=generate_text,
    inputs=gr.Textbox(lines=5, placeholder="Buraya bir şeyler yaz"),
    outputs="text",
    title="SykoLLM-V5.6 Test Alanı",
    description="SykoLLM-V5.6"
)

iface.launch()