Spaces:
Running
Running
File size: 1,508 Bytes
8c847af ef9b45b 4b6c9a6 ef9b45b 4b6c9a6 06f0d67 4b6c9a6 72048e3 4b6c9a6 ef9b45b d877ae1 ef9b45b d877ae1 8c847af ef9b45b | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 | import gradio as gr
from transformers import pipeline
# Modelini buraya yazıyoruz
model_id = "SykoSLM/SykoLLM-V5.6"
# Text generation (metin üretme) pipeline'ı oluşturuyoruz
print("Model yükleniyor, biraz sürebilir...")
pipe = pipeline("text-generation", model=model_id)
def generate_text(prompt):
# EFSANE DOKUNUŞ: Senin eğitim formatını buraya uyguluyoruz!
# Model artık nerede başlayıp nerede biteceğini bilecek.
formatted_prompt = f"<|user|>\n{prompt}<|end|>\n<|assistant|>\n"
# Modele prompt'u verip cevabı alıyoruz
result = pipe(
formatted_prompt,
max_new_tokens=150,
do_sample=True,
temperature=0.2,
repetition_penalty=1.19, # Tekrar cezasını 1.18 yaptık
num_return_sequences=1,
return_full_text=False, # Bu ayar sayesinde model bizim sorumuzu cevaba katmıyor
use_cache=True
)
generated = result[0]['generated_text']
# Model cevap vermeyi bitirdiğinde muhtemelen sonuna <|end|> koyacaktır.
# Kullanıcı bunu görmesin diye o kısmı kesip atıyoruz.
if "<|end|>" in generated:
generated = generated.split("<|end|>")[0]
return generated.strip()
# Gradio arayüzünü oluşturuyoruz
iface = gr.Interface(
fn=generate_text,
inputs=gr.Textbox(lines=5, placeholder="Buraya bir şeyler yaz"),
outputs="text",
title="SykoLLM-V5.6 Test Alanı",
description="SykoLLM-V5.6"
)
iface.launch() |