Warecube-KO-27B-v2

한국어 reasoning 모델 — Darwin 진화 + 추가 SFT 정제 변종.


🧬 Darwin 진화 컨셉

본 모델은 Darwin V7 진화적 모델 머지 기반의 부모 모델에 한국어 K-AI 도메인 SFT를 추가 학습한 자식 모델입니다.

   자연 진화                    Darwin 머지 + SFT
   ─────────                    ───────────────────
   유전자 교차              →   가중치 모듈별 비율 결합 (부모)
   세대 진화                →   부모 모델에 추가 SFT 정제
   적자 생존                →   K-AI 도메인 우수 자손 보존

🏛️ 가문 계보

┌────────────────────────────────────────┐
│  베이스 (Base / Parent)                 │
│  ginigen-ai/Rogue-28B-MIX              │
│                                          │
│  - K-AI Leaderboard 2위 (avg 0.559)    │
│  - Darwin family + Quetta 진화 머지     │
│  - <think> reasoning trace              │
└────────────────────────────────────────┘
                  │
                  ▼ K-AI 도메인 추가 SFT 진화
╔════════════════════════════════════════╗
║  자식 (Child) — 본 모델                  ║
║  Warecube/Warecube-KO-27B-v2           ║
║                                          ║
║  ✦ 베이스의 모든 능력 계승               ║
║  ✦ Com2-main 도메인 강화                ║
║  ✦ K-AI Leaderboard Docker 호환 형식     ║
╚════════════════════════════════════════╝

🎓 학습 개요

Stage 개략
Base ginigen-ai/Rogue-28B-MIX (Darwin family × Quetta family 진화 머지)
SFT 한국어 K-AI 도메인 instruction 데이터로 추가 정제
호환 K-AI Leaderboard Docker 호환 형식으로 정비

🎯 사용법

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_id = "Warecube/Warecube-KO-27B-v2"
tokenizer = AutoTokenizer.from_pretrained(
    model_id, trust_remote_code=True
)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
    trust_remote_code=True,
)

prompt = "한국의 추석에 대해 설명해주세요."
messages = [{"role": "user", "content": prompt}]
inputs = tokenizer.apply_chat_template(
    messages, return_tensors="pt", add_generation_prompt=True
)
out = model.generate(
    inputs.to(model.device),
    max_new_tokens=512,
    do_sample=False,
)
print(tokenizer.decode(out[0], skip_special_tokens=False))

🛠️ 사양

  • 파라미터: 28B (multimodal)
  • 양자화: bf16
  • 컨텍스트: 8K (확장 가능)
  • 언어: 한국어 + 영어
  • 추론: <think> reasoning trace
  • License: Apache 2.0

🤝 출처

  • 베이스: ginigen-ai/Rogue-28B-MIX (K-AI Leaderboard 2위)
  • 가문: Darwin family (Darwin V7 진화적 머지 시리즈)
Downloads last month
9
Safetensors
Model size
28B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Warecube/Warecube-KO-27B-v3

Finetuned
(1)
this model