Warecube-KO-27B-v2
한국어 reasoning 모델 — Darwin 진화 + 추가 SFT 정제 변종.
🧬 Darwin 진화 컨셉
본 모델은 Darwin V7 진화적 모델 머지 기반의 부모 모델에 한국어 K-AI 도메인 SFT를 추가 학습한 자식 모델입니다.
자연 진화 Darwin 머지 + SFT
───────── ───────────────────
유전자 교차 → 가중치 모듈별 비율 결합 (부모)
세대 진화 → 부모 모델에 추가 SFT 정제
적자 생존 → K-AI 도메인 우수 자손 보존
🏛️ 가문 계보
┌────────────────────────────────────────┐
│ 베이스 (Base / Parent) │
│ ginigen-ai/Rogue-28B-MIX │
│ │
│ - K-AI Leaderboard 2위 (avg 0.559) │
│ - Darwin family + Quetta 진화 머지 │
│ - <think> reasoning trace │
└────────────────────────────────────────┘
│
▼ K-AI 도메인 추가 SFT 진화
╔════════════════════════════════════════╗
║ 자식 (Child) — 본 모델 ║
║ Warecube/Warecube-KO-27B-v2 ║
║ ║
║ ✦ 베이스의 모든 능력 계승 ║
║ ✦ Com2-main 도메인 강화 ║
║ ✦ K-AI Leaderboard Docker 호환 형식 ║
╚════════════════════════════════════════╝
🎓 학습 개요
| Stage | 개략 |
|---|---|
| Base | ginigen-ai/Rogue-28B-MIX (Darwin family × Quetta family 진화 머지) |
| SFT | 한국어 K-AI 도메인 instruction 데이터로 추가 정제 |
| 호환 | K-AI Leaderboard Docker 호환 형식으로 정비 |
🎯 사용법
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "Warecube/Warecube-KO-27B-v2"
tokenizer = AutoTokenizer.from_pretrained(
model_id, trust_remote_code=True
)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True,
)
prompt = "한국의 추석에 대해 설명해주세요."
messages = [{"role": "user", "content": prompt}]
inputs = tokenizer.apply_chat_template(
messages, return_tensors="pt", add_generation_prompt=True
)
out = model.generate(
inputs.to(model.device),
max_new_tokens=512,
do_sample=False,
)
print(tokenizer.decode(out[0], skip_special_tokens=False))
🛠️ 사양
- 파라미터: 28B (multimodal)
- 양자화: bf16
- 컨텍스트: 8K (확장 가능)
- 언어: 한국어 + 영어
- 추론:
<think>reasoning trace - License: Apache 2.0
🤝 출처
- 베이스: ginigen-ai/Rogue-28B-MIX (K-AI Leaderboard 2위)
- 가문: Darwin family (Darwin V7 진화적 머지 시리즈)
- Downloads last month
- 9
Model tree for Warecube/Warecube-KO-27B-v3
Base model
FINAL-Bench/Darwin-27B-KR Finetuned
FINAL-Bench/Darwin-28B-KR Finetuned
ginigen-ai/Rogue-28B-MIX