You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

MangaShift External Resources

External models and code repositories for the MangaShift project.

🔗 Main Project: https://github.com/MattyMroz/MangaShift
🔗 Datasets: https://huggingface.co/datasets/MattyMroz/MangaShift


Naming Convention (models/ i .legacy/models/)

Wszystkie modele w external/models/ i curated legacy payloads w external/.legacy/models/ używają jednej spójnej konwencji nazewniczej. Pełny brainstorm i uzasadnienie: temp/brain_storm/2026-04-27-naming-convention/.

11 Reguł

  1. Casing: kebab-case, lowercase, ASCII only (bez CamelCase, bez _).
  2. Subfoldery formatów: każdy model ma pt/, onnx/, safetensors/, gguf/ per-format wewnątrz external/models/<category>/<model-name>/, jeśli dany format istnieje.
  3. Single-file model: <model-name>.<ext> (np. big-lama.pt, comic-text-detector.pt).
  4. Multi-part model: subfolder per-variant + plik = nazwa części: <model-name>-<variant>/<part>.<ext> (np. hi-sam/onnx/hi-sam-b/encoder.onnx, paddle-ocr-manga/onnx/vision-encoder.onnx).
  5. Variant size: sufiks rozmiaru: <model-name>-<size>.<ext> (np. anime-text-l.pt, hi-sam-b.pth; rozmiary: n/s/m/l/x lub b/l/h).
  6. Quantization: sufiks tylko jeśli ≠ FP32: <model-name>-<quant>.<ext>. Standardowe sufiksy: fp16, bf16, int8, q4-k-m, q8-0. FP32 = brak sufiksu (default).
  7. Upscaling exception: zachowaj prefix skali (4x-, 2x-) — community standard z OpenModelDB.
  8. ComfyUI exception: modele dla stack ComfyUI (flux, qwen) zachowują strukturę diffusion_models/, text_encoders/, vae/ — manifest klasyfikuje je jako format comfy, nawet jeśli pliki mają rozszerzenie .safetensors.
  9. Upstream hash: drop hashy z nazw upstream (np. sam_vit_b_01ec64.pthsam-vit-b.pth). Wersjonowanie idzie przez bundle.yaml.
  10. HF model.safetensors default: rename na <model-name>.safetensors lokalnie (nie używamy generycznych nazw).
  11. Source placeholder: każdy model ma src/ z .gitkeep, nawet jeśli źródła/export scripts jeszcze nie są zapisane.

Przykłady

external/models/
├── detection/
│   ├── anime-text/{pt,onnx}/anime-text-{n,s,m,l,x}.{pt,onnx}
│   ├── comic-text-detector/{pt,onnx}/comic-text-detector.{pt,onnx}
│   ├── hi-sam/
│   │   ├── pt/hi-sam-{b,l,h}.pth
│   │   └── onnx/hi-sam-{b,l,h}/{encoder,decoder,fg-decoder}.onnx
│   └── magi-v3/{pt,onnx}/<part>.{safetensors,onnx}
├── inpainting/
│   ├── big-lama/{pt,onnx}/big-lama.{pt,onnx}  # + big-lama-fp16.onnx
│   └── flux2-klein/  # ComfyUI exception
│       ├── diffusion_models/flux-2-klein-{4b,9b}.safetensors
│       ├── text_encoders/qwen-3-{4b,8b}.safetensors
│       ├── vae/flux2-vae.safetensors
│       └── src/.gitkeep
├── ocr/
│   ├── paddle-ocr-manga/
│   │   ├── pt/paddle-ocr-manga.safetensors
│   │   └── onnx/{vision-encoder,text-decoder-prefill,text-decoder-decode,projector}.onnx
│   └── qianfan-ocr/gguf/qianfan-ocr-{bf16,q4-k-m,q8-0}.gguf
└── upscaling/
    ├── pt/4x-{anime-sharp-esrgan,...}.pth
   ├── onnx/4x-{anime-sharp-esrgan,...}.onnx
   └── src/.gitkeep
external/.legacy/models/
└── detection/
   ├── magi/{pt,src}/
   └── magi-v2/{pt,src}/

HF Publish Scope

  • Publikujemy: README.md, .gitattributes, model_hashes.json, fonts/, models/detection/, models/inpainting/, models/ocr/, models/upscaling/, .legacy/models/detection/{magi,magi-v2}/.
  • Nie publikujemy: code/, bin/, .deprecated/, .external_state.json, models/_fixtures/.
  • code/ jest folderem research/competitor tracking i zostaje lokalnie poza HF model repo.
  • .legacy/ zawiera tylko curated retired payloads, trzymane w tym samym układzie bucket + format dirs co główne models/.
  • models/_fixtures/ jest lokalnym miejscem na test fixtures/placeholders; zostaje poza HF, aktualnie bez publishable payloadu.
  • model_hashes.json używa schema v2: zasoby są grupowane po ścieżce bucketu i po formatach assetów (pt, onnx, gguf, native, comfy).
Downloads last month
-
GGUF
Model size
4B params
Architecture
qwen3
Hardware compatibility
Log In to add your hardware

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support