ProfEngel commited on
Commit
e111912
·
verified ·
1 Parent(s): e009843

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +18 -4
README.md CHANGED
@@ -1,3 +1,11 @@
 
 
 
 
 
 
 
 
1
  # ModelCard – OwlLM2 **Controlling-Experte**
2
 
3
  ## Modellübersicht
@@ -34,7 +42,7 @@ OwlLM2 ist eine speziell auf deutsches Controlling und Rechnungswesen finegetune
34
 
35
  | Parameter | Wert |
36
  | :-- | :-- |
37
- | **GPU** | NVIDIA T4 (16GB VRAM) |
38
  | **Trainingsdauer** | 76,76 Minuten (4.605,80 Sekunden) |
39
  | **Peak Memory** | 8,268 GB (37,31% der verfügbaren VRAM) |
40
  | **Training Memory** | 0,62 GB (2,80% für LoRA-Training) |
@@ -84,15 +92,15 @@ OwlLM2 wird in verschiedenen optimierten Formaten bereitgestellt:
84
  ### **Vollständiges Modell (Safetensors)**
85
 
86
  - **Format:** vLLM-kompatible Safetensors
87
- - **Größe:** ~5-6 GB
88
  - **Verwendung:** Direkter Einsatz ohne Basis-Modell
89
  - **Ideal für:** Production-Deployments
90
 
91
 
92
  ### **GGUF-Quantisierung**
93
 
94
- - **8-Bit GGUF:** ~2-3 GB, optimiert für CPU/kleine GPUs
95
- - **4-Bit GGUF:** ~1-2 GB, maximale Kompression
96
  - **Ideal für:** Edge-Computing, lokale Anwendungen
97
 
98
 
@@ -319,3 +327,9 @@ Für Fragen, Verbesserungsvorschläge oder spezielle Anwendungsfälle im deutsch
319
  - Kann Fehler enthalten oder veraltete Informationen wiedergeben
320
 
321
  Entscheidungen, die auf Basis der Modell-Ausgaben getroffen werden, erfolgen auf eigenes Risiko und eigene Verantwortung.
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language:
4
+ - de
5
+ base_model:
6
+ - google/gemma-3n-E2B-it
7
+ pipeline_tag: text-to-speech
8
+ ---
9
  # ModelCard – OwlLM2 **Controlling-Experte**
10
 
11
  ## Modellübersicht
 
42
 
43
  | Parameter | Wert |
44
  | :-- | :-- |
45
+ | **GPU** | NVIDIA L4 (24GB VRAM) |
46
  | **Trainingsdauer** | 76,76 Minuten (4.605,80 Sekunden) |
47
  | **Peak Memory** | 8,268 GB (37,31% der verfügbaren VRAM) |
48
  | **Training Memory** | 0,62 GB (2,80% für LoRA-Training) |
 
92
  ### **Vollständiges Modell (Safetensors)**
93
 
94
  - **Format:** vLLM-kompatible Safetensors
95
+ - **Größe:** ~7-9 GB
96
  - **Verwendung:** Direkter Einsatz ohne Basis-Modell
97
  - **Ideal für:** Production-Deployments
98
 
99
 
100
  ### **GGUF-Quantisierung**
101
 
102
+ - **8-Bit GGUF:** ~4-5 GB, optimiert für CPU/kleine GPUs
103
+ - **4-Bit GGUF:** ~1-2 GB, maximale Kompression (noch nicht verfügbar!)
104
  - **Ideal für:** Edge-Computing, lokale Anwendungen
105
 
106
 
 
327
  - Kann Fehler enthalten oder veraltete Informationen wiedergeben
328
 
329
  Entscheidungen, die auf Basis der Modell-Ausgaben getroffen werden, erfolgen auf eigenes Risiko und eigene Verantwortung.
330
+
331
+ **OwlLM2 – Ihr KI-gestützter Partner für professionelles Controlling**
332
+
333
+ <div style="text-align: center">⁂</div>
334
+
335
+ [^1]: Gemma3N_-4B-_Conversational.ipynb