| | --- |
| | title: CygnisAI Studio API |
| | emoji: 🦢 |
| | colorFrom: purple |
| | colorTo: indigo |
| | sdk: docker |
| | pinned: false |
| | app_port: 7860 |
| | --- |
| | |
| | # 🦢 CygnisAI Studio API |
| |
|
| | Une API unifiée et performante pour accéder aux meilleurs modèles d'IA open-source via l'infrastructure Hugging Face. |
| |
|
| | Cette API agit comme une passerelle sécurisée et intelligente, routant vos requêtes vers les modèles les plus adaptés (Llama 3, Gemma 2, DeepSeek, etc.) avec une interface compatible OpenAI. |
| |
|
| | ## 🚀 Fonctionnalités |
| |
|
| | - **Multi-modèles** : Accès à une large gamme de LLMs via un seul endpoint. |
| | - **Sécurisé** : Authentification par Bearer Token. |
| | - **Standardisé** : Format de requête et de réponse JSON simple. |
| | - **Robuste** : Gestion automatique des erreurs et fallbacks. |
| |
|
| | ## 🛠️ Utilisation |
| |
|
| | ### Endpoint Principal |
| |
|
| | `POST /api/ask` |
| |
|
| | ### Authentification |
| |
|
| | Ajoutez le header suivant à vos requêtes : |
| | `Authorization: Bearer VOTRE_CLE_API` |
| |
|
| | *(La clé par défaut pour la démo est : `cgn_live_stable_demo_api_key_012345`)* |
| |
|
| | ### Exemple de Requête (JavaScript / Fetch) |
| |
|
| | ```javascript |
| | fetch('https://votre-space-url.hf.space/api/ask', { |
| | method: 'POST', |
| | headers: { |
| | 'Authorization': 'Bearer cgn_live_stable_demo_api_key_012345', |
| | 'Content-Type': 'application/json', |
| | }, |
| | body: JSON.stringify({ |
| | question: 'Qui a découvert la pénicilline ?', |
| | model: 'google/gemma-3-27b-it', // Optionnel |
| | system_prompt: 'Tu es un expert en histoire des sciences.' // Optionnel |
| | }), |
| | }) |
| | .then(response => response.json()) |
| | .then(data => console.log(data)); |
| | ``` |
| |
|
| | ### Exemple de Réponse |
| |
|
| | ```json |
| | { |
| | "answer": "La pénicilline a été découverte par Alexander Fleming en 1928...", |
| | "model_used": "google/gemma-2-27b-it", |
| | "sources": [] |
| | } |
| | ``` |
| |
|
| | ## 🤖 Modèles Disponibles |
| |
|
| | Vous pouvez demander ces modèles via le paramètre `model`. L'API routera automatiquement vers la version la plus performante disponible. |
| |
|
| | | ID du Modèle (Alias) | Modèle Réel Utilisé (Fallback) | Description | |
| | |---|---|---| |
| | | `google/gemma-3-27b-it` | Gemma 2 27B IT | Rapide et efficace | |
| | | `openai/gpt-oss-120b` | Llama 3.1 70B | Très puissant, équivalent GPT-4 | |
| | | `deepseek-ai/DeepSeek-V3.2` | DeepSeek V3 | Excellent pour le code et la logique | |
| | | `meta-llama/Llama-4-Scout` | Llama 3.1 8B | Léger et ultra-rapide | |
| | | `nvidia/Nemotron-3` | Llama 3.1 Nemotron 70B | Spécialisé instruction-following | |
| | | `default` | Llama 3 8B | Le choix par défaut équilibré | |
| |
|
| | ## ⚙️ Configuration (Pour le déploiement) |
| |
|
| | Pour déployer cette API sur votre propre Space, vous devez configurer les **Secrets** suivants dans les paramètres du Space : |
| |
|
| | 1. `HF_TOKEN` : Votre token d'accès Hugging Face (avec droits de lecture). |
| | 2. `CYGNIS_API_KEY` : (Optionnel) La clé API que vous souhaitez utiliser pour sécuriser l'accès. |
| |
|
| | --- |
| | *Propulsé par FastAPI, Docker et l'Inference API Hugging Face.* |
| |
|