✦ Documentation officielle

Modèles & API

Référence complète des modèles développés par Lunaris — capacités, disponibilité et utilisation de l'API.

Nos modèles
Trois séries de modèles développés en interne, chacune avec ses propres caractéristiques et objectifs.
Lyris v3.0 Défaut
Modèle de génération actuel — connecté en ligne, réponses enrichies
En ligne
Identifiant API
lyris-3
Version
3.0 — 14 mars 2026
Contexte
Conversationnel étendu
Connexion
En ligne ✓
✓ Texte & code ✓ Analyse d'images ✓ Mémoire conversation ✓ Markdown & LaTeX ✓ Multi-langues ✗ Génération d'images (Premium)
Yarix v3.0
Modèle spécialisé développement — infrastructure haute performance dédiée
En développement
Identifiant API
yarix-3
Disponibilité
Prochainement
Spécialité
Développement & code
Infrastructure
Dédiée haute performance
⏳ Génération & analyse de code avancée ⏳ Raisonnement technique poussé ⏳ Débogage & refactoring
PPI v2.0
Deuxième génération — architecture interne propriétaire avec routeur IA
En ligne
Identifiant API
ppi-2
Génération
2ᵉ génération
Architecture
Routeur IA + multi-modèles
Infrastructure
Serveur dédié Ollama
✓ Routage automatique ✓ Code (Qwen 2.5 Coder) ✓ Raisonnement (DeepSeek R1) ✓ Général (Qwen 3) ✓ Agents personnalisés
PPI v1.0
Première génération — modèle fondateur de la série PPI
En ligne
Identifiant API
ppi-1
Génération
1ʳᵉ génération
Architecture
Interne destrly
Infrastructure
Serveur dédié Ollama
✓ Génération de texte ✓ Multi-modèles ✓ Accès direct API
Endpoints
L'API accepte des requêtes JSON et renvoie des réponses en streaming (SSE).
POST /api/chat Générer une réponse (streaming SSE)

Corps de la requête

// application/json
{
  "message": "Votre message ici",          // requis si pas d'image
  "image": "data:image/png;base64,...",   // optionnel
  "conversation_id": "c_1234567890",  // optionnel — persistance historique
  "model": "lyris-3"                    // optionnel — défaut : "lyris-3"
}

Modèles disponibles

✦ lyris-3 — défaut ◈ yarix-3 — bientôt ◇ ppi-2 — en ligne ◇ ppi-1 — en ligne

Réponse SSE

// text/event-stream
data: {"agent": "session-name", "pool": {"free": 1, "total": 2}}

data: {"text": "Bonjour ! Je suis Lyris..."}    // chunk de réponse

data: {"done": true}                        // fin de génération
GET /api/status État des sessions
// Réponse JSON
{
  "online": true,
  "free": 1,     // sessions disponibles
  "total": 2    // sessions totales
}
POST /api/cancel Annuler la génération en cours
// Corps optionnel
{"conversation_id": "c_1234567890"}
PPI : Routeur IA + Multi-modèles
L'infrastructure PPI utilise un routeur IA qui sélectionne automatiquement le meilleur modèle pour chaque requête. Architecture en deux étapes.
ARCH Architecture PPI Flux en 2 étapes
// Architecture PPI — le frontend ne contacte JAMAIS le serveur IA directement

FrontendBackend (sécurisé)API 1 — Routeur IA (sélection du modèle)API 2 — Modèle final (génération de la réponse)
POST /api/generate Étape 1 — Routeur IA (sélection du modèle)

Requête au routeur

{
  "model": "ia_router_11440",
  "prompt": "Message utilisateur",
  "stream": false
}

Réponse du routeur (JSON dans le champ response)

// Le champ "response" contient un JSON stringifié à parser
{
  "category": "coding",
  "model": "qwen2.5-coder:14b",
  "confidence": 0.99,
  "reason": "Software development request."
}

Le champ model retourné sera utilisé pour l'étape 2.

POST /api/generate Étape 2 — Génération finale

Requête au modèle sélectionné

{
  "model": "qwen2.5-coder:14b",  // modèle choisi par le routeur
  "prompt": "Message utilisateur",
  "stream": false
}

Réponse

{
  "response": "La réponse générée par le modèle..."
}
GET /api/tags Liste des modèles installés

Modèles disponibles sur PPI

qwen3 — général qwen2.5-coder:14b — code deepseek-r1:8b — raisonnement llama3.1:8b — fallback

Le routeur sélectionne automatiquement le modèle optimal :
Requêtes code → qwen2.5-coder:14b
Raisonnement / logique → deepseek-r1:8b
Questions générales → qwen3
Fallback / analyse → llama3.1:8b

POST /api/generate Agents IA avec system prompt

Agents personnalisés (Pro)

Chaque agent possède un system prompt stocké côté backend. Le frontend envoie uniquement l'identifiant de l'agent et le message.

// Le backend reconstruit le prompt complet :
// SYSTEM PROMPT + historique conversation + message utilisateur

// Flux côté frontend :
{
  "agent_id": "support-ecommerce",
  "message": "Comment suivre ma commande ?"
}

// Le backend envoie au modèle PPI :
{
  "model": "qwen3",  // choisi par le routeur
  "prompt": "[system prompt] + [contexte] + [message]",
  "stream": false
}

Les system prompts, la logique de routage et les noms de modèles internes ne sont jamais exposés au frontend.

Ce qui arrive
Prochaines fonctionnalités planifiées pour les modèles Lunaris.
14 mars 2026
Lyris 3.0 — Lancement
Première version publique avec mémoire de conversation, analyse d'images et rendu Markdown.
Terminé
Comptes Premium & Pro
Accès à la génération d'images, historique étendu, modèles prioritaires et agents IA personnalisés.
Terminé
API publique Lunaris
Accès direct aux modèles via clé API pour les développeurs.
Terminé
PPI 1.0 & PPI 2.0 — Mise en ligne
Infrastructure IA propriétaire avec routeur intelligent et multi-modèles (Qwen, DeepSeek, LLaMA) sur serveur dédié.
En cours
Yarix 3.0 — Développement
Modèle spécialisé développement, sur une infrastructure dédiée haute performance.