Se rendre au contenu
Retour au Wiki

Configuration de Zileo Chat

Ce guide vous accompagne dans la configuration complète de Zileo Chat. Chaque section des paramètres est expliquée en détail pour vous permettre de personnaliser l'application selon vos besoins.

Providers

Un provider est un fournisseur de modèles d'IA. Zileo Chat se connecte à ces services pour exécuter les requêtes de vos agents. Deux options sont disponibles : une API cloud (Mistral AI) ou une exécution locale (Ollama).

Paramètres > Providers
Mistral AI Prêt
Cloud API
Clé API configurée
Ollama Prêt
Local Server
Serveur disponible
  • Mistral AI — Entreprise française, modèles accessibles via API cloud. Nécessite une clé API et une connexion internet. Facturation à l'usage (tokens consommés). Serveurs hébergés en Europe, conformité RGPD. Obtenir une clé API
  • Ollama — Exécution locale ou via Ollama Cloud. En local : gratuit, données sur votre machine, nécessite un GPU pour des performances optimales. En cloud : modèles avec suffixe :cloud (ex: deepseek-v3.2:cloud), exécution sur l'infrastructure Ollama sans matériel dédié. Authentification requise via ollama signin. Plans : Gratuit, Pro ($20/mois), Max ($100/mois). Installer Ollama
Configurer la clé API Mistral
Entrez votre clé API Mistral pour activer ce provider. Vous pouvez obtenir une clé sur la console Mistral.
Clé API
************************
Trouvez votre clé API sur console.mistral.ai
La clé API est configurée
Annuler
Enregistrer
Configuration Ollama : Le service écoute sur http://localhost:11434 (local et cloud). Téléchargez un modèle local avec ollama pull mistral ou un modèle cloud avec ollama run deepseek-v3.2:cloud. Pour Ollama Cloud, authentifiez-vous d'abord avec ollama signin. Consultez le catalogue des modèles pour les spécifications.

Modèles

Les modèles de langage (LLM) sont les moteurs d'inférence utilisés par vos agents. Chaque modèle doit être configuré manuellement avec son identifiant API exact et ses spécifications techniques.

Ajouter un modèle
Provider
Mistral
Nom
Mistral Large
Nom d'affichage dans l'interface
Nom API
mistral-large-latest
Identifiant exact du modèle pour l'API
Fenêtre de contexte
128000
Max Output
4096
Température
0.7
Thinking (raisonnement)
Tarification (optionnel)
Prix input ($/1M tokens)
2.00
Prix output ($/1M tokens)
6.00
Annuler
Créer le modèle
Identifiants des modèles :
Ollama : Exécutez ollama list pour afficher les modèles installés. Spécifications sur ollama.com/library.
Mistral : Identifiants disponibles dans la documentation : mistral-large-latest, mistral-small-latest, codestral-latest.
Modèle recommandé pour Ollama : deepseek-v3.2:cloud
Modèle open source offrant de bonnes performances générales et un suivi des instructions fiable. Modèle de type "thinking" : cocher l'option correspondante lors de la configuration. Installation : ollama run deepseek-v3.2:cloud (nécessite ollama signin pour Ollama Cloud).

Paramètres techniques

  • Fenêtre de contexte — Nombre maximum de tokens (texte d'entrée + historique) que le modèle peut traiter en une requête. Valeurs courantes : 32K, 128K, 256K tokens.
  • Max Output — Nombre maximum de tokens que le modèle peut générer en réponse. Détermine la longueur maximale des réponses.
  • Température — Paramètre de 0 à 1 contrôlant la variabilité des réponses. Valeurs basses (0.1-0.3) : réponses déterministes. Valeurs hautes (0.7-1.0) : réponses plus variées.
  • Thinking — Option pour les modèles de raisonnement (ex: DeepSeek). Active le mode de réflexion interne avant génération. Ne pas cocher pour les modèles standards (Mistral Large, Llama).
  • Tarification — Prix par million de tokens (input/output). Utile pour estimer les coûts d'utilisation des modèles cloud. Tarifs Mistral : mistral.ai/pricing. Ollama local/cloud : gratuit ou selon abonnement.

Agents

Un agent est une configuration qui associe un modèle de langage, des outils et des instructions système. Chaque agent peut être spécialisé pour un type de tâche spécifique (code, rédaction, analyse, etc.).

Paramètres > Agents
Assistant Code Permanent
Ollama - deepseek-v3.2:cloud
4 outils 1 serveur MCP
Rédacteur Temporaire
Mistral - mistral-large-latest
2 outils 0 serveur MCP
Créer un agent
Informations de base
Nom de l'agent
Assistant Code
Cycle de vie
Permanent
Conservé entre sessions
Temporaire
Supprimé à la fermeture
Configuration LLM
Fournisseur
Mistral
API Cloud
Ollama
Local / Cloud
Modèle
DeepSeek V3.2 Cloud Thinking
deepseek-v3.2:cloud
128K ctx 8K out T: 0.7
Max itérations outils
50
Outils
Mémoire Stocke des informations
Todo Gère les tâches
Question utilisateur Pose des questions
Calculatrice Calculs mathématiques
Serveurs MCP
Serena Analyse de code
Prompt système
Instructions système
Tu es un assistant utile. Tu réponds de manière claire et structurée.
Annuler
Créer

Paramètres de configuration

  • Cycle de vie — Permanent : l'agent est conservé entre les sessions et apparaît dans la liste des agents disponibles. Temporaire : l'agent est supprimé à la fermeture de l'application.
  • Max itérations outils — Limite le nombre d'appels d'outils consécutifs par tour de conversation. Valeur par défaut : 50. Augmentez pour les tâches complexes nécessitant de nombreuses opérations.
  • Outils intégrés — Mémoire (stockage persistant d'informations), Todo (gestion de tâches), Question utilisateur (demandes de clarification), Calculatrice (opérations mathématiques).
  • Serveurs MCP — Outils externes accessibles via le protocole MCP. Chaque serveur apporte des capacités supplémentaires (analyse de code, accès fichiers, APIs, etc.). Voir la section Serveurs MCP.
  • Prompt système — Instructions définissant le comportement de l'agent. Ce texte est envoyé au modèle avant chaque conversation. Définit le rôle, le ton et les contraintes de l'agent.
Conseils pour la création d'agents :
Prompt système : Soyez précis et structurez vos instructions. Indiquez le rôle ("Tu es un développeur Python"), le format de réponse attendu, et les contraintes à respecter.
Outils : N'activez que les outils nécessaires. Un agent avec moins d'outils est plus prévisible et consomme moins de tokens.
Modèle : Pour les tâches de code, privilégiez Codestral (Mistral) ou un modèle thinking (DeepSeek). Pour la rédaction générale, Mistral Large offre un bon équilibre.
Exemple de prompt système efficace :
Tu es un assistant de développement spécialisé en TypeScript et Svelte. Tu réponds de manière concise. Tu fournis des exemples de code commentés. Tu signales les erreurs potentielles et proposes des corrections.

Serveurs MCP

Le Model Context Protocol (MCP) est un protocole standard permettant aux agents d'interagir avec des outils externes. Un serveur MCP expose des outils et ressources que l'agent peut utiliser pendant une conversation.

Paramètres > Serveurs MCP
duckduckgo En cours
Recherche web via DuckDuckGo
docker run -i --rm mcp/duckduckgo
3 outils 0 ressources
serena En cours
Analyse de code semantique
uvx serena-mcp-server
15 outils 2 ressources

Méthodes de déploiement

  • Docker — Exécution isolée dans un conteneur. Sécurité maximale : le serveur n'a pas accès au système hôte. Nécessite Docker Desktop installé.
  • NPX — Exécution de packages Node.js. Nécessite Node.js installé. Format : npx -y @package/name.
  • UVX — Exécution de packages Python. Nécessite Python et uv installés. Format : uvx package-name.
  • HTTP — Connexion à un serveur MCP distant via HTTP/SSE. Indiquez l'URL complète du serveur.

Ajouter un serveur MCP

Ajouter un serveur MCP
Nom
duckduckgo
Identifiant unique (lettres, chiffres, - et _)
Déploiement
Docker
NPX
UVX
HTTP
Arguments (un par ligne)
run -i --rm mcp/duckduckgo
Chaque argument sur une ligne séparée
Variables d'environnement
= X
+ Ajouter une variable
Description (optionnel)
Recherche web via DuckDuckGo
Activé (démarrage automatique)
Annuler
Créer

Trouver des serveurs MCP

Docker Desktop - MCP Toolkit :
1. Ouvrez Docker Desktop et accédez à l'extension MCP Toolkit
2. Parcourez le catalogue des serveurs MCP disponibles
3. Cliquez sur un serveur pour voir ses détails
4. Dans la section "Use this MCP Server" en bas de page, copiez la configuration
5. Adaptez les valeurs dans Zileo Chat (nom, arguments, variables d'environnement)
Exemple : Configuration DuckDuckGo depuis Docker Desktop
La configuration affichée dans MCP Toolkit : { "mcpServers": { "duckduckgo": { "command": "docker", "args": ["run", "-i", "--rm", "mcp/duckduckgo"] } } } Dans Zileo Chat : Nom = duckduckgo, Déploiement = Docker, Arguments (un par ligne) : run -i --rm mcp/duckduckgo

Mémoire

La mémoire permet aux agents de stocker et retrouver des informations entre les conversations. Les données sont transformées en vecteurs (embeddings) pour permettre une recherche sémantique (RAG).

Paramètres > Mémoire > Configuration Embedding
Modèle d'embedding
Provider
Mistral
Modèle
mistral-embed
Dimensions vectorielles
1024D (calculé automatiquement)
Paramètres de découpage
Stratégie
Sémantique
Découpe le texte selon la structure sémantique
Taille des chunks (512)
512
100 - 2000 caractères
Chevauchement (50)
50
0 - 500 caractères
Annuler
Enregistrer
Activation requise : La configuration d'embedding est pré-remplie avec des valeurs par défaut. Vous devez cliquer sur Enregistrer pour activer la fonctionnalité de mémoire et permettre la génération des embeddings.

Paramètres de configuration

  • Provider et Modèle — Mistral : mistral-embed (1024D). Ollama : nomic-embed-text (768D), mxbai-embed-large (1024D). Les dimensions sont calculées automatiquement selon le modèle.
  • Stratégie de découpage — Fixe : découpe à taille constante. Sémantique : découpe selon la structure du texte (paragraphes, phrases). Récursive : découpe hiérarchique. La stratégie sémantique offre de meilleurs résultats pour la recherche.
  • Taille des chunks — Nombre de caractères par segment (100-2000). Valeur par défaut : 512. Des chunks plus petits donnent des résultats plus précis, des chunks plus grands conservent plus de contexte.
  • Chevauchement — Nombre de caractères partagés entre chunks adjacents (0-500). Valeur par défaut : 50. Permet de ne pas couper les informations aux limites des segments.
Configuration recommandée :
Modèle : Conservez mistral-embed par défaut. Ce modèle offre un bon équilibre entre qualité et performance.
Stratégie : Sélectionnez Sémantique avant d'enregistrer pour une meilleure qualité de recherche dans les mémoires.

Gestion des mémoires

Les mémoires sont créées automatiquement lors de l'exécution des flux de travail (workflows). Elles apparaissent dans cette section après leur création et peuvent être administrées.

  • Types de mémoire — Préférences utilisateur, Contexte, Connaissances, Décisions. Chaque type est identifié par un badge coloré.
  • Actions disponibles — Visualiser le contenu complet, modifier, supprimer. Filtrage par type et recherche sémantique dans les mémoires.
  • Export et import — Exportez vos mémoires en JSON ou CSV. Importez des mémoires depuis un fichier JSON. Régénérez les embeddings si nécessaire.
Statistiques : La section affiche le nombre total de mémoires, les caractères stockés, l'estimation des tokens et le nombre de mémoires avec embeddings générés.

Validation

Le système de validation Human-in-the-Loop permet de contrôler le niveau d'autonomie des agents. Cette configuration détermine quelles opérations s'exécutent automatiquement et lesquelles requièrent une approbation manuelle avant exécution.

Implémentation partielle

Version actuelle : Seule la validation des sous-agents (spawn, délégation, batch parallèle) est fonctionnelle.

Prochaine version : Les validations des outils internes (tools) et des appels MCP seront activées.

Paramètres > Validation
Mode de validation

Auto

Exécuter toutes les opérations sans confirmation

Manuel

Demander confirmation pour chaque opération

Sélectif

Choisir quelles opérations nécessitent validation

Configuration sélective (mode Sélectif)
Opérations à valider

Sélectionnez les types d'opérations qui nécessitent votre approbation

Opérations sous-agents
Création, délégation et exécution parallèle de sous-agents
Seuils de risque
Approuver automatiquement les risques faibles
Ignorer la validation pour les opérations à faible risque
Toujours confirmer les risques élevés
Forcer la validation même en mode Auto pour les opérations à haut risque
Réinitialiser
Enregistrer

Paramètres de configuration

  • Mode Auto - Toutes les opérations s'exécutent sans intervention. Adapté aux flux de travail à faible risque ou en environnement de test.
  • Mode Manuel - Chaque opération déclenche une demande de validation. Permet un contrôle total sur toutes les actions des agents.
  • Mode Sélectif - Configuration granulaire par type d'opération. Équilibre entre autonomie et contrôle (mode recommandé).
  • Niveaux de risque - Les opérations sont classées en trois niveaux : faible (low), moyen (medium), et élevé (high). Les seuils permettent d'ajuster le comportement selon le niveau de risque.

Types de validation

Opérations sous-agents (fonctionnel)

La validation des sous-agents couvre trois types d'opérations :

  • Spawn - Création d'un nouveau sous-agent avec aperçu du prompt, outils et serveurs MCP attribués
  • Delegate - Délégation d'une tâche à un agent existant avec identification de l'agent cible
  • Parallel batch - Exécution simultanée de plusieurs tâches avec liste des agents et prompts
Validations prévues (prochaine version)
  • Tools - Validation des appels aux outils internes (lecture/écriture fichiers, exécution commandes)
  • MCP - Validation des appels aux serveurs MCP externes

Prompts

La bibliothèque de prompts permet de stocker des instructions réutilisables. Chaque prompt peut contenir des variables dynamiques qui seront remplacées lors de l'utilisation. Les prompts sont organisés par catégories et accessibles depuis l'interface de conversation.

Paramètres > Prompts
Bibliothèque de prompts
Créer un prompt
Rechercher un prompt...
Toutes catégories
Revue de code coding
Analyse le code fourni et suggère des améliorations
Variables: 2 Modifié: 15 jan 2025
Modifier
Supprimer
Résumé de document analysis
Génère un résumé structuré avec les points clés
Variables: 1 Modifié: 12 jan 2025
Modifier
Supprimer
Créer un prompt
Nom *
Traduction multilingue
21 / 128
Description
Traduit un texte source vers plusieurs langues cibles
48 / 1000
Catégorie *
generation
Contenu *
Traduis le texte suivant de {{langue_source}} vers {{langue_cible}}. Texte à traduire : {{texte}} Fournit uniquement la traduction, sans explication.
142 / 50000
Variables détectées
{{langue_source}} {{langue_cible}} {{texte}}
Annuler
Enregistrer

Champs du formulaire

  • Nom - Identifiant du prompt affiché dans la liste. Obligatoire, 128 caractères maximum.
  • Description - Texte explicatif optionnel affiché sous le nom. 1000 caractères maximum.
  • Catégorie - Classification obligatoire parmi : system, user, analysis, generation, coding, custom.
  • Contenu - Corps du prompt avec les instructions. Obligatoire, 50 000 caractères maximum.

Système de variables

Syntaxe des variables

Les variables utilisent la syntaxe {{nom_variable}}. Elles sont détectées automatiquement lors de la saisie du contenu.

Règles de nommage :

  • Commence par une lettre ou underscore
  • Contient uniquement lettres, chiffres et underscores
  • Exemples valides : {{texte}}, {{user_name}}, {{code_source}}

Utilisation des prompts

Accès depuis l'interface de conversation

Les prompts enregistrés sont accessibles directement depuis la zone de saisie de message :

  • Bouton bibliothèque - Cliquez sur l'icône livre (BookOpen) dans la barre d'outils de saisie
  • Raccourci clavier - Appuyez sur Ctrl+P (ou Cmd+P sur Mac)

Une modale s'ouvre permettant de parcourir, filtrer et sélectionner un prompt. Si le prompt contient des variables, un formulaire permet de saisir les valeurs avant insertion dans la zone de message.

Actions disponibles

  • Créer - Ouvre le formulaire de création pour définir un nouveau prompt.
  • Modifier - Charge le prompt existant dans le formulaire pour édition.
  • Supprimer - Supprime le prompt après confirmation. Action irréversible.
  • Rechercher - Filtre la liste par nom ou description (insensible à la casse).
  • Filtrer par catégorie - Affiche uniquement les prompts d'une catégorie spécifique.

Thème

Personnalisez l'apparence de Zileo Chat pour l'adapter à vos préférences visuelles et à votre environnement de travail.

Paramètres > Thème
Clair
Interface lumineuse pour le travail de jour
Sombre
Réduit la fatigue oculaire en faible luminosité
  • Mode clair - Interface lumineuse, idéale pour le travail de jour ou dans des environnements bien éclairés.
  • Mode sombre - Réduit la fatigue oculaire en conditions de faible luminosité et économise la batterie sur les écrans OLED.
  • Palette de couleurs - Chaque thème utilise les couleurs de la marque Zileo : turquoise (#94EFEE) et corail (#FE7254) comme accents.

Import/Export

Cette section permet de sauvegarder et restaurer la configuration de l'application. Les données sont exportées au format JSON et peuvent être importées sur une autre installation. L'interface propose deux onglets : Export et Import.

Export

L'export génère un fichier JSON contenant les entités sélectionnées. Le processus se déroule en trois étapes.

Export - Étape 1 : Selection
Sélectionner les entités à exporter
Agents
Tout Aucun
Assistant Général
permanent - mistral-large
Code Reviewer
permanent - codestral
Serveurs MCP
Tout Aucun
duckduckgo
filesystem
Modèles
3 modèles sélectionnés
Prompts
0 prompt sélectionné
Suivant
Export - Étape 2 : Options
Options d'export
Inclure les timestamps
Ajoute les dates de création et modification
Activer la sanitisation MCP
Permet de nettoyer les variables sensibles à l'étape suivante
Précédent
Suivant
Export - Étape 3 : Aperçu et sanitisation
Résumé de l'export
2 Agents 2 Serveurs MCP 3 Modèles
Sanitisation des serveurs MCP

Nettoyez les variables d'environnement sensibles avant l'export

duckduckgo Exclure de l'export
SEARCH_API_KEY (effacer)
Effacer toutes les variables sensibles
filesystem Aucune variable sensible
Précédent
Télécharger .json

Données exportées

  • Agents - Nom, cycle de vie, configuration LLM, outils, serveurs MCP, prompt système, itérations max.
  • Serveurs MCP - Nom, commande, arguments, variables d'environnement, description.
  • Modèles LLM - Fournisseur, nom API, fenêtre de contexte, tokens max, température, tarification.
  • Prompts - Nom, description, categorie, contenu complet.
Données non exportées
  • Historique des conversations et messages
  • Embeddings et données vectorielles
  • Préférences utilisateur (thème, langue)
  • Identifiants de base de données (UUID)

Import

L'import charge un fichier JSON exporté précédemment. Le processus inclut la validation, la résolution des conflits et la saisie des variables d'environnement manquantes.

Import - Étape 1 : Chargement

Déposez un fichier JSON ici ou

Parcourir

Format: JSON - Taille max: 10 Mo

Import - Résolution des conflits
Conflits détectés (2)

Ces entités existent déjà avec le même nom. Choisissez une résolution pour chacune.

Agent Assistant Général
Ignorer
Écraser
Renommer
MCP duckduckgo
Ignorer
Écraser
Renommer
Appliquer à tous les conflits non résolus :
Tout ignorer
Tout écraser
Tout renommer
Précédent
Suivant
Import - Variables d'environnement MCP
Variables manquantes

Ces variables sont requises pour le bon fonctionnement des serveurs MCP importés.

duckduckgo 1 / 1 remplie
SEARCH_API_KEY *
********************
Précédent
Importer

Résolution des conflits

Les conflits sont détectés par nom d'entité (et non par identifiant de base de données). Trois stratégies de résolution sont disponibles :

  • Ignorer (Skip) - L'entité du fichier n'est pas importée. L'entité existante reste inchangée.
  • Écraser (Overwrite) - L'entité existante est remplacée par celle du fichier. L'identifiant de base de données est préservé.
  • Renommer (Rename) - L'entité est importée avec le suffixe " (imported)" ajouté à son nom. Les deux versions coexistent.

Sécurité des clés API MCP

Variables sensibles détectées automatiquement

Le système détecte les variables d'environnement sensibles par correspondance de motifs :

API_KEY SECRET TOKEN PASSWORD CREDENTIAL PRIVATE_KEY

Toute variable dont le nom contient l'un de ces motifs est signalée comme sensible.

Conseils pour le partage de configuration

Avant l'export :

  • Activez l'option "Sanitisation MCP" à l'étape 2
  • Cochez toutes les variables sensibles pour les effacer
  • Excluez les serveurs MCP contenant des données confidentielles

Après l'import :

  • Renseignez les variables manquantes dans le formulaire dédié
  • Vérifiez la configuration des serveurs MCP importés
  • Testez les connexions avant utilisation

Spécifications techniques

  • Format - JSON avec manifest contenant version du schema, timestamp et compteurs.
  • Taille maximale - 10 Mo par fichier d'import.
  • Version du schéma - 1.0 (vérification de compatibilité à l'import).
  • Identifiants - Les entités sont identifiées par leur nom (pas d'UUID dans l'export).