Ce guide vous accompagne dans la configuration complète de Zileo Chat. Chaque section des paramètres est expliquée en détail pour vous permettre de personnaliser l'application selon vos besoins.
Providers
Un provider est un fournisseur de modèles d'IA. Zileo Chat se connecte à ces services pour exécuter les requêtes de vos agents.
Deux options sont disponibles : une API cloud (Mistral AI) ou une exécution locale (Ollama).
Paramètres > Providers
Mistral AIPrêt
Cloud API
✓ Clé API configurée
OllamaPrêt
Local Server
✓ Serveur disponible
Mistral AI — Entreprise française, modèles accessibles via API cloud.
Nécessite une clé API et une connexion internet. Facturation à l'usage (tokens consommés).
Serveurs hébergés en Europe, conformité RGPD.
Obtenir une clé API
Ollama — Exécution locale ou via Ollama Cloud.
En local : gratuit, données sur votre machine, nécessite un GPU pour des performances optimales.
En cloud : modèles avec suffixe :cloud (ex: deepseek-v3.2:cloud), exécution sur l'infrastructure Ollama sans matériel dédié.
Authentification requise via ollama signin. Plans : Gratuit, Pro ($20/mois), Max ($100/mois).
Installer Ollama
Configurer la clé API Mistral
Entrez votre clé API Mistral pour activer ce provider. Vous pouvez obtenir une clé sur la console Mistral.
Clé API
************************
Trouvez votre clé API sur console.mistral.ai
✓La clé API est configurée
Annuler
Enregistrer
Configuration Ollama : Le service écoute sur http://localhost:11434 (local et cloud).
Téléchargez un modèle local avec ollama pull mistral ou un modèle cloud avec ollama run deepseek-v3.2:cloud.
Pour Ollama Cloud, authentifiez-vous d'abord avec ollama signin.
Consultez le catalogue des modèles pour les spécifications.
Modèles
Les modèles de langage (LLM) sont les moteurs d'inférence utilisés par vos agents.
Chaque modèle doit être configuré manuellement avec son identifiant API exact et ses spécifications techniques.
Ajouter un modèle
Provider
Mistral
Nom
Mistral Large
Nom d'affichage dans l'interface
Nom API
mistral-large-latest
Identifiant exact du modèle pour l'API
Fenêtre de contexte
128000
Max Output
4096
Température
0.7
Thinking (raisonnement)
Tarification (optionnel)
Prix input ($/1M tokens)
2.00
Prix output ($/1M tokens)
6.00
Annuler
Créer le modèle
Identifiants des modèles : Ollama : Exécutez ollama list pour afficher les modèles installés. Spécifications sur ollama.com/library. Mistral : Identifiants disponibles dans la documentation :
mistral-large-latest, mistral-small-latest, codestral-latest.
Modèle recommandé pour Ollama :deepseek-v3.2:cloud
Modèle open source offrant de bonnes performances générales et un suivi des instructions fiable.
Modèle de type "thinking" : cocher l'option correspondante lors de la configuration.
Installation : ollama run deepseek-v3.2:cloud (nécessite ollama signin pour Ollama Cloud).
Paramètres techniques
Fenêtre de contexte — Nombre maximum de tokens (texte d'entrée + historique) que le modèle peut traiter en une requête. Valeurs courantes : 32K, 128K, 256K tokens.
Max Output — Nombre maximum de tokens que le modèle peut générer en réponse. Détermine la longueur maximale des réponses.
Température — Paramètre de 0 à 1 contrôlant la variabilité des réponses. Valeurs basses (0.1-0.3) : réponses déterministes. Valeurs hautes (0.7-1.0) : réponses plus variées.
Thinking — Option pour les modèles de raisonnement (ex: DeepSeek). Active le mode de réflexion interne avant génération. Ne pas cocher pour les modèles standards (Mistral Large, Llama).
Tarification — Prix par million de tokens (input/output). Utile pour estimer les coûts d'utilisation des modèles cloud. Tarifs Mistral : mistral.ai/pricing. Ollama local/cloud : gratuit ou selon abonnement.
Agents
Un agent est une configuration qui associe un modèle de langage, des outils et des instructions système.
Chaque agent peut être spécialisé pour un type de tâche spécifique (code, rédaction, analyse, etc.).
Paramètres > Agents
Assistant CodePermanent
Ollama - deepseek-v3.2:cloud
4 outils1 serveur MCP
RédacteurTemporaire
Mistral - mistral-large-latest
2 outils0 serveur MCP
Créer un agent
Informations de base
Nom de l'agent
Assistant Code
Cycle de vie
Permanent
Conservé entre sessions
Temporaire
Supprimé à la fermeture
Configuration LLM
Fournisseur
Mistral
API Cloud
Ollama
Local / Cloud
Modèle
DeepSeek V3.2 CloudThinking
deepseek-v3.2:cloud
128K ctx8K outT: 0.7
Max itérations outils
50
Outils
MémoireStocke des informations
TodoGère les tâches
Question utilisateurPose des questions
CalculatriceCalculs mathématiques
Serveurs MCP
SerenaAnalyse de code
Prompt système
Instructions système
Tu es un assistant utile. Tu réponds de manière claire et structurée.
Annuler
Créer
Paramètres de configuration
Cycle de vie — Permanent : l'agent est conservé entre les sessions et apparaît dans la liste des agents disponibles. Temporaire : l'agent est supprimé à la fermeture de l'application.
Max itérations outils — Limite le nombre d'appels d'outils consécutifs par tour de conversation. Valeur par défaut : 50. Augmentez pour les tâches complexes nécessitant de nombreuses opérations.
Outils intégrés — Mémoire (stockage persistant d'informations), Todo (gestion de tâches), Question utilisateur (demandes de clarification), Calculatrice (opérations mathématiques).
Serveurs MCP — Outils externes accessibles via le protocole MCP. Chaque serveur apporte des capacités supplémentaires (analyse de code, accès fichiers, APIs, etc.). Voir la section Serveurs MCP.
Prompt système — Instructions définissant le comportement de l'agent. Ce texte est envoyé au modèle avant chaque conversation. Définit le rôle, le ton et les contraintes de l'agent.
Conseils pour la création d'agents : Prompt système : Soyez précis et structurez vos instructions. Indiquez le rôle ("Tu es un développeur Python"), le format de réponse attendu, et les contraintes à respecter. Outils : N'activez que les outils nécessaires. Un agent avec moins d'outils est plus prévisible et consomme moins de tokens. Modèle : Pour les tâches de code, privilégiez Codestral (Mistral) ou un modèle thinking (DeepSeek). Pour la rédaction générale, Mistral Large offre un bon équilibre.
Exemple de prompt système efficace : Tu es un assistant de développement spécialisé en TypeScript et Svelte. Tu réponds de manière concise. Tu fournis des exemples de code commentés. Tu signales les erreurs potentielles et proposes des corrections.
Serveurs MCP
Le Model Context Protocol (MCP) est un protocole standard permettant aux agents d'interagir avec des outils externes.
Un serveur MCP expose des outils et ressources que l'agent peut utiliser pendant une conversation.
Paramètres > Serveurs MCP
duckduckgoEn cours
Recherche web via DuckDuckGo
docker run -i --rm mcp/duckduckgo
3 outils0 ressources
serenaEn cours
Analyse de code semantique
uvx serena-mcp-server
15 outils2 ressources
Méthodes de déploiement
Docker — Exécution isolée dans un conteneur. Sécurité maximale : le serveur n'a pas accès au système hôte. Nécessite Docker Desktop installé.
NPX — Exécution de packages Node.js. Nécessite Node.js installé. Format : npx -y @package/name.
UVX — Exécution de packages Python. Nécessite Python et uv installés. Format : uvx package-name.
HTTP — Connexion à un serveur MCP distant via HTTP/SSE. Indiquez l'URL complète du serveur.
Ajouter un serveur MCP
Ajouter un serveur MCP
Nom
duckduckgo
Identifiant unique (lettres, chiffres, - et _)
Déploiement
Docker
NPX
UVX
HTTP
Arguments (un par ligne)
run
-i
--rm
mcp/duckduckgo
Chaque argument sur une ligne séparée
Variables d'environnement
=X
+ Ajouter une variable
Description (optionnel)
Recherche web via DuckDuckGo
Activé (démarrage automatique)
Annuler
Créer
Trouver des serveurs MCP
Docker Desktop - MCP Toolkit :
1. Ouvrez Docker Desktop et accédez à l'extension MCP Toolkit
2. Parcourez le catalogue des serveurs MCP disponibles
3. Cliquez sur un serveur pour voir ses détails
4. Dans la section "Use this MCP Server" en bas de page, copiez la configuration
5. Adaptez les valeurs dans Zileo Chat (nom, arguments, variables d'environnement)
Exemple : Configuration DuckDuckGo depuis Docker Desktop
La configuration affichée dans MCP Toolkit :
{
"mcpServers": {
"duckduckgo": {
"command": "docker",
"args": ["run", "-i", "--rm", "mcp/duckduckgo"]
}
}
}Dans Zileo Chat : Nom = duckduckgo, Déploiement = Docker, Arguments (un par ligne) :
run
-i
--rm
mcp/duckduckgo
Mémoire
La mémoire permet aux agents de stocker et retrouver des informations entre les conversations.
Les données sont transformées en vecteurs (embeddings) pour permettre une recherche sémantique (RAG).
Paramètres > Mémoire > Configuration Embedding
Modèle d'embedding
Provider
Mistral
Modèle
mistral-embed
Dimensions vectorielles
1024D (calculé automatiquement)
Paramètres de découpage
Stratégie
Sémantique
Découpe le texte selon la structure sémantique
Taille des chunks (512)
512
100 - 2000 caractères
Chevauchement (50)
50
0 - 500 caractères
Annuler
Enregistrer
Activation requise : La configuration d'embedding est pré-remplie avec des valeurs par défaut.
Vous devez cliquer sur Enregistrer pour activer la fonctionnalité de mémoire et permettre la génération des embeddings.
Paramètres de configuration
Provider et Modèle — Mistral : mistral-embed (1024D). Ollama : nomic-embed-text (768D), mxbai-embed-large (1024D). Les dimensions sont calculées automatiquement selon le modèle.
Stratégie de découpage — Fixe : découpe à taille constante. Sémantique : découpe selon la structure du texte (paragraphes, phrases). Récursive : découpe hiérarchique. La stratégie sémantique offre de meilleurs résultats pour la recherche.
Taille des chunks — Nombre de caractères par segment (100-2000). Valeur par défaut : 512. Des chunks plus petits donnent des résultats plus précis, des chunks plus grands conservent plus de contexte.
Chevauchement — Nombre de caractères partagés entre chunks adjacents (0-500). Valeur par défaut : 50. Permet de ne pas couper les informations aux limites des segments.
Configuration recommandée : Modèle : Conservez mistral-embed par défaut. Ce modèle offre un bon équilibre entre qualité et performance. Stratégie : Sélectionnez Sémantique avant d'enregistrer pour une meilleure qualité de recherche dans les mémoires.
Gestion des mémoires
Les mémoires sont créées automatiquement lors de l'exécution des flux de travail (workflows).
Elles apparaissent dans cette section après leur création et peuvent être administrées.
Types de mémoire — Préférences utilisateur, Contexte, Connaissances, Décisions. Chaque type est identifié par un badge coloré.
Actions disponibles — Visualiser le contenu complet, modifier, supprimer. Filtrage par type et recherche sémantique dans les mémoires.
Export et import — Exportez vos mémoires en JSON ou CSV. Importez des mémoires depuis un fichier JSON. Régénérez les embeddings si nécessaire.
Statistiques : La section affiche le nombre total de mémoires, les caractères stockés, l'estimation des tokens et le nombre de mémoires avec embeddings générés.
Validation
Le système de validation Human-in-the-Loop permet de contrôler le niveau d'autonomie
des agents. Cette configuration détermine quelles opérations s'exécutent automatiquement et lesquelles
requièrent une approbation manuelle avant exécution.
Implémentation partielle
Version actuelle : Seule la validation des sous-agents (spawn, délégation, batch parallèle) est fonctionnelle.
Prochaine version : Les validations des outils internes (tools) et des appels MCP seront activées.
Paramètres > Validation
Mode de validation
Auto
Exécuter toutes les opérations sans confirmation
Manuel
Demander confirmation pour chaque opération
Sélectif
Choisir quelles opérations nécessitent validation
Configuration sélective (mode Sélectif)
Opérations à valider
Sélectionnez les types d'opérations qui nécessitent votre approbation
Opérations sous-agents
Création, délégation et exécution parallèle de sous-agents
Seuils de risque
Approuver automatiquement les risques faibles
Ignorer la validation pour les opérations à faible risque
Toujours confirmer les risques élevés
Forcer la validation même en mode Auto pour les opérations à haut risque
Réinitialiser
Enregistrer
Paramètres de configuration
Mode Auto - Toutes les opérations s'exécutent sans intervention.
Adapté aux flux de travail à faible risque ou en environnement de test.
Mode Manuel - Chaque opération déclenche une demande de validation.
Permet un contrôle total sur toutes les actions des agents.
Mode Sélectif - Configuration granulaire par type d'opération.
Équilibre entre autonomie et contrôle (mode recommandé).
Niveaux de risque - Les opérations sont classées en trois niveaux :
faible (low), moyen (medium), et élevé (high). Les seuils permettent d'ajuster
le comportement selon le niveau de risque.
Types de validation
Opérations sous-agents (fonctionnel)
La validation des sous-agents couvre trois types d'opérations :
Spawn - Création d'un nouveau sous-agent avec aperçu du prompt, outils et serveurs MCP attribués
Delegate - Délégation d'une tâche à un agent existant avec identification de l'agent cible
Parallel batch - Exécution simultanée de plusieurs tâches avec liste des agents et prompts
Validations prévues (prochaine version)
Tools - Validation des appels aux outils internes (lecture/écriture fichiers, exécution commandes)
MCP - Validation des appels aux serveurs MCP externes
Prompts
La bibliothèque de prompts permet de stocker des instructions réutilisables. Chaque prompt peut contenir
des variables dynamiques qui seront remplacées lors de l'utilisation. Les prompts sont organisés par
catégories et accessibles depuis l'interface de conversation.
Paramètres > Prompts
Bibliothèque de prompts
Créer un prompt
Rechercher un prompt...
Toutes catégories
Revue de codecoding
Analyse le code fourni et suggère des améliorations
Variables: 2Modifié: 15 jan 2025
Modifier
Supprimer
Résumé de documentanalysis
Génère un résumé structuré avec les points clés
Variables: 1Modifié: 12 jan 2025
Modifier
Supprimer
Créer un prompt
Nom *
Traduction multilingue
21 / 128
Description
Traduit un texte source vers plusieurs langues cibles
48 / 1000
Catégorie *
generation
Contenu *
Traduis le texte suivant de {{langue_source}} vers {{langue_cible}}.
Texte à traduire :
{{texte}}
Fournit uniquement la traduction, sans explication.
142 / 50000
Variables détectées
{{langue_source}}{{langue_cible}}{{texte}}
Annuler
Enregistrer
Champs du formulaire
Nom - Identifiant du prompt affiché dans la liste. Obligatoire, 128 caractères maximum.
Description - Texte explicatif optionnel affiché sous le nom. 1000 caractères maximum.
Les prompts enregistrés sont accessibles directement depuis la zone de saisie de message :
Bouton bibliothèque - Cliquez sur l'icône livre (BookOpen) dans la barre d'outils de saisie
Raccourci clavier - Appuyez sur Ctrl+P (ou Cmd+P sur Mac)
Une modale s'ouvre permettant de parcourir, filtrer et sélectionner un prompt. Si le prompt contient
des variables, un formulaire permet de saisir les valeurs avant insertion dans la zone de message.
Actions disponibles
Créer - Ouvre le formulaire de création pour définir un nouveau prompt.
Modifier - Charge le prompt existant dans le formulaire pour édition.
Supprimer - Supprime le prompt après confirmation. Action irréversible.
Rechercher - Filtre la liste par nom ou description (insensible à la casse).
Filtrer par catégorie - Affiche uniquement les prompts d'une catégorie spécifique.
Thème
Personnalisez l'apparence de Zileo Chat pour l'adapter à vos préférences visuelles
et à votre environnement de travail.
Paramètres > Thème
Clair
Interface lumineuse pour le travail de jour
Sombre
Réduit la fatigue oculaire en faible luminosité
Mode clair - Interface lumineuse, idéale pour le travail de jour
ou dans des environnements bien éclairés.
Mode sombre - Réduit la fatigue oculaire en conditions de faible luminosité
et économise la batterie sur les écrans OLED.
Palette de couleurs - Chaque thème utilise les couleurs de la marque Zileo :
turquoise (#94EFEE) et corail (#FE7254) comme accents.
Import/Export
Cette section permet de sauvegarder et restaurer la configuration de l'application.
Les données sont exportées au format JSON et peuvent être importées sur une autre
installation. L'interface propose deux onglets : Export et Import.
Export
L'export génère un fichier JSON contenant les entités sélectionnées. Le processus se déroule en trois étapes.
Export - Étape 1 : Selection
Sélectionner les entités à exporter
Agents
ToutAucun
Assistant Général
permanent - mistral-large
Code Reviewer
permanent - codestral
Serveurs MCP
ToutAucun
duckduckgo
filesystem
Modèles
3 modèles sélectionnés
Prompts
0 prompt sélectionné
Suivant
Export - Étape 2 : Options
Options d'export
Inclure les timestamps
Ajoute les dates de création et modification
Activer la sanitisation MCP
Permet de nettoyer les variables sensibles à l'étape suivante
Précédent
Suivant
Export - Étape 3 : Aperçu et sanitisation
Résumé de l'export
2 Agents2 Serveurs MCP3 Modèles
Sanitisation des serveurs MCP
Nettoyez les variables d'environnement sensibles avant l'export
L'import charge un fichier JSON exporté précédemment. Le processus inclut la validation,
la résolution des conflits et la saisie des variables d'environnement manquantes.
Import - Étape 1 : Chargement
Déposez un fichier JSON ici ou
Parcourir
Format: JSON - Taille max: 10 Mo
Import - Résolution des conflits
Conflits détectés (2)
Ces entités existent déjà avec le même nom. Choisissez une résolution pour chacune.
AgentAssistant Général
Ignorer
Écraser
Renommer
MCPduckduckgo
Ignorer
Écraser
Renommer
Appliquer à tous les conflits non résolus :
Tout ignorer
Tout écraser
Tout renommer
Précédent
Suivant
Import - Variables d'environnement MCP
Variables manquantes
Ces variables sont requises pour le bon fonctionnement des serveurs MCP importés.
duckduckgo1 / 1 remplie
SEARCH_API_KEY *
********************
Précédent
Importer
Résolution des conflits
Les conflits sont détectés par nom d'entité (et non par identifiant de base de données).
Trois stratégies de résolution sont disponibles :
Ignorer (Skip) - L'entité du fichier n'est pas importée. L'entité existante reste inchangée.
Écraser (Overwrite) - L'entité existante est remplacée par celle du fichier.
L'identifiant de base de données est préservé.
Renommer (Rename) - L'entité est importée avec le suffixe " (imported)" ajouté à son nom.
Les deux versions coexistent.
Sécurité des clés API MCP
Variables sensibles détectées automatiquement
Le système détecte les variables d'environnement sensibles par correspondance de motifs :
API_KEYSECRETTOKENPASSWORDCREDENTIALPRIVATE_KEY
Toute variable dont le nom contient l'un de ces motifs est signalée comme sensible.
Conseils pour le partage de configuration
Avant l'export :
Activez l'option "Sanitisation MCP" à l'étape 2
Cochez toutes les variables sensibles pour les effacer
Excluez les serveurs MCP contenant des données confidentielles
Après l'import :
Renseignez les variables manquantes dans le formulaire dédié
Vérifiez la configuration des serveurs MCP importés
Testez les connexions avant utilisation
Spécifications techniques
Format - JSON avec manifest contenant version du schema, timestamp et compteurs.
Taille maximale - 10 Mo par fichier d'import.
Version du schéma - 1.0 (vérification de compatibilité à l'import).
Identifiants - Les entités sont identifiées par leur nom (pas d'UUID dans l'export).
Ce guide vous accompagne dans la configuration complète de Zileo Chat. Chaque section des paramètres est expliquée en détail pour vous permettre de personnaliser l'application selon vos besoins.
Providers
Un provider est un fournisseur de modèles d'IA. Zileo Chat se connecte à ces services pour exécuter les requêtes de vos agents.
Deux options sont disponibles : une API cloud (Mistral AI) ou une exécution locale (Ollama).
Paramètres > Providers
Mistral AIPrêt
Cloud API
✓ Clé API configurée
OllamaPrêt
Local Server
✓ Serveur disponible
Mistral AI — Entreprise française, modèles accessibles via API cloud.
Nécessite une clé API et une connexion internet. Facturation à l'usage (tokens consommés).
Serveurs hébergés en Europe, conformité RGPD.
Obtenir une clé API
Ollama — Exécution locale ou via Ollama Cloud.
En local : gratuit, données sur votre machine, nécessite un GPU pour des performances optimales.
En cloud : modèles avec suffixe :cloud (ex: deepseek-v3.2:cloud), exécution sur l'infrastructure Ollama sans matériel dédié.
Authentification requise via ollama signin. Plans : Gratuit, Pro ($20/mois), Max ($100/mois).
Installer Ollama
Configurer la clé API Mistral
Entrez votre clé API Mistral pour activer ce provider. Vous pouvez obtenir une clé sur la console Mistral.
Clé API
************************
Trouvez votre clé API sur console.mistral.ai
✓La clé API est configurée
Annuler
Enregistrer
Configuration Ollama : Le service écoute sur http://localhost:11434 (local et cloud).
Téléchargez un modèle local avec ollama pull mistral ou un modèle cloud avec ollama run deepseek-v3.2:cloud.
Pour Ollama Cloud, authentifiez-vous d'abord avec ollama signin.
Consultez le catalogue des modèles pour les spécifications.
Modèles
Les modèles de langage (LLM) sont les moteurs d'inférence utilisés par vos agents.
Chaque modèle doit être configuré manuellement avec son identifiant API exact et ses spécifications techniques.
Ajouter un modèle
Provider
Mistral
Nom
Mistral Large
Nom d'affichage dans l'interface
Nom API
mistral-large-latest
Identifiant exact du modèle pour l'API
Fenêtre de contexte
128000
Max Output
4096
Température
0.7
Thinking (raisonnement)
Tarification (optionnel)
Prix input ($/1M tokens)
2.00
Prix output ($/1M tokens)
6.00
Annuler
Créer le modèle
Identifiants des modèles : Ollama : Exécutez ollama list pour afficher les modèles installés. Spécifications sur ollama.com/library. Mistral : Identifiants disponibles dans la documentation :
mistral-large-latest, mistral-small-latest, codestral-latest.
Modèle recommandé pour Ollama :deepseek-v3.2:cloud
Modèle open source offrant de bonnes performances générales et un suivi des instructions fiable.
Modèle de type "thinking" : cocher l'option correspondante lors de la configuration.
Installation : ollama run deepseek-v3.2:cloud (nécessite ollama signin pour Ollama Cloud).
Paramètres techniques
Fenêtre de contexte — Nombre maximum de tokens (texte d'entrée + historique) que le modèle peut traiter en une requête. Valeurs courantes : 32K, 128K, 256K tokens.
Max Output — Nombre maximum de tokens que le modèle peut générer en réponse. Détermine la longueur maximale des réponses.
Température — Paramètre de 0 à 1 contrôlant la variabilité des réponses. Valeurs basses (0.1-0.3) : réponses déterministes. Valeurs hautes (0.7-1.0) : réponses plus variées.
Thinking — Option pour les modèles de raisonnement (ex: DeepSeek). Active le mode de réflexion interne avant génération. Ne pas cocher pour les modèles standards (Mistral Large, Llama).
Tarification — Prix par million de tokens (input/output). Utile pour estimer les coûts d'utilisation des modèles cloud. Tarifs Mistral : mistral.ai/pricing. Ollama local/cloud : gratuit ou selon abonnement.
Agents
Un agent est une configuration qui associe un modèle de langage, des outils et des instructions système.
Chaque agent peut être spécialisé pour un type de tâche spécifique (code, rédaction, analyse, etc.).
Paramètres > Agents
Assistant CodePermanent
Ollama - deepseek-v3.2:cloud
4 outils1 serveur MCP
RédacteurTemporaire
Mistral - mistral-large-latest
2 outils0 serveur MCP
Créer un agent
Informations de base
Nom de l'agent
Assistant Code
Cycle de vie
Permanent
Conservé entre sessions
Temporaire
Supprimé à la fermeture
Configuration LLM
Fournisseur
Mistral
API Cloud
Ollama
Local / Cloud
Modèle
DeepSeek V3.2 CloudThinking
deepseek-v3.2:cloud
128K ctx8K outT: 0.7
Max itérations outils
50
Outils
MémoireStocke des informations
TodoGère les tâches
Question utilisateurPose des questions
CalculatriceCalculs mathématiques
Serveurs MCP
SerenaAnalyse de code
Prompt système
Instructions système
Tu es un assistant utile. Tu réponds de manière claire et structurée.
Annuler
Créer
Paramètres de configuration
Cycle de vie — Permanent : l'agent est conservé entre les sessions et apparaît dans la liste des agents disponibles. Temporaire : l'agent est supprimé à la fermeture de l'application.
Max itérations outils — Limite le nombre d'appels d'outils consécutifs par tour de conversation. Valeur par défaut : 50. Augmentez pour les tâches complexes nécessitant de nombreuses opérations.
Outils intégrés — Mémoire (stockage persistant d'informations), Todo (gestion de tâches), Question utilisateur (demandes de clarification), Calculatrice (opérations mathématiques).
Serveurs MCP — Outils externes accessibles via le protocole MCP. Chaque serveur apporte des capacités supplémentaires (analyse de code, accès fichiers, APIs, etc.). Voir la section Serveurs MCP.
Prompt système — Instructions définissant le comportement de l'agent. Ce texte est envoyé au modèle avant chaque conversation. Définit le rôle, le ton et les contraintes de l'agent.
Conseils pour la création d'agents : Prompt système : Soyez précis et structurez vos instructions. Indiquez le rôle ("Tu es un développeur Python"), le format de réponse attendu, et les contraintes à respecter. Outils : N'activez que les outils nécessaires. Un agent avec moins d'outils est plus prévisible et consomme moins de tokens. Modèle : Pour les tâches de code, privilégiez Codestral (Mistral) ou un modèle thinking (DeepSeek). Pour la rédaction générale, Mistral Large offre un bon équilibre.
Exemple de prompt système efficace : Tu es un assistant de développement spécialisé en TypeScript et Svelte. Tu réponds de manière concise. Tu fournis des exemples de code commentés. Tu signales les erreurs potentielles et proposes des corrections.
Serveurs MCP
Le Model Context Protocol (MCP) est un protocole standard permettant aux agents d'interagir avec des outils externes.
Un serveur MCP expose des outils et ressources que l'agent peut utiliser pendant une conversation.
Paramètres > Serveurs MCP
duckduckgoEn cours
Recherche web via DuckDuckGo
docker run -i --rm mcp/duckduckgo
3 outils0 ressources
serenaEn cours
Analyse de code semantique
uvx serena-mcp-server
15 outils2 ressources
Méthodes de déploiement
Docker — Exécution isolée dans un conteneur. Sécurité maximale : le serveur n'a pas accès au système hôte. Nécessite Docker Desktop installé.
NPX — Exécution de packages Node.js. Nécessite Node.js installé. Format : npx -y @package/name.
UVX — Exécution de packages Python. Nécessite Python et uv installés. Format : uvx package-name.
HTTP — Connexion à un serveur MCP distant via HTTP/SSE. Indiquez l'URL complète du serveur.
Ajouter un serveur MCP
Ajouter un serveur MCP
Nom
duckduckgo
Identifiant unique (lettres, chiffres, - et _)
Déploiement
Docker
NPX
UVX
HTTP
Arguments (un par ligne)
run
-i
--rm
mcp/duckduckgo
Chaque argument sur une ligne séparée
Variables d'environnement
=X
+ Ajouter une variable
Description (optionnel)
Recherche web via DuckDuckGo
Activé (démarrage automatique)
Annuler
Créer
Trouver des serveurs MCP
Docker Desktop - MCP Toolkit :
1. Ouvrez Docker Desktop et accédez à l'extension MCP Toolkit
2. Parcourez le catalogue des serveurs MCP disponibles
3. Cliquez sur un serveur pour voir ses détails
4. Dans la section "Use this MCP Server" en bas de page, copiez la configuration
5. Adaptez les valeurs dans Zileo Chat (nom, arguments, variables d'environnement)
Exemple : Configuration DuckDuckGo depuis Docker Desktop
La configuration affichée dans MCP Toolkit :
{
"mcpServers": {
"duckduckgo": {
"command": "docker",
"args": ["run", "-i", "--rm", "mcp/duckduckgo"]
}
}
}Dans Zileo Chat : Nom = duckduckgo, Déploiement = Docker, Arguments (un par ligne) :
run
-i
--rm
mcp/duckduckgo
Mémoire
La mémoire permet aux agents de stocker et retrouver des informations entre les conversations.
Les données sont transformées en vecteurs (embeddings) pour permettre une recherche sémantique (RAG).
Paramètres > Mémoire > Configuration Embedding
Modèle d'embedding
Provider
Mistral
Modèle
mistral-embed
Dimensions vectorielles
1024D (calculé automatiquement)
Paramètres de découpage
Stratégie
Sémantique
Découpe le texte selon la structure sémantique
Taille des chunks (512)
512
100 - 2000 caractères
Chevauchement (50)
50
0 - 500 caractères
Annuler
Enregistrer
Activation requise : La configuration d'embedding est pré-remplie avec des valeurs par défaut.
Vous devez cliquer sur Enregistrer pour activer la fonctionnalité de mémoire et permettre la génération des embeddings.
Paramètres de configuration
Provider et Modèle — Mistral : mistral-embed (1024D). Ollama : nomic-embed-text (768D), mxbai-embed-large (1024D). Les dimensions sont calculées automatiquement selon le modèle.
Stratégie de découpage — Fixe : découpe à taille constante. Sémantique : découpe selon la structure du texte (paragraphes, phrases). Récursive : découpe hiérarchique. La stratégie sémantique offre de meilleurs résultats pour la recherche.
Taille des chunks — Nombre de caractères par segment (100-2000). Valeur par défaut : 512. Des chunks plus petits donnent des résultats plus précis, des chunks plus grands conservent plus de contexte.
Chevauchement — Nombre de caractères partagés entre chunks adjacents (0-500). Valeur par défaut : 50. Permet de ne pas couper les informations aux limites des segments.
Configuration recommandée : Modèle : Conservez mistral-embed par défaut. Ce modèle offre un bon équilibre entre qualité et performance. Stratégie : Sélectionnez Sémantique avant d'enregistrer pour une meilleure qualité de recherche dans les mémoires.
Gestion des mémoires
Les mémoires sont créées automatiquement lors de l'exécution des flux de travail (workflows).
Elles apparaissent dans cette section après leur création et peuvent être administrées.
Types de mémoire — Préférences utilisateur, Contexte, Connaissances, Décisions. Chaque type est identifié par un badge coloré.
Actions disponibles — Visualiser le contenu complet, modifier, supprimer. Filtrage par type et recherche sémantique dans les mémoires.
Export et import — Exportez vos mémoires en JSON ou CSV. Importez des mémoires depuis un fichier JSON. Régénérez les embeddings si nécessaire.
Statistiques : La section affiche le nombre total de mémoires, les caractères stockés, l'estimation des tokens et le nombre de mémoires avec embeddings générés.
Validation
Le système de validation Human-in-the-Loop permet de contrôler le niveau d'autonomie
des agents. Cette configuration détermine quelles opérations s'exécutent automatiquement et lesquelles
requièrent une approbation manuelle avant exécution.
Implémentation partielle
Version actuelle : Seule la validation des sous-agents (spawn, délégation, batch parallèle) est fonctionnelle.
Prochaine version : Les validations des outils internes (tools) et des appels MCP seront activées.
Paramètres > Validation
Mode de validation
Auto
Exécuter toutes les opérations sans confirmation
Manuel
Demander confirmation pour chaque opération
Sélectif
Choisir quelles opérations nécessitent validation
Configuration sélective (mode Sélectif)
Opérations à valider
Sélectionnez les types d'opérations qui nécessitent votre approbation
Opérations sous-agents
Création, délégation et exécution parallèle de sous-agents
Seuils de risque
Approuver automatiquement les risques faibles
Ignorer la validation pour les opérations à faible risque
Toujours confirmer les risques élevés
Forcer la validation même en mode Auto pour les opérations à haut risque
Réinitialiser
Enregistrer
Paramètres de configuration
Mode Auto - Toutes les opérations s'exécutent sans intervention.
Adapté aux flux de travail à faible risque ou en environnement de test.
Mode Manuel - Chaque opération déclenche une demande de validation.
Permet un contrôle total sur toutes les actions des agents.
Mode Sélectif - Configuration granulaire par type d'opération.
Équilibre entre autonomie et contrôle (mode recommandé).
Niveaux de risque - Les opérations sont classées en trois niveaux :
faible (low), moyen (medium), et élevé (high). Les seuils permettent d'ajuster
le comportement selon le niveau de risque.
Types de validation
Opérations sous-agents (fonctionnel)
La validation des sous-agents couvre trois types d'opérations :
Spawn - Création d'un nouveau sous-agent avec aperçu du prompt, outils et serveurs MCP attribués
Delegate - Délégation d'une tâche à un agent existant avec identification de l'agent cible
Parallel batch - Exécution simultanée de plusieurs tâches avec liste des agents et prompts
Validations prévues (prochaine version)
Tools - Validation des appels aux outils internes (lecture/écriture fichiers, exécution commandes)
MCP - Validation des appels aux serveurs MCP externes
Prompts
La bibliothèque de prompts permet de stocker des instructions réutilisables. Chaque prompt peut contenir
des variables dynamiques qui seront remplacées lors de l'utilisation. Les prompts sont organisés par
catégories et accessibles depuis l'interface de conversation.
Paramètres > Prompts
Bibliothèque de prompts
Créer un prompt
Rechercher un prompt...
Toutes catégories
Revue de codecoding
Analyse le code fourni et suggère des améliorations
Variables: 2Modifié: 15 jan 2025
Modifier
Supprimer
Résumé de documentanalysis
Génère un résumé structuré avec les points clés
Variables: 1Modifié: 12 jan 2025
Modifier
Supprimer
Créer un prompt
Nom *
Traduction multilingue
21 / 128
Description
Traduit un texte source vers plusieurs langues cibles
48 / 1000
Catégorie *
generation
Contenu *
Traduis le texte suivant de {{langue_source}} vers {{langue_cible}}.
Texte à traduire :
{{texte}}
Fournit uniquement la traduction, sans explication.
142 / 50000
Variables détectées
{{langue_source}}{{langue_cible}}{{texte}}
Annuler
Enregistrer
Champs du formulaire
Nom - Identifiant du prompt affiché dans la liste. Obligatoire, 128 caractères maximum.
Description - Texte explicatif optionnel affiché sous le nom. 1000 caractères maximum.
Les prompts enregistrés sont accessibles directement depuis la zone de saisie de message :
Bouton bibliothèque - Cliquez sur l'icône livre (BookOpen) dans la barre d'outils de saisie
Raccourci clavier - Appuyez sur Ctrl+P (ou Cmd+P sur Mac)
Une modale s'ouvre permettant de parcourir, filtrer et sélectionner un prompt. Si le prompt contient
des variables, un formulaire permet de saisir les valeurs avant insertion dans la zone de message.
Actions disponibles
Créer - Ouvre le formulaire de création pour définir un nouveau prompt.
Modifier - Charge le prompt existant dans le formulaire pour édition.
Supprimer - Supprime le prompt après confirmation. Action irréversible.
Rechercher - Filtre la liste par nom ou description (insensible à la casse).
Filtrer par catégorie - Affiche uniquement les prompts d'une catégorie spécifique.
Thème
Personnalisez l'apparence de Zileo Chat pour l'adapter à vos préférences visuelles
et à votre environnement de travail.
Paramètres > Thème
Clair
Interface lumineuse pour le travail de jour
Sombre
Réduit la fatigue oculaire en faible luminosité
Mode clair - Interface lumineuse, idéale pour le travail de jour
ou dans des environnements bien éclairés.
Mode sombre - Réduit la fatigue oculaire en conditions de faible luminosité
et économise la batterie sur les écrans OLED.
Palette de couleurs - Chaque thème utilise les couleurs de la marque Zileo :
turquoise (#94EFEE) et corail (#FE7254) comme accents.
Import/Export
Cette section permet de sauvegarder et restaurer la configuration de l'application.
Les données sont exportées au format JSON et peuvent être importées sur une autre
installation. L'interface propose deux onglets : Export et Import.
Export
L'export génère un fichier JSON contenant les entités sélectionnées. Le processus se déroule en trois étapes.
Export - Étape 1 : Selection
Sélectionner les entités à exporter
Agents
ToutAucun
Assistant Général
permanent - mistral-large
Code Reviewer
permanent - codestral
Serveurs MCP
ToutAucun
duckduckgo
filesystem
Modèles
3 modèles sélectionnés
Prompts
0 prompt sélectionné
Suivant
Export - Étape 2 : Options
Options d'export
Inclure les timestamps
Ajoute les dates de création et modification
Activer la sanitisation MCP
Permet de nettoyer les variables sensibles à l'étape suivante
Précédent
Suivant
Export - Étape 3 : Aperçu et sanitisation
Résumé de l'export
2 Agents2 Serveurs MCP3 Modèles
Sanitisation des serveurs MCP
Nettoyez les variables d'environnement sensibles avant l'export
L'import charge un fichier JSON exporté précédemment. Le processus inclut la validation,
la résolution des conflits et la saisie des variables d'environnement manquantes.
Import - Étape 1 : Chargement
Déposez un fichier JSON ici ou
Parcourir
Format: JSON - Taille max: 10 Mo
Import - Résolution des conflits
Conflits détectés (2)
Ces entités existent déjà avec le même nom. Choisissez une résolution pour chacune.
AgentAssistant Général
Ignorer
Écraser
Renommer
MCPduckduckgo
Ignorer
Écraser
Renommer
Appliquer à tous les conflits non résolus :
Tout ignorer
Tout écraser
Tout renommer
Précédent
Suivant
Import - Variables d'environnement MCP
Variables manquantes
Ces variables sont requises pour le bon fonctionnement des serveurs MCP importés.
duckduckgo1 / 1 remplie
SEARCH_API_KEY *
********************
Précédent
Importer
Résolution des conflits
Les conflits sont détectés par nom d'entité (et non par identifiant de base de données).
Trois stratégies de résolution sont disponibles :
Ignorer (Skip) - L'entité du fichier n'est pas importée. L'entité existante reste inchangée.
Écraser (Overwrite) - L'entité existante est remplacée par celle du fichier.
L'identifiant de base de données est préservé.
Renommer (Rename) - L'entité est importée avec le suffixe " (imported)" ajouté à son nom.
Les deux versions coexistent.
Sécurité des clés API MCP
Variables sensibles détectées automatiquement
Le système détecte les variables d'environnement sensibles par correspondance de motifs :
API_KEYSECRETTOKENPASSWORDCREDENTIALPRIVATE_KEY
Toute variable dont le nom contient l'un de ces motifs est signalée comme sensible.
Conseils pour le partage de configuration
Avant l'export :
Activez l'option "Sanitisation MCP" à l'étape 2
Cochez toutes les variables sensibles pour les effacer
Excluez les serveurs MCP contenant des données confidentielles
Après l'import :
Renseignez les variables manquantes dans le formulaire dédié
Vérifiez la configuration des serveurs MCP importés
Testez les connexions avant utilisation
Spécifications techniques
Format - JSON avec manifest contenant version du schema, timestamp et compteurs.
Taille maximale - 10 Mo par fichier d'import.
Version du schéma - 1.0 (vérification de compatibilité à l'import).
Identifiants - Les entités sont identifiées par leur nom (pas d'UUID dans l'export).
Nous utilisons des cookies pour vous offrir une meilleure expérience utilisateur sur ce site.Politique en matière de cookies