LLM (Intelligence Artificielle)
Les nodes LLM font appel à l'intelligence artificielle pour comprendre, générer et raisonner. Ce sont les « cerveaux » de vos workflows — ils lisent, comprennent, et répondent. La majorité des workflows contiennent au moins un node LLM.
LLM Chat
Tip
LLM Chat est le node IA le plus utilisé. Vous lui envoyez des messages (comme dans une conversation) et il génère une réponse en texte. Vous pouvez lui donner un rôle (via le « system prompt ») comme « Tu es un avocat » ou « Tu es un rédacteur ». Il peut aussi utiliser du contexte supplémentaire (par exemple des documents trouvés par un node RAG).
Exemple
Vous créez un workflow « Support client ». Un Webhook Trigger reçoit la question du client, un Vector Search trouve les articles pertinents dans votre base de connaissances, puis LLM Chat utilise ces articles comme contexte pour rédiger une réponse personnalisée.
Note
Warning
Structured Output
Tip
Structured Output force l'IA à répondre dans un format JSON précis que vous définissez. Par exemple : au lieu de « Le sentiment est positif avec un score de 8/10 », vous obtenez {"sentiment": "positif", "score": 8}. C'est essentiel quand le résultat doit être traité par un autre node (condition, filtre, etc.).
Exemple
Vous créez un workflow d'analyse de CV. Le Manual Trigger reçoit le texte du CV. Structured Output extrait les informations dans un format précis : {"nom": "...", "email": "...", "compétences": [...], "expérience_années": 5}. Un node Condition vérifie ensuite si expérience_années >= 3.
Note
Warning
LLM Streaming
Tip
LLM Streaming fonctionne exactement comme LLM Chat, mais au lieu d'attendre que toute la réponse soit prête, il envoie les mots un par un au fur et à mesure que l'IA les génère. L'utilisateur voit la réponse se construire en temps réel. C'est plus agréable pour les réponses longues.
Exemple
Vous créez un chatbot widget pour votre site web. Le Webhook Trigger reçoit la question du visiteur, Vector Search trouve les réponses pertinentes, et LLM Streaming génère la réponse en temps réel. Le visiteur voit les mots apparaître progressivement — comme sur ChatGPT.
Note
Warning
Agent
Tip
Le node Agent utilise un agent IA pré-configuré dans IgnitionAI. Contrairement à LLM Chat qui fait une seule chose (répondre), l'Agent peut enchaîner plusieurs actions : chercher dans vos documents (RAG), utiliser des outils MCP, réfléchir étape par étape. Il est autonome — vous lui donnez un objectif et il trouve comment l'atteindre.
Exemple
Vous créez un workflow de recherche avancée. L'Agent reçoit une question complexe comme « Compare les résultats financiers de 2023 et 2024 ». Il cherche automatiquement dans vos rapports financiers, trouve les chiffres pertinents, fait la comparaison, et rédige un résumé structuré.
Note
Warning