LLM (Intelligence Artificielle)

Les nodes LLM font appel à l'intelligence artificielle pour comprendre, générer et raisonner. Ce sont les « cerveaux » de vos workflows — ils lisent, comprennent, et répondent. La majorité des workflows contiennent au moins un node LLM.

LLM Chat

Tip

Imaginez que vous posez une question à un expert très intelligent. Vous lui parlez, il réfléchit, et il vous répond par écrit. C'est exactement ce que fait LLM Chat.

LLM Chat est le node IA le plus utilisé. Vous lui envoyez des messages (comme dans une conversation) et il génère une réponse en texte. Vous pouvez lui donner un rôle (via le « system prompt ») comme « Tu es un avocat » ou « Tu es un rédacteur ». Il peut aussi utiliser du contexte supplémentaire (par exemple des documents trouvés par un node RAG).

Exemple

Vous créez un workflow « Support client ». Un Webhook Trigger reçoit la question du client, un Vector Search trouve les articles pertinents dans votre base de connaissances, puis LLM Chat utilise ces articles comme contexte pour rédiger une réponse personnalisée.

Note

Utilisez-le quand vous voulez générer du texte libre : réponses, résumés, traductions, rédaction, analyse de sentiment, etc.

Warning

Ne l'utilisez pas si vous avez besoin d'un résultat structuré en JSON (utilisez Structured Output) ou si vous voulez afficher la réponse mot par mot (utilisez Streaming).

Structured Output

Tip

Imaginez que vous demandez à quelqu'un de remplir un formulaire précis au lieu de répondre librement. Au lieu d'un texte, vous obtenez des données bien rangées dans des cases.

Structured Output force l'IA à répondre dans un format JSON précis que vous définissez. Par exemple : au lieu de « Le sentiment est positif avec un score de 8/10 », vous obtenez {"sentiment": "positif", "score": 8}. C'est essentiel quand le résultat doit être traité par un autre node (condition, filtre, etc.).

Exemple

Vous créez un workflow d'analyse de CV. Le Manual Trigger reçoit le texte du CV. Structured Output extrait les informations dans un format précis : {"nom": "...", "email": "...", "compétences": [...], "expérience_années": 5}. Un node Condition vérifie ensuite si expérience_années >= 3.

Note

Utilisez-le quand vous avez besoin d'extraire des données structurées : analyse, classification, extraction d'entités, scoring.

Warning

Ne l'utilisez pas pour de la rédaction libre ou des réponses conversationnelles (utilisez LLM Chat).

LLM Streaming

Tip

Imaginez que vous regardez quelqu'un écrire une lettre en direct. Au lieu d'attendre que la lettre soit terminée pour la lire, vous voyez chaque mot apparaître au fur et à mesure.

LLM Streaming fonctionne exactement comme LLM Chat, mais au lieu d'attendre que toute la réponse soit prête, il envoie les mots un par un au fur et à mesure que l'IA les génère. L'utilisateur voit la réponse se construire en temps réel. C'est plus agréable pour les réponses longues.

Exemple

Vous créez un chatbot widget pour votre site web. Le Webhook Trigger reçoit la question du visiteur, Vector Search trouve les réponses pertinentes, et LLM Streaming génère la réponse en temps réel. Le visiteur voit les mots apparaître progressivement — comme sur ChatGPT.

Note

Utilisez-le quand l'utilisateur final voit la réponse en direct (chatbot, widget, interface conversationnelle) et que vous voulez une expérience fluide.

Warning

Ne l'utilisez pas pour des traitements en arrière-plan où personne ne regarde la réponse se construire (utilisez LLM Chat, c'est plus simple).

Agent

Tip

Imaginez un assistant personnel très compétent. Vous lui donnez une mission, et il décide tout seul quels outils utiliser, quels documents consulter, et dans quel ordre. Il fait tout le travail complexe pour vous.

Le node Agent utilise un agent IA pré-configuré dans IgnitionAI. Contrairement à LLM Chat qui fait une seule chose (répondre), l'Agent peut enchaîner plusieurs actions : chercher dans vos documents (RAG), utiliser des outils MCP, réfléchir étape par étape. Il est autonome — vous lui donnez un objectif et il trouve comment l'atteindre.

Exemple

Vous créez un workflow de recherche avancée. L'Agent reçoit une question complexe comme « Compare les résultats financiers de 2023 et 2024 ». Il cherche automatiquement dans vos rapports financiers, trouve les chiffres pertinents, fait la comparaison, et rédige un résumé structuré.

Note

Utilisez-le pour des tâches complexes qui nécessitent plusieurs étapes, de la recherche documentaire et du raisonnement. L'agent décide de la stratégie.

Warning

Ne l'utilisez pas pour des tâches simples comme générer un texte ou répondre à une question directe (utilisez LLM Chat — c'est plus rapide et moins cher).