Un plan pour chaque étape de votre parcours
Du POC en Free au déploiement équipe en Scale. BYOK obligatoire, zéro commission, résiliation à tout moment.
Tarifs simples et transparents
Commencez gratuitement. Évoluez selon vos besoins.
Pro
- 15 Collections
- 2 000 Documents
- 20 Workflows
- 5 000 Exécutions/mois
- 5 Serveurs MCP
- Tous les déclencheurs
- Accès API + SDK
- 1 Utilisateur (solo)
Scale
- 50 Collections
- 10 000 Documents
- 100 Workflows
- 50 000 Exécutions/mois
- 50 Serveurs MCP
- Tous les déclencheurs
- Accès API + SDK
- 15 Membres
- Support prioritaire
Sur mesure
- Déploiement dédié
- Ingestion Azure & Microsoft 365
- Tout illimité
- BYOK (vos propres clés)
- SLA garanti
- Support dédié
- Domaine personnalisé
- SSO / SAML
Tous les plans sont facturés en euros. Sans engagement, résiliation à tout moment. BYOK : vous payez vos clés LLM directement, zéro commission.
Des questions ? Des réponses.
Tout ce que vous devez savoir.
Quelle différence avec un chatbot classique ?
Un chatbot classique suit des scripts prédéfinis ou répond de mémoire sans sources. IgnitionRAG utilise le RAG : il cherche dans vos documents en temps réel pour répondre avec des informations précises et sourcées. Au-delà du chat, vous avez des agents autonomes, des workflows et une API pour construire des systèmes IA complets.
Quelle différence avec une prestation ESN type JAsk ou Auria ?
Les ESN comme JAsk ou Auria vendent un projet sur mesure à 50 000 – 200 000 €, livré en plusieurs mois. IgnitionRAG délivre le même résultat en self-serve à partir de 99 €/mois, parce que la plateforme automatise 90 % du travail : ingestion, pipeline RAG, déploiement, observabilité. Vous gardez la main sur vos données, vos clés, et vous pouvez arrêter quand vous voulez.
Quelle différence avec Langflow / Flowise / Dify ?
Langflow et Flowise sont des builders visuels pour expérimenter avec des pipelines LLM. Ils sont parfaits pour les POCs mais manquent souvent de l'observabilité, du scaling et des outils de production (SDK, API robuste, A/B testing). IgnitionRAG est conçu pour aller de l'expérimentation à la production sans tout reconstruire.
Dois-je savoir coder ?
Non pour commencer. L'interface no-code vous permet de créer des assistants et workflows en quelques clics. Mais si vous codez, vous accédez à une API complète, des SDK TypeScript/Python, et un contrôle total du pipeline — le meilleur des deux mondes.
Puis-je utiliser mes propres clés API ?
Oui, c'est natif. BYOK (Bring Your Own Keys) vous permet d'utiliser vos clés OpenAI, Anthropic, ou autres providers. Vous gardez le contrôle total des coûts et des modèles. Nous ne prenons pas de commission sur votre usage LLM.
Puis-je intégrer le widget à mon site ?
Oui, en 2 lignes de code. Le widget est embeddable sur n'importe quel site ou application. Styles personnalisables, contexte injectable, et analytics intégrés pour suivre les conversations.
Qu'est-ce que le RAG, concrètement ?
RAG signifie Retrieval-Augmented Generation. L'idée : au lieu de demander à un modèle de langage de répondre "de mémoire" (ce qui produit des hallucinations), on cherche d'abord dans vos documents les passages pertinents, puis on les donne en contexte au modèle pour qu'il formule une réponse ancrée et sourcée. Résultat : des réponses fiables, vérifiables, qui évoluent avec vos données sans réentraîner quoi que ce soit.
Mes données restent-elles privées ? Où sont-elles stockées ?
Oui. Vos documents et leurs vecteurs sont stockés dans votre collection dédiée — jamais mélangés avec ceux d'autres clients. Nous n'entraînons aucun modèle sur vos données. Les LLM (OpenAI, Anthropic) sont appelés via vos propres clés en BYOK, donc vos requêtes ne passent pas par nos comptes. Hébergement en France, conforme RGPD, option on-premise disponible pour les enterprises.
Prêt à passer du POC à la production ?
Commencez gratuitement. Pas de carte bancaire demandée. BYOK sans commission. Résiliation à tout moment.