Catégorie : Outillage

  • A la recherche de l’interface idéale pour dialoguer avec l’IA en entreprise.

    A la recherche de l’interface idéale pour dialoguer avec l’IA en entreprise.

    Mes réflexions sur la construction d’un assistant conversationnel ou chatbot sur mesure.

    Les chatbots, un outil indispensable pour les entreprises

    Le chatbot est bien plus qu’un simple outil dédié au service après-vente. Il constitue le point d’entrée de tous les services d’IA de l’entreprise. 

    Le mode conversationnel est souvent plus efficace pour interagir directement avec le système d’information (SI) de l’entreprise que la manipulation d’une série de fenêtres et de listes déroulantes. 

    Par exemple, un collaborateur peut demander ‘Quels sont les derniers chiffres de vente ?’ plutôt que de naviguer à travers plusieurs écrans pour obtenir la même information. De plus, les assistants IA peuvent traiter des requêtes complexes en combinant plusieurs sources d’information, ce qui réduit le temps passé à rechercher manuellement des données. 

    Progressivement, toutes les applications intégreront une interface de dialogue avec une IA.

    Maîtrise de la confidentialité des conversations

    Les informations échangées dans les conversations avec les chatbots sont généralement très confidentielles. Maîtriser la conception de l’outil permet de mieux contrôler les flux et d’éviter que des données sensibles ne quittent l’entreprise.

    Le ‘sur-mesure’ pour s’adapter aux spécificités de l’entreprise

    Les chatbots doivent être finement adaptés à chaque entreprise. Les solutions standardisées, conçues pour répondre à tous les besoins, offrent une multitude d’options qui nuisent à la simplicité de l’application. Les solutions spécifiques permettent de mieux répondre aux besoins et de les faire évoluer.

    Chatbot, LLM, Agent, Assistant, Workflow IA, précisons les termes

    Un agent IA est un LLM capable de solliciter des services techniques de l’entreprise (grâce à Model Context Protocol).
    Le chatbot, en plus de gérer la conversation en langage naturel, intègre un agent et devient alors un Assistant IA.
    Pour des traitements IA plus sophistiqués, il faut enchaîner les agents dans des workflows agentiques.

    Quelles sont les fonctionnalités d’un bon chatbot ?

    À l’origine, un chatbot se limitait à envoyer des questions à un LLM et à maintenir la liste des échanges précédents. Progressivement, d’autres services se sont ajoutés, comme la recherche sur le web ou la lecture de documents PDF (RAG).

    Un chatbot d’entreprise efficace doit proposer un ensemble de fonctionnalités :

    • Pouvoir choisir le LLM le plus adapté en fonction du type de travail à effectuer, avec éventuellement l’appel de LLM interne à l’entreprise ou propre à l’utilisateur.
    • Offrir des outils de gestion des historiques de conversations avec une mémoire à long terme pour maintenir des contextes utilisateurs à injecter dans de nouvelles conversations.
    • Proposer un espace de stockage de documents personnel en mode sémantique pour enrichir les conversations (RAG personnel).
    • Permettre à l’utilisateur d’enrichir l’assistant avec de nouvelles fonctions externes standardisées (MCP).
    • Proposer une bibliothèque de prompts prédéfinis à intégrer dans les échanges.

    Le chatbot doit également intégrer des services techniques tels que :

    • Un mécanisme de validation par l’utilisateur de certaines propositions de l’agent (Human In The Loop).
    • L’appel de workflows externes à l’assistant, conçus par exemple avec N8N ou Langgraph Platform.
    • Le comptage des tokens utilisés lors des appels au LLM, pour maîtriser les coûts.
    • Des briques de code haut niveau telles que assistant-ui, react-langgraph, pour accélérer le développement de l’interface utilisateur en gérant facilement les conversations, la notion de Stream ou les artefacts de Claude.

    Une fois les fonctions d’un chatbot idéal identifiées, comment le construire ?

    Il existe de nombreux projets de chatbots en open source. Pourquoi ne pas partir d’un projet bien structuré et l’enrichir ? Après avoir exploré plusieurs options, j’ai identifié trois applications intéressantes, mais chacune ne couvre qu’une partie des fonctionnalités recherchées.

    Lobechat (lobehub.com/fr)
    Un chatbot très complet, bien architecturé, intégrant un RAG personnel. Cependant, l’interface est peut-être trop complexe et le système d’ajout de fonctions externes est propriétaire. Ajouter un client MCP semble peu aisé.

    y-gui (github.com/luohy15/y-gui)
    Un chatbot très simple qui intègre un choix de LLM et permet à l’utilisateur d’ajouter ses propres services MCP. Les composants principaux sont présents pour construire diverses applications. Cependant, il est très structuré autour de services cloud spécifiques (Cloudflare).

    Assistant-ui-stockbroker (github.com/assistant-ui/assistant-ui-stockbroker)
    Un démonstrateur qui met en valeur des briques techniques permettant de construire rapidement une interface utilisateur centrée sur les conversations : assistant-ui, Vercel AI SDK et des composants de réponse IA dynamiques (react-langgraph). Il illustre notamment la fonction “Human In The Loop”, permettant une validation utilisateur lors de l’exécution d’un Workflow IA. Cependant, le projet est exclusivement orienté vers des workflows nécessitant LangGraph Platform.

    Le chatbot pour l’entreprise est encore à inventer

    Les possibilités des LLM et des agents évoluent rapidement. Les fonctionnalités à intégrer dans un chatbot d’entreprise ne sont pas encore totalement stabilisées. Il reste de nombreuses bonnes idées à explorer pour concevoir des assistants vraiment adaptés aux entreprises.

    Les entreprises qui investissent dès maintenant dans un chatbot sur mesure, bien aligné avec leurs besoins, bénéficieront d’un avantage compétitif significatif : des collaborateurs plus performants et une sécurité des échanges maîtrisée.

    Et vous, êtes-vous aussi à la recherche du chatbot idéal pour votre entreprise ? Comment l’imaginez-vous ?

  • Agent IA et automatisation des processus d’entreprise en 2025

    Agent IA et automatisation des processus d’entreprise en 2025

    Introduction

    Les LLM mettent à notre disposition une l’intelligence brute, mais comment la domestiquer pour l’intégrer dans des briques technologiques faciles à assembler ?

    Dans cet article, je vais expliquer concrètement comment fonctionne un Agent IA ou agent LLM, comment assembler plusieurs agents pour automatiser un flux de tâches dans un workflow d’entreprise. Nous verrons aussi quels sont les éléments d’une plateforme d’entreprise pour exécuter efficacement de nombreux workflow. Dans un prochain article, j’aborderai les solutions techniques disponibles pour monter une plateforme IA générative en entreprise.

    Le composant de base, le LLM

    Classiquement, un LLM prend en entrée une question, l’analyse et génère une réponse en fonction d’un ensemble de connaissances accumulées lors d’un apprentissage préalable sur des volumes énormes de données de toutes sortes.

    Le LLM de base ne connaît donc pas les informations concernant l’actualité récente ou les informations propres à chaque entreprise.

    Pour contourner cette limitation, la solution était précédemment, d’insérer entre la demande de l’utilisateur et le traitement par le LLM, des informations de contexte pour aider le LLM à répondre à la question. En allant, par exemple, chercher des informations proches de la question dans une base sémantique, c’est le RAG (Retrieval Augmented Generation).

    Maintenant, les LLMs ont évolués . On sait, par des post-entraînements du modèle, permettre au LLM d’appeler, en autonomie, des fonctions externes lui permettant d’enrichir lui-même son contexte pour répondre aux questions. Ce sont les agents IA Autonomes ou agents LLM.

    Agent, un LLM avec des fonctions externes

    Un agent est donc composé d’un LLM et d’un ensemble de descriptions de fonctions qu’il peut utiliser dans l’objectif de répondre à la question initiale.

    Le LLM peut solliciter plusieurs fois la même fonction ou, dans la même séquence, appeler plusieurs fonctions différentes avant de construire sa réponse.

    Par exemple, on pose la question :

    « Parmi les entrepôts de la société, quel est celui dont la température intérieure est la plus froide. Tu peux solliciter deux fonctions

    • obtenir la température d’un entrepôt avec son nom 
    • obtenir la liste des entrepôts de la société »

    Le LLM va en une seule transaction, obtenir la liste des entrepôts, récupérer la température de chacun des entrepôts et construire sa réponse.

    C’est cette autonomie du LLM, dans la possibilité d’appeler à sa guise des fonctions externes, qui fait toute la puissance des agents IA Autonomes.

    Plus le nombre de fonctions associées à un appel de LLM est important, plus il y a risque qu’il se trompe de fonction ou ne sache pas correctement former l’appel.

    Pour des traitements complexes, avec beaucoup de fonctions, il est donc plus efficace de découper les tâches dans des agents plus petits, homogènes et de les enchaîner dans une même séquence de tâches. C’est ce que l’on appelle un workflow.

    Workflow, enchaînement d’agents LLM dans une séquence de tâches.

    Evidemment ce qui est intéressant dans une séquence d’agents, c’est de conditionner l’appel d’un agent en fonction du résultat de l’agent précédent. Il est alors possible de traiter des problématiques complexes de processus d’entreprise. C’est le multi agent ou orchestrateurs d’agents.

    Exemples de séquences d’agents :

    • Vérifier la qualité de la réponse d’un LLM et éventuellement re-demander le traitement de la réponse (exemple : prévention contre les hallucinations)
    • Qualifier la nature d’une question de recherche d’information pour aiguiller vers la bonne base de données (SQL, sémantique, graph),
    • Découper des agents en experts d’un domaine avec leurs fonctions de recherche associées et qualifier dans la première étape le bon expert à solliciter.

    Il devient maintenant possible de traiter beaucoup plus de processus d’entreprise, jusqu’ici trop complexes pour être automatisés.

    Exemple de processus métiers pouvant rapidement bénéficier de workflow d’agent LLM

    Un point fort des agents LLM est leur facilité à intégrer dans la même séquence, des traitements propres à différents services de l’entreprise. Les premiers cas d’utilisation concernent le support client ou la création de contenu marketing, mais il y a aussi :

    • Gestion des documents juridiques : automatiser la lecture, la compréhension et la validation de contrats ou documents légaux (clauses problématiques, absence de mentions obligatoires, génération de résumé pour la direction)
    • Support IT : assurer une surveillance continue par analyse de logs
    • Recrutement : trier les CV et identifier les meilleurs candidats à contacter en fonction de critères précis.
    • Audits et conformité réglementaire : automatiser l’analyse des processus pour vérifier la conformité des documents produits par l’entreprise.
    • Veille concurrentielle et analyse de marché : collecte et synthèse des données sur la concurrence.
    • Détection de fraude : analyser des documents et vérifier le respect de règles prédéfinies

    Une plateforme d’IA générative pour gérer l’exécution des workflows

    Le nombre croissant de projet à base Agent IA en entreprise, nécessite d’organiser dés maintenant la mutualisation des outils disponibles dans une plateforme technique dédiée à l’IA générative.

    Mon expérience dans la construction de plateformes applicatives associées à ma contribution à plusieurs projets d’IA générative important depuis deux ans, m’amène à identifier une liste de services nécessaires dans une plateforme d’IA générative en entreprise.

    Il n’y a pas encore d’éditeur proposant l’ensemble des services décrits ici, dans une plateforme unique. L’éditeur le plus avancé actuellement est à mon avis LangChain avec LangGraph Studio, LLM Gateway, LangSmith.

    Voici une première liste de services fonctionnels nécessaires à l’exécution de workflow à base d’agent LLM pour l’entreprise :

    • Un point d’entrée unique et standardisé pour l’appel de LLM (LLM Proxy ou Gateway) pour permettre de changer facilement le LLM associé à un agent en fonction de ses spécificités et performances. Il permet aussi de centraliser les gestion des tokens et l’optimisation des appels aux LLM en mémoire cache
    • Une bibliothèque pour les prompts avec gestion de version
    • Une centralisation de l’appel des fonctions externes (Tools) pour l’ensemble des workflows avec regroupement de l’authentification et des habilitations (nécessite un protocole pour gérer la variété des appels comme MCP d’Anthropic)ainsi qu’un annuaire facilitant la réutilisation de ces fonctions
      • Recherches d’informations : bases SQL, bases Vectorielles, accès aux documents de l’entreprise et possibilité de recherches sur Internet
      • Actions, par exemple envoi de mail à un utilisateur en fonction de ses habilitations, ou appel d’API de services externes pour déclencher un traitement
    • Un hébergement pour l’exécution des workflows d’agent optimisés pour le développement et la production permettant une facilité de développement en local tout en garantissant de bonnes performances lors de la montée en charge en production
    • Une mémoire pour la persistance des conversations des utilisateurs pour permettre à un utilisateur de reprendre une conversation précédente
    • Une mémoire pour la gestion du contexte utilisateur pour pouvoir injecter en début de workflow des informations permanentes propre à chaque utilisateur(nom, lieu de travail, compétences, etc)
    • Un gestionnaire de planification des tâches (CRON) permettant de lancer automatiquement des workflows récurrents sans intervention d’un utilisateur
    • Un chatbot standard permettant de lancer en mode conversation des workflows
    • Un système de notification aux utilisateurs pour gérer les demandes de validation intermédiaires dans les processus (human in the loop)
    • Un outillage de suivi des coûts d’utilisation des LLMs avec quota par workflow par exemple
    • Des outils de gestion des logs pour le débogage des workflows
    • Des outils d’analyse et d‘évaluation des performances, de la qualité, pour identifier les dérives de fonctionnement ou les goulots d’étranglement
    • Une solution d’authentification pour reconnaître l’utilisateur, retrouver ses droits spécifiques, compter son usage des LLMs

    C’est une esquisse des composants fonctionnels d’une plateforme IA générative idéale. N’hésitez pas à me contacter pour que je l’enrichisse.

    Une plateforme de ce type permet, par exemple, de traiter deux types d’usage :

    • Un chatbot proposant à un utilisateur d’interroger une base d’information (Architecture Agentique RAG) avec reprise d’une conversation existante.
    • Un workflow automatique qui envoie un mail tous les matins avec une synthèse des actualités Internet sur un sujet donné (un peu comme ChatGPT Tasks).

    Conclusion et perspectives

    Pour 2025, tous les grands éditeurs de LLM ont annoncé des avancées dans le domaine des agents IA notamment leur capacité à raisonner et à planifier des tâches. La quantité des processus d’entreprise automatisables va dépendre de la qualité de ces avancées. Certains pensent que l’ensemble de l’entreprise pourrait être automatisé !

    Au niveau technique, un point clé reste encore très peu abordé, bien que très structurant dans les solutions de workflow d’Agent LLM : l’intégration de validations intermédiaires par un humain. C’est que l’on appelle « Human-in-the-loop » (HITL) avec par exemple, la validation du passage à une étape suivante, l’appel d’un outil externe ou le contrôle avant envoi d’un mail.

    Sur le plus long terme, vu le niveau d’intelligence et d’autonomie qu’il est possible d’intégrer dans un agent LLM, se dessine la possibilité de dialogue, de négociation entre agents pour le compte de personnes ou d’entreprises. Par exemple une négociation pour la réservation d’un voyage ou la commande d’un matériel entre un acheteur et un fournisseur. On peut imaginer que chaque entreprise disposera d’agents négociateurs pour les échanges avec son écosystème.

    De nombreux processus d’entreprise peuvent, dès maintenant, être automatisés grâce à l’utilisation d’agents IA. Pour identifier ces opportunités et commencer à mettre en œuvre des workflows d’agents IA performants, fiables et sécurisés, n’hésitez pas à me contacter.


    Prochain article : Comme indiqué précédemment, de prochains articles traiteront de la mise en oeuvre technique des composants d’une plateforme IA générative avec en particulier le regroupement des fonctions/tools de l’entreprise avec LangGraph et MCP Anthropic.