Auteur/autrice : Marc BORDESSOULE

  • A la recherche de l’interface idéale pour dialoguer avec l’IA en entreprise.

    A la recherche de l’interface idéale pour dialoguer avec l’IA en entreprise.

    Mes réflexions sur la construction d’un assistant conversationnel ou chatbot sur mesure.

    Les chatbots, un outil indispensable pour les entreprises

    Le chatbot est bien plus qu’un simple outil dédié au service après-vente. Il constitue le point d’entrée de tous les services d’IA de l’entreprise. 

    Le mode conversationnel est souvent plus efficace pour interagir directement avec le système d’information (SI) de l’entreprise que la manipulation d’une série de fenêtres et de listes déroulantes. 

    Par exemple, un collaborateur peut demander ‘Quels sont les derniers chiffres de vente ?’ plutôt que de naviguer à travers plusieurs écrans pour obtenir la même information. De plus, les assistants IA peuvent traiter des requêtes complexes en combinant plusieurs sources d’information, ce qui réduit le temps passé à rechercher manuellement des données. 

    Progressivement, toutes les applications intégreront une interface de dialogue avec une IA.

    Maîtrise de la confidentialité des conversations

    Les informations échangées dans les conversations avec les chatbots sont généralement très confidentielles. Maîtriser la conception de l’outil permet de mieux contrôler les flux et d’éviter que des données sensibles ne quittent l’entreprise.

    Le ‘sur-mesure’ pour s’adapter aux spécificités de l’entreprise

    Les chatbots doivent être finement adaptés à chaque entreprise. Les solutions standardisées, conçues pour répondre à tous les besoins, offrent une multitude d’options qui nuisent à la simplicité de l’application. Les solutions spécifiques permettent de mieux répondre aux besoins et de les faire évoluer.

    Chatbot, LLM, Agent, Assistant, Workflow IA, précisons les termes

    Un agent IA est un LLM capable de solliciter des services techniques de l’entreprise (grâce à Model Context Protocol).
    Le chatbot, en plus de gérer la conversation en langage naturel, intègre un agent et devient alors un Assistant IA.
    Pour des traitements IA plus sophistiqués, il faut enchaîner les agents dans des workflows agentiques.

    Quelles sont les fonctionnalités d’un bon chatbot ?

    À l’origine, un chatbot se limitait à envoyer des questions à un LLM et à maintenir la liste des échanges précédents. Progressivement, d’autres services se sont ajoutés, comme la recherche sur le web ou la lecture de documents PDF (RAG).

    Un chatbot d’entreprise efficace doit proposer un ensemble de fonctionnalités :

    • Pouvoir choisir le LLM le plus adapté en fonction du type de travail à effectuer, avec éventuellement l’appel de LLM interne à l’entreprise ou propre à l’utilisateur.
    • Offrir des outils de gestion des historiques de conversations avec une mémoire à long terme pour maintenir des contextes utilisateurs à injecter dans de nouvelles conversations.
    • Proposer un espace de stockage de documents personnel en mode sémantique pour enrichir les conversations (RAG personnel).
    • Permettre à l’utilisateur d’enrichir l’assistant avec de nouvelles fonctions externes standardisées (MCP).
    • Proposer une bibliothèque de prompts prédéfinis à intégrer dans les échanges.

    Le chatbot doit également intégrer des services techniques tels que :

    • Un mécanisme de validation par l’utilisateur de certaines propositions de l’agent (Human In The Loop).
    • L’appel de workflows externes à l’assistant, conçus par exemple avec N8N ou Langgraph Platform.
    • Le comptage des tokens utilisés lors des appels au LLM, pour maîtriser les coûts.
    • Des briques de code haut niveau telles que assistant-ui, react-langgraph, pour accélérer le développement de l’interface utilisateur en gérant facilement les conversations, la notion de Stream ou les artefacts de Claude.

    Une fois les fonctions d’un chatbot idéal identifiées, comment le construire ?

    Il existe de nombreux projets de chatbots en open source. Pourquoi ne pas partir d’un projet bien structuré et l’enrichir ? Après avoir exploré plusieurs options, j’ai identifié trois applications intéressantes, mais chacune ne couvre qu’une partie des fonctionnalités recherchées.

    Lobechat (lobehub.com/fr)
    Un chatbot très complet, bien architecturé, intégrant un RAG personnel. Cependant, l’interface est peut-être trop complexe et le système d’ajout de fonctions externes est propriétaire. Ajouter un client MCP semble peu aisé.

    y-gui (github.com/luohy15/y-gui)
    Un chatbot très simple qui intègre un choix de LLM et permet à l’utilisateur d’ajouter ses propres services MCP. Les composants principaux sont présents pour construire diverses applications. Cependant, il est très structuré autour de services cloud spécifiques (Cloudflare).

    Assistant-ui-stockbroker (github.com/assistant-ui/assistant-ui-stockbroker)
    Un démonstrateur qui met en valeur des briques techniques permettant de construire rapidement une interface utilisateur centrée sur les conversations : assistant-ui, Vercel AI SDK et des composants de réponse IA dynamiques (react-langgraph). Il illustre notamment la fonction “Human In The Loop”, permettant une validation utilisateur lors de l’exécution d’un Workflow IA. Cependant, le projet est exclusivement orienté vers des workflows nécessitant LangGraph Platform.

    Le chatbot pour l’entreprise est encore à inventer

    Les possibilités des LLM et des agents évoluent rapidement. Les fonctionnalités à intégrer dans un chatbot d’entreprise ne sont pas encore totalement stabilisées. Il reste de nombreuses bonnes idées à explorer pour concevoir des assistants vraiment adaptés aux entreprises.

    Les entreprises qui investissent dès maintenant dans un chatbot sur mesure, bien aligné avec leurs besoins, bénéficieront d’un avantage compétitif significatif : des collaborateurs plus performants et une sécurité des échanges maîtrisée.

    Et vous, êtes-vous aussi à la recherche du chatbot idéal pour votre entreprise ? Comment l’imaginez-vous ?

  • MCP et Agent IA, ça accélère !

    MCP et Agent IA, ça accélère !

    Ça fait quelques mois que l’on voit arriver MCP (Model Context Protocol) comme étant une vague puissante pour les Agents IA. Mais jeudi dernier trois nouveautés sont apparues qui vont encore accélérer son développement :

    Le principe de MCP

    Les agents IA s’appuient sur les LLM. Mais un LLM c’est de l’intelligence brute. Il faut lui adjoindre des fonctions pour faire le lien avec l’extérieur, pour chercher de l’information ou pour agir sur l’environnement. Anthropic a proposé en novembre 2024 une standardisation de l’appel de ces fonctions, c’est le fameux MCP (Model Context Protocol).

    Une adoption très rapide du protocole

    Depuis, un mouvement de fond s’est lancé pour intégrer cette norme. Des centaines d’outils de toutes sortes se sont créés pour augmenter les possibilités des LLM. TODO un ex …

    Les agents IA, les premiers consommateurs de ressources MCP

    Les premiers générateurs d’agents l’avaient bien intégré. Citons Smolagents, N8N ou même LangChain qui avait sa propre standardisation avec les Tools. L’intégration par OpenAI dans son propre kit de développement va amplifier les propositions de services utilisant ce protocole.

    Mais les applications de bureau vont pouvoir aussi bénéficier de MCP

    Quelques applications commençaient à intégrer des LLM sous forme d’assistant. La possibilité d’enrichir très facilement ces assistants avec de nouvelles possibilités va accélérer l’arrivée des assistants dans toutes les applications de bureau.

    Avec Claude Desktop, une première illustration du potentiel d’intégration LLM<>MCP

    Prenons l’application de bureau d’Anthropic qui permet de dialoguer avec son propre LLM Claude. Étant à l’origine de MCP, c’est une des premières applications pouvant intégrer des serveurs MCP. En lui ajoutant un serveur MCP ayant accès aux documents présents dans l’ordinateur (ex : desktop-commander), l’application devient un outil pour développeur informatique à qui on peut demander son avis sur un projet local ou de modifier un morceau de programme.

    Un deuxième exemple plus abouti, avec Ask Gordon de Docker

    Jeudi dernier, lors du meetup Generative AI Paris 27@Meta, la société Docker a présenté la possibilité d’ajouter un assistant « Ask Gordon » basé sur MCP pour aider l’utilisateur dans ses démarches avec leur application Docker Desktop. C’est une aide contextuelle pour optimiser et dépanner les conteneurs, automatiser les tâches Docker, et fournir des recommandations basées sur l’analyse des fichiers locaux.

    Dorénavant, toutes les applications vont pouvoir intégrer des assistants IA utilisant des services MCP

    On peut même imaginer que progressivement l’interface de dialogue remplacera une partie importante des interactions avec des formulaires comme actuellement.

    Les assistants conversationnels (ChatBot) vont aussi intégrer MCP

    Progressivement, les assistants conversationnels existants vont certainement aussi remplacer leur mécanisme de plugin par l’intégration de MCP. Les principaux chatbots open source, comme LibreChat ou LobeChat ont commencé. Et OpenAI vient aussi de l’annoncer pour très bientôt.

    Mais c’est un protocole encore naissant

    L’annonce de jeudi d’Anthropic sur l’intégration de OAuth 2.x va améliorer la gestion de la sécurité. Mais il y a encore beaucoup à faire, pour que les autorisations des outils MCP soient, par exemple, subordonnées aux droits spécifiques de chaque utilisateur.

    Vers le multi-agent

    La facilité d’ajout de nouvelles possibilités à un LLM va accroître les risques qu’il ne sollicite pas correctement le bon outil pour une demande donnée. La solution est alors de créer plusieurs agents et regrouper les fonctions par domaine d’expertise. Bienvenue alors dans le monde des orchestrateurs d’agents, comme CrewAI, Semantic Kernel ou LangGraph.

    En conclusion, MCP va décupler les usages des Agents mais aussi des Assistants

    MCP, par la standardisation des appels de fonction externe au LLM, facilite la construction de solutions à base d’IA Générative. Tous les départements de l’entreprise peuvent en bénéficier, soit au niveau des applications qui vont être enrichies avec des assistants ou du nombre de processus d’entreprise qui vont pouvoir être automatisés avec des agents IA.

    Encore un peu perdu avec toutes ces possibilités qui se dessinent ? Vous voulez bénéficier de la puissance de l’IA Générative pour simplifier vos applications, orchestrer vos agents à l’échelle de l’entreprise ? Contactez-moi.i