IA Générative & Cloud natif

Auteur/autrice : Marc BORDESSOULE

  • Agent IA et automatisation des processus d’entreprise en 2025

    Agent IA et automatisation des processus d’entreprise en 2025

    Introduction

    Les LLM mettent à notre disposition une l’intelligence brute, mais comment la domestiquer pour l’intégrer dans des briques technologiques faciles à assembler ?

    Dans cet article, je vais expliquer concrètement comment fonctionne un Agent IA ou agent LLM, comment assembler plusieurs agents pour automatiser un flux de tâches dans un workflow d’entreprise. Nous verrons aussi quels sont les éléments d’une plateforme d’entreprise pour exécuter efficacement de nombreux workflow. Dans un prochain article, j’aborderai les solutions techniques disponibles pour monter une plateforme IA générative en entreprise.

    Le composant de base, le LLM

    Classiquement, un LLM prend en entrée une question, l’analyse et génère une réponse en fonction d’un ensemble de connaissances accumulées lors d’un apprentissage préalable sur des volumes énormes de données de toutes sortes.

    Le LLM de base ne connaît donc pas les informations concernant l’actualité récente ou les informations propres à chaque entreprise.

    Pour contourner cette limitation, la solution était précédemment, d’insérer entre la demande de l’utilisateur et le traitement par le LLM, des informations de contexte pour aider le LLM à répondre à la question. En allant, par exemple, chercher des informations proches de la question dans une base sémantique, c’est le RAG (Retrieval Augmented Generation).

    Maintenant, les LLMs ont évolués . On sait, par des post-entraînements du modèle, permettre au LLM d’appeler, en autonomie, des fonctions externes lui permettant d’enrichir lui-même son contexte pour répondre aux questions. Ce sont les agents IA Autonomes ou agents LLM.

    Agent, un LLM avec des fonctions externes

    Un agent est donc composé d’un LLM et d’un ensemble de descriptions de fonctions qu’il peut utiliser dans l’objectif de répondre à la question initiale.

    Le LLM peut solliciter plusieurs fois la même fonction ou, dans la même séquence, appeler plusieurs fonctions différentes avant de construire sa réponse.

    Par exemple, on pose la question :

    « Parmi les entrepôts de la société, quel est celui dont la température intérieure est la plus froide. Tu peux solliciter deux fonctions

    • obtenir la température d’un entrepôt avec son nom 
    • obtenir la liste des entrepôts de la société »

    Le LLM va en une seule transaction, obtenir la liste des entrepôts, récupérer la température de chacun des entrepôts et construire sa réponse.

    C’est cette autonomie du LLM, dans la possibilité d’appeler à sa guise des fonctions externes, qui fait toute la puissance des agents IA Autonomes.

    Plus le nombre de fonctions associées à un appel de LLM est important, plus il y a risque qu’il se trompe de fonction ou ne sache pas correctement former l’appel.

    Pour des traitements complexes, avec beaucoup de fonctions, il est donc plus efficace de découper les tâches dans des agents plus petits, homogènes et de les enchaîner dans une même séquence de tâches. C’est ce que l’on appelle un workflow.

    Workflow, enchaînement d’agents LLM dans une séquence de tâches.

    Evidemment ce qui est intéressant dans une séquence d’agents, c’est de conditionner l’appel d’un agent en fonction du résultat de l’agent précédent. Il est alors possible de traiter des problématiques complexes de processus d’entreprise. C’est le multi agent ou orchestrateurs d’agents.

    Exemples de séquences d’agents :

    • Vérifier la qualité de la réponse d’un LLM et éventuellement re-demander le traitement de la réponse (exemple : prévention contre les hallucinations)
    • Qualifier la nature d’une question de recherche d’information pour aiguiller vers la bonne base de données (SQL, sémantique, graph),
    • Découper des agents en experts d’un domaine avec leurs fonctions de recherche associées et qualifier dans la première étape le bon expert à solliciter.

    Il devient maintenant possible de traiter beaucoup plus de processus d’entreprise, jusqu’ici trop complexes pour être automatisés.

    Exemple de processus métiers pouvant rapidement bénéficier de workflow d’agent LLM

    Un point fort des agents LLM est leur facilité à intégrer dans la même séquence, des traitements propres à différents services de l’entreprise. Les premiers cas d’utilisation concernent le support client ou la création de contenu marketing, mais il y a aussi :

    • Gestion des documents juridiques : automatiser la lecture, la compréhension et la validation de contrats ou documents légaux (clauses problématiques, absence de mentions obligatoires, génération de résumé pour la direction)
    • Support IT : assurer une surveillance continue par analyse de logs
    • Recrutement : trier les CV et identifier les meilleurs candidats à contacter en fonction de critères précis.
    • Audits et conformité réglementaire : automatiser l’analyse des processus pour vérifier la conformité des documents produits par l’entreprise.
    • Veille concurrentielle et analyse de marché : collecte et synthèse des données sur la concurrence.
    • Détection de fraude : analyser des documents et vérifier le respect de règles prédéfinies

    Une plateforme d’IA générative pour gérer l’exécution des workflows

    Le nombre croissant de projet à base Agent IA en entreprise, nécessite d’organiser dés maintenant la mutualisation des outils disponibles dans une plateforme technique dédiée à l’IA générative.

    Mon expérience dans la construction de plateformes applicatives associées à ma contribution à plusieurs projets d’IA générative important depuis deux ans, m’amène à identifier une liste de services nécessaires dans une plateforme d’IA générative en entreprise.

    Il n’y a pas encore d’éditeur proposant l’ensemble des services décrits ici, dans une plateforme unique. L’éditeur le plus avancé actuellement est à mon avis LangChain avec LangGraph Studio, LLM Gateway, LangSmith.

    Voici une première liste de services fonctionnels nécessaires à l’exécution de workflow à base d’agent LLM pour l’entreprise :

    • Un point d’entrée unique et standardisé pour l’appel de LLM (LLM Proxy ou Gateway) pour permettre de changer facilement le LLM associé à un agent en fonction de ses spécificités et performances. Il permet aussi de centraliser les gestion des tokens et l’optimisation des appels aux LLM en mémoire cache
    • Une bibliothèque pour les prompts avec gestion de version
    • Une centralisation de l’appel des fonctions externes (Tools) pour l’ensemble des workflows avec regroupement de l’authentification et des habilitations (nécessite un protocole pour gérer la variété des appels comme MCP d’Anthropic)ainsi qu’un annuaire facilitant la réutilisation de ces fonctions
      • Recherches d’informations : bases SQL, bases Vectorielles, accès aux documents de l’entreprise et possibilité de recherches sur Internet
      • Actions, par exemple envoi de mail à un utilisateur en fonction de ses habilitations, ou appel d’API de services externes pour déclencher un traitement
    • Un hébergement pour l’exécution des workflows d’agent optimisés pour le développement et la production permettant une facilité de développement en local tout en garantissant de bonnes performances lors de la montée en charge en production
    • Une mémoire pour la persistance des conversations des utilisateurs pour permettre à un utilisateur de reprendre une conversation précédente
    • Une mémoire pour la gestion du contexte utilisateur pour pouvoir injecter en début de workflow des informations permanentes propre à chaque utilisateur(nom, lieu de travail, compétences, etc)
    • Un gestionnaire de planification des tâches (CRON) permettant de lancer automatiquement des workflows récurrents sans intervention d’un utilisateur
    • Un chatbot standard permettant de lancer en mode conversation des workflows
    • Un système de notification aux utilisateurs pour gérer les demandes de validation intermédiaires dans les processus (human in the loop)
    • Un outillage de suivi des coûts d’utilisation des LLMs avec quota par workflow par exemple
    • Des outils de gestion des logs pour le débogage des workflows
    • Des outils d’analyse et d‘évaluation des performances, de la qualité, pour identifier les dérives de fonctionnement ou les goulots d’étranglement
    • Une solution d’authentification pour reconnaître l’utilisateur, retrouver ses droits spécifiques, compter son usage des LLMs

    C’est une esquisse des composants fonctionnels d’une plateforme IA générative idéale. N’hésitez pas à me contacter pour que je l’enrichisse.

    Une plateforme de ce type permet, par exemple, de traiter deux types d’usage :

    • Un chatbot proposant à un utilisateur d’interroger une base d’information (Architecture Agentique RAG) avec reprise d’une conversation existante.
    • Un workflow automatique qui envoie un mail tous les matins avec une synthèse des actualités Internet sur un sujet donné (un peu comme ChatGPT Tasks).

    Conclusion et perspectives

    Pour 2025, tous les grands éditeurs de LLM ont annoncé des avancées dans le domaine des agents IA notamment leur capacité à raisonner et à planifier des tâches. La quantité des processus d’entreprise automatisables va dépendre de la qualité de ces avancées. Certains pensent que l’ensemble de l’entreprise pourrait être automatisé !

    Au niveau technique, un point clé reste encore très peu abordé, bien que très structurant dans les solutions de workflow d’Agent LLM : l’intégration de validations intermédiaires par un humain. C’est que l’on appelle « Human-in-the-loop » (HITL) avec par exemple, la validation du passage à une étape suivante, l’appel d’un outil externe ou le contrôle avant envoi d’un mail.

    Sur le plus long terme, vu le niveau d’intelligence et d’autonomie qu’il est possible d’intégrer dans un agent LLM, se dessine la possibilité de dialogue, de négociation entre agents pour le compte de personnes ou d’entreprises. Par exemple une négociation pour la réservation d’un voyage ou la commande d’un matériel entre un acheteur et un fournisseur. On peut imaginer que chaque entreprise disposera d’agents négociateurs pour les échanges avec son écosystème.

    De nombreux processus d’entreprise peuvent, dès maintenant, être automatisés grâce à l’utilisation d’agents IA. Pour identifier ces opportunités et commencer à mettre en œuvre des workflows d’agents IA performants, fiables et sécurisés, n’hésitez pas à me contacter.


    Prochain article : Comme indiqué précédemment, de prochains articles traiteront de la mise en oeuvre technique des composants d’une plateforme IA générative avec en particulier le regroupement des fonctions/tools de l’entreprise avec LangGraph et MCP Anthropic.

  • l’IA générative en entreprise nécessite une approche spécifique

    l’IA générative en entreprise nécessite une approche spécifique

    Aborder un projet d’IA générative comme un projet classique d’intelligence artificielle serait une erreur. Même si les bases techniques, comme les réseaux de neurones, sont les mêmes, les usages, les compétences nécessaires et la façon de gérer ces projets en entreprise sont très différents. De plus, l’IA générative n’est pas seulement destinée aux grandes entreprises : les PME peuvent aussi en tirer profit aujourd’hui.

    Revenons sur les concepts pour bien en comprendre les enjeux pour l’entreprise.

    Le Machine Learning

    Le Machine Learning, apparu dans les années 1950 avec des applications comme le jeu de dames d’Arthur Samuel, repose sur des approches mathématiques et statistiques permettant aux machines d’apprendre à partir de données. Aujourd’hui, il est au cœur de nombreuses applications quotidiennes :

    • Classification : Identifier les préférences d’utilisateurs selon leurs caractéristiques.
    • Prédiction : Estimer des valeurs, comme le prix d’un bien immobilier.
    • Clustering : Analyser et segmenter des données non structurées.

    Ces applications nécessitent des volumes de données importants, une préparation minutieuse et des compétences avancées en mathématiques et statistiques.

    Le Deep Learning

    Les réseaux de neurones, théorisés dans les années 1960 sont restés peu utilisés jusqu’aux travaux de Yann Lecun, Geoffrey Hinton et Yoshua Bengio qui ont donné naissance au Deep Learning dans les années 2000.

    En 2012, Geoffrey Hinton et son équipe remportent la compétition ImageNet grâce à l’utilisation de cartes graphiques (GPU), propulsant cette technologie dans des domaines comme :

    • Le traitement du langage naturel (traduction, résumé automatique).
    • La reconnaissance d’images.
    • Les moteurs de recommandation (streaming, e-commerce).

    Le Deep Learning étend les capacités du Machine Learning en exploitant des modèles complexes et de vastes volumes de données, préparant le terrain pour l’émergence de l’IA générative.

    Naissance de l’IA Générative

    En 2017, la publication de l’article “Attention Is All You Need” (Vaswani et al.) a été décisive. Il a ouvert la voie à de nouveaux types d’algorithmes d’IA les transformers. Leur principal apport a été de pouvoir analyser les différents composants d’une phrase  en parallèle et non plus séquentiellement comme avant. Ce qui a permis notamment des entraînements sur de plus gros volumes de  données.

    L’année suivante, deux projets majeurs, basés sur ces transformers, ont vu le jour. Google a dévoilé BERT, un modèle axé sur la compréhension du sens des phrases, tandis qu’une jeune société nommée OpenAI entrait dans la course avec GPT (Generative Pre-trained Transformer), axé sur la génération de texte. Les bases de l’IA générative étaient posées.

    OpenAI et apparition des LLM

    Le véritable coup de génie d’OpenAI résidait dans son ambition d’entraîner des modèles sur des volumes de données massifs : 110 millions de paramètres pour GPT-1 en 2018, 1,5 milliard pour GPT-2, puis 175 milliards avec GPT-3. La première phase s’est appuyée sur des données brutes issues d’Internet, suivie d’un affinement grâce à des retours humains, rendant les modèles capables de converser de manière naturelle.

    Cependant, une telle ambition nécessitait une puissance de calcul colossale. Microsoft, avec un investissement d’un milliard de dollars en 2019, a fourni l’infrastructure nécessaire pour transformer cette vision en réalité. Les résultats ont surpris tout le monde, même les leaders établis comme Google.

    Basés au départ sur un principe statistique de prédire le mot suivant dans un début de phrase, ces modèles sont capables de proposer des services d’analyse et de génération de texte, tels que : le résumé, la traduction. Mais surtout de répondre à des questions sur les informations qui ont servi à l’entrainement, en l’occurrence, tout ce qui se trouve sur Internet. C’est en quelque sorte une encapsulation de l’intelligence dans une solution technique facile à exploiter.

    Le lancement public de ChatGPT en novembre 2022 et son adoption massive par le grand public, imposent rapidement ces nouvelles fonctionnalités, les ‘Large Language Models’ ou LLM sur le devant de la scène.

    Aujourd’hui, les LLM se concentrent sur l’amélioration du raisonnement et la planification d’actions complexes avec les Agents autonomes.

    Pour les entreprises, l’IA générative offre trois grands types d’usages :

    • l’assistance aux collaborateurs dans leurs tâches quotidiennes,
    • la valorisation des données non structurées (via le Retrieval-Augmented Generation ou RAG),
    • l’automatisation de tâches complexes grâce à des agents autonomes.

    Mais l’évolution ne s’arrête pas là. L’IA générative est désormais multi-modale : elle peut comprendre et produire du texte, des images, des sons et des vidéos, ouvrant de nouvelles perspectives dans presque tous les domaines d’activité.

    Spécificités de l’IA Générative pour l’entreprise

    Une fois précisées les technologies en présence, l’IA prédictive avec le Machine Learning et le Deep Learning d’un côté et l’IA Générative de l’autre, intéressons-nous à ce qui différencie ses approches dans le contexte de l’entreprise

    Des compétences techniques distinctes

    Dans un projet d’IA prédictive le cycle comprend plusieurs étapes bien définies : collecte et préparation des données, sélection de l’algorithme pertinent, entraînement et ajustement des hyperparamètres, déploiement et suivi des performances. Ces projets mobilisent principalement des experts techniques tels que des ingénieurs data et des data scientistes.

    À l’inverse, un projet basé sur l’IA générative repose sur des modèles pré-entraînés les ‘Large Language Models’, dont l’entraînement initial a été réalisé par des fournisseurs spécialisés. Le rôle de l’entreprise se limite alors à assembler des briques technologiques existantes : LLM, bases vectorielles, frameworks agentiques, etc. Ce travail demande des compétences classiques en ingénierie IT, avec une expertise spécifique dans l’utilisation et l’intégration des LLM.

    Notons que dans certains cas, très spécifiques, il est souhaitable d’affiner le modèle de langage. Mais en raison des coûts élevés liés à l’entraînement, aux besoins de ressources de calcul, aux volumes massifs de données, ce processus reste en dehors du périmètre de la plupart des entreprises.

    Des interlocuteurs différents

    Les projets de d’IA prédictive mobilisent des équipes techniques pointues, mêlant experts en data science et spécialistes métier. Ils se déroulent sur plusieurs mois et nécessitent souvent une intégration avec le système d’information (SI) de l’entreprise. De ce fait, ces projets sont généralement pilotés par la direction informatique.

    En revanche, un projet d’IA générative s’appuie sur des composants techniques en cours de standardisation et nécessite une collaboration étroite avec les équipes métier pour définir les besoins. Lorsque des données internes de l’entreprise sont utilisées (par exemple, dans une architecture RAG), elles concernent souvent des services spécifiques et sont plus faciles à gérer. Par ailleurs, l’interaction avec les utilisateurs finaux est plus fréquente, notamment dans les phases de validation.

    Ces projets, plus accessibles et agiles, sont donc souvent pilotés par les équipes métiers elles-mêmes.

    Des tailles d’entreprise variées

    Les projets de IA prédictive, en raison de leurs besoins en données massives et d’ infrastructures nécessaires, sont généralement réservés aux grandes entreprises, capables d’assumer les coûts et les contraintes techniques.

    À l’inverse, les projets d’IA générative sont accessibles à des entreprises de toutes tailles. Ils ne nécessitent pas de volumes importants de données et couvrent une grande variété de cas d’usage. Cela les rend particulièrement attractifs pour les PME qui peuvent les adopter rapidement pour des besoins spécifiques.

    Des outils adaptés aux contextes

    Les outils utilisés dans les projets de IA prédictive sont souvent complexes et nécessitent une expertise technique approfondie. Ils sont difficiles à standardiser et à rendre accessibles à des non-spécialistes.

    En revanche, l’IA générative bénéficie d’un écosystème d’outils en rapide expansion. De nombreux éditeurs proposent des solutions, disponibles soit en SaaS (via API), soit en open source pour des installations locales. Ces outils permettent, par exemple, de configurer rapidement des cas d’utilisation comme l’exploitation de documents via des interfaces graphiques intuitives (glisser-déposer).

    Des plateformes dédiées commencent également à émerger pour industrialiser les projets d’IA générative à l’échelle de l’entreprise. Ces solutions intègrent des chaînes d’ingestion de données standardisées, des outils centralisés pour gérer les prompts, des mécanismes de contrôle qualité des réponses, et des systèmes d’orchestration d’agents.

    IA Prédictive
    (ML/DL)
    IA Générative
    FonctionnalitésClassification,

    Prédiction,

    Regroupement
    Analyse de texte,
    Traduction,

    Résumé,

    Génération de code,

    Planification de tâches,
    UsagesPrévisions financières,

    Maintenance prédictive,

    Reconnaissance d’images,

    Moteurs de recommandation
    Aide aux collaborateurs,

    Valorisation des documents de l’entreprise

    Automatisation de processus complexes
    CompétencesIngénieur Data, Data ScientisteIngénieur IT,
    Architecte SI
    OutillageOutils bas niveau spécialisés en IABriques techniques standards
    Type
    d’entreprise
    Grande entreprise possédant de gros jeux de donnéesTous types d’entreprises
    Pilotage des projetsDirection informatiqueDirections métiers

    Conclusion

    Alors que l’IA prédictive s’appuie sur des processus techniques complexes nécessitant des données massives et des expertises pointues, l’IA générative se distingue par son accessibilité, sa modularité, et son potentiel d’adoption rapide, même pour les petites et moyennes entreprises.

    Cette démocratisation des technologies de l’IA Générative ouvre un large éventail de cas d’usage,  notamment 

    • L’assistance performante aux collaborateurs dans leurs tâches quotidiennes.
    • La valorisation accrue des documents de l’entreprise, très souvent sous-exploités (texte, PDF, vidéo, e-mail).
    • L’automatisation de tâches complexes grâce à des agents autonomes intelligents.

    De plus, grâce à des outils en constante évolution et des plateformes de plus en plus standardisées, les entreprises peuvent désormais intégrer l’IA générative à leurs processus avec des efforts techniques et financiers maîtrisés.

    Dans un contexte où l’agilité et l’innovation sont des leviers clés de compétitivité, l’IA générative représente une opportunité stratégique pour toutes les organisations souhaitant exploiter les bénéfices de l’intelligence artificielle, quelle que soit leur taille ou leur secteur d’activité.

    n.b. :
    Dans un prochain article, je traiterai de la pertinence et des modalités de la mise en place d’une plateforme technique dédiée à l’IA Générative dans l’entreprise en 2025.