Un contexte géopolitique qui influence la gouvernance des données
L’intelligence artificielle ne progresse pas dans un vide technologique. Elle se développe au sein d’un environnement géopolitique mouvant, où réglementations et modèles économiques diffèrent selon les continents. Si les États-Unis adoptent une approche plutôt dérégulée au niveau fédéral, l’Union européenne, avec des initiatives comme le RGPD et l’AI Act, cherche à établir un cadre solide. La Chine, quant à elle, avance avec ses propres règles.
Ces disparités compliquent la tâche des entreprises françaises, en particulier pour celles qui manipulent des données personnelles ou opèrent à l’international. Une anecdote significative : le licenciement par Donald Trump du bureau chargé de la supervision des échanges de données transatlantiques est passé quasi inaperçu, mais pourrait avoir des conséquences majeures.
Du buzz à la réalité : quels besoins pour les entreprises ?
Derrière l’enthousiasme général pour l’IA se cache une réalité plus complexe. Beaucoup d’acteurs économiques peinent à obtenir un retour sur investissement (ROI) réel. Pourquoi ? Parce que l’équation « data = ROI » est trompeuse. Les données sont le carburant de l’intelligence artificielle, mais non la finalité. Il faut transformer la data en information, puis en connaissance, ce qui suppose une utilisation concrète et pertinente.
Sans adoption par les utilisateurs, même le modèle le plus brillant n’aura aucun impact. Il faut donc intégrer l’IA dans des usages concrets, pensés selon les besoins des métiers.
L’architecture data : de la centralisation au data mesh
Les entreprises sont passées d’un chaos informationnel — où chaque application avait sa base de données — à des tentatives de centralisation via les DSI. Mais cette centralisation a vite montré ses limites. Le concept de data mesh s’impose aujourd’hui comme une alternative efficace : une gestion fédérée des données, où chaque service métier reste responsable de ses propres jeux de données, tout en les rendant interopérables.
Ce modèle répond aux enjeux d’évolutivité et d’agilité, conditions essentielles pour une IA performante.
L’IA générative : au-delà du texte, un levier stratégique
La vague d’IA générative, popularisée par ChatGPT, ne se limite pas à la production de texte. Elle transforme aussi l’analyse documentaire, la génération de contenus métiers ou encore l’interaction client. Ainsi, une société de maintenance énergétique a pu automatiser ses rapports d’intervention grâce à un modèle génératif croisant les données saisies sur tablette par les techniciens.
Autres cas concrets : génération de fiches produits, synthèse de documents RH, ou vérification juridique de contrats. À condition de maîtriser les risques, notamment en matière de confidentialité et de régulation.
Fine tuning, SLM et mode RAG : les vraies solutions pour l’entreprise
Les modèles grand public, comme ChatGPT ou Gemini, ne sont pas adaptés aux besoins d’entreprise. Confidentialité, mise à jour des contenus, coût énergétique : autant de freins à leur adoption en environnement professionnel.
La solution ? Des modèles sur mesure intégrant deux approches complémentaires :
-
Le RAG (Retrieval Augmented Generation), où un petit modèle de langage (SLM) est couplé à une base documentaire à jour.
-
Le fine tuning, qui permet d’adapter un modèle préentraîné aux données spécifiques de l’entreprise.
Résultat : un outil plus agile, moins énergivore, et surtout, beaucoup plus pertinent.
L’IA agentique : une étape décisive pour l’automatisation intelligente
Prochaine étape : l’IA agentique, ou l’intelligence artificielle capable d’agir. Couplée à l’IA générative, elle peut non seulement analyser une situation (stock, prévisions de vente, etc.), mais aussi proposer des actions concrètes, comme passer une commande au bon moment.
Ces agents intelligents pourront ainsi fluidifier la supply chain, optimiser les stocks, ou encore accompagner la prise de décision. L’humain reste dans la boucle, validant les recommandations, mais l’IA apporte un gain réel de productivité.
Une transformation structurelle des métiers
Les impacts ne se limitent pas aux fonctions techniques. Toutes les directions — RH, marketing, juridique, logistique — sont concernées. L’enjeu n’est pas de remplacer l’humain, mais de lui permettre de mieux comprendre, décider, et agir.
Cela suppose cependant une montée en compétence : comprendre les limites de l’IA, savoir l’intégrer dans les processus, mais aussi instaurer une gouvernance des données claire et partagée.
Multimodalité : l’avenir de l’IA générative
Aujourd’hui, les IA génératives passent par des étapes successives pour traiter différents médias (texte, image, audio). Ce processus ralentit leur efficacité.
Demain, les progrès dans l’encodage vectoriel unique permettront une véritable IA multimodale : une image pourra être transformée directement en texte ou en audio, sans étapes intermédiaires. Cette avancée réduira les latences et élargira les champs d’application (accessibilité, formation, médecine, etc.).
Vers une IA éthique et souveraine
L’usage de l’IA ne peut se faire sans réflexion éthique. Propriété intellectuelle, droit d’auteur, transparence des algorithmes… Ces sujets deviennent centraux.
L’Europe impose un encadrement rigoureux. Les éditeurs de LLM devront s’acquitter de droits pour utiliser les contenus protégés, ce qui fera émerger une véritable économie de la donnée.
Côté entreprise, l’acculturation des équipes et la sécurité des données sont deux priorités. Orange, par exemple, s’appuie sur Orange Cyberdéfense pour sécuriser les données utilisées dans le fine tuning de ses modèles.
Quels choix stratégiques pour les années à venir ?
Les LLM deviennent une commodité, mais ne sont pas la solution universelle. Chaque entreprise doit identifier ses cas d’usage propres, adapter ses outils, et mettre en place une méthodologie claire pour l’industrialisation de ses projets IA.
Un projet réussi commence par la formation des dirigeants, passe par des ateliers d’idéation, puis par une phase de test et enfin d’industrialisation. Le tout soutenu par une gouvernance des données solide.
Enjeux et prospective : de la complexité à l’agilité
Derrière la fascination actuelle pour les performances des IA se cache une contrainte fondamentale : la quantité de données disponibles est désormais le principal frein à l’amélioration des modèles. C’est la loi de Vapnik qui le rappelle : plus un modèle est complexe, plus il lui faut de données pour s’entraîner efficacement.
Autrement dit, la course à la complexité a atteint un plafond de verre. L’avenir de l’IA réside donc moins dans des modèles toujours plus gigantesques, que dans une approche agile, contextuelle et responsable.