Le , par Christophe Clouzeau - Écoconception
Temps de lecture estimé : 5 minutes.
Retour sur ce webinaire organisé par Temesis et OpenStudio le 02 avril 2026, durant lequel nous avons proposé une approche pragmatique pour le déploiement d’une intelligence artificielle responsable en entreprise.
Au delà du buzzword autour de l’IA (Intelligence Artificielle), l’IA générative et les agents IA, les sources actuelles révèlent aujourd’hui un constat frappant : 95 % des projets d’IA échouent à passer en production (rapport du projet NANDA du MIT Media Lab, août 2025).
Durant les phases exploratoires de ces technologies prometteuses, les organisations découvrent par exemples les coûts énergétiques, les coûts économiques, les enjeux de sécurité, les problèmes de souveraineté des données, les répercussions sur les humains ou encore les difficultés de déploiement !
Pour remédier à cela, notre événement a privilégié les cas d’usage concrets et l’analyse des impacts écologiques, sociaux et économiques en prisme d’aide décisionnelle.
La formation IA responsable de Temesis
Tout d’abord, Julien Wilhelm a mis en avant la formation de Temesis “Cadrer le déploiement d’une IA générative responsable” qui capitalise sur une approche par cas d’usage. Calibrée pour une journée et destinée aux profils plutôt décisionnaires ou responsables d’un projet IA, elle permet aux personnes de repartir avec :
- une vue d’ensemble des enjeux environnementaux, sociétaux et économiques de l’IA générative
- une méthode d’évaluation des cas d’usage (des fiches pratiques avec projections, indicateurs et référentiels réglementaires) pour accompagner dans la prise de décision avant le déploiement
- une feuille de route pour un déploiement maîtrisé de l’IA générative responsable.
En somme, la formation et ces supports définissent une IA générative véritablement utile et responsable lorsqu’elle concilie performance économique, responsabilité sociétale et prise en compte de la réduction de l’empreinte environnementale.
Les exemples d’IA Responsables « pour de vrai »
Emmanuel Nurit et Nicolas Sauzéat d’OpenStudio, ont présenté trois retours d’expériences comme cas d’usage concrétisant la réflexion et le déploiement de solution IA responsable.
Confrontés à l’envie des clients d’obtenir un outil technologique aussi polyvalent qu’un « couteau suisse », ils ont pu témoigner que le choix de l’outil est primordial : parfois un simple couteau suffit si les enjeux systémiques et leurs indicateurs sont pris en compte.
Cas OCR (reconnaissance optique de caractères)
Le premier cas d’usage permet d’extraire automatiquement les données de milliers de cartes grises automobiles. Face au surdimensionnement des LLM (Large Language Models) multimodaux, des impacts environnementaux et des coûts des tokens, le choix de Mistral OCR, petit modèle conçu spécifiquement pour la reconnaissance de caractères, a été déployé avec une fiabilité supérieure à 99 % et une performance supérieure.
Résultat : 5,28 € est le coût dérisoire du traitement de 2200 cartes grises obtenu en utilisant ce modèle spécifique (Mistral OCR) au lieu d’un LLM multimodal massif à 17,58 €.
Cas Fiche produit
Dans ce cas concret, le besoin est de consolider de nombreuses données fournisseurs (sites web, PDF, catalogues) pour alimenter automatiquement les fiches produits d’un catalogue e-commerce. L’approche a poussé la réflexion d’optimisation du pipeline en privilégiant un découpage en 2 étapes : un scraper dédié + un LLM en 2 appels ciblés, plutôt qu’un LLM multimodal avec un coût de tokens proportionnel au volume de sources.
Résultat : une consommation de tokens divisée par 50 avec une suppression des hallucinations.
Cas Jumeau Numérique
Le cas d’usage porte sur l’automatisation de calculs de paramètres industriels pour l’optimisation du découpage de feuilles métalliques.
Résultat : Le temps d’exécution d’un calcul d’abaques techniques complexes est réduit à 4 secondes (au lieu de 4 heures) par un modèle de Deep Learning algorithmique (sans LLM), permettant un gain de temps pour l’opérateur humain.
Côté RGESN
De son côté, Julien Wilhelm a pu témoigner d’un résultat de déploiement réalisé pour Temesis. Il s’agit de la comparaison d’émissions de gaz à effet de serre pour une tâche interne d’évaluation d’écoconception (RGESN). L’usage d’une IA émet 199 mg de eqCO2 (équivalent CO2), contre seulement 43 mg de eqCO2 pour l’outil automatisé sans IA (pour la phase d’usage seule). Ce qui illustre l’impact carbone de l’IA versus un classique algorithme informatique !
Même si la production se déroule évidemment plus vite (ce qui est le but recherché par l’automatisation), il ne faut pour autant pas passer à côté du temps fastidieux pour contourner les biais aléatoires de ces outils. Ni des résultats approximatifs et irréguliers obtenus encore à date avec ces solutions fortement énergivores…
Conclusion : les 3 points de décisions clés qui sont ressortis de cette présentation
- L’IA n’est utile que si elle est déployée en production.
Actuellement, 95 % des projets (Proof-Of-Concept, prototypes) ne passent jamais en production car les organisations découvrent trop tard les coûts énergétiques, économiques et les limites de sécurité. Dépasser le stade de l’expérimentation nécessite une anticipation de ces contraintes via la réflexion par cas d’usage et besoin réel - La pertinence conditionne la responsabilité.
Une IA générative ne peut être qualifiée de responsable sans avoir été jugée pertinente pour un cas d’usage donné. Il ne faut pas céder aux nombreuses promesses technologiques et aux arguments qui font rêver, mais évaluer systématiquement l’équilibre entre la valeur apportée par l’IA et les risques générés (environnementaux, financiers, humains, souverains, éthiques, etc.) - Enfin, privilégier l’approche de « l’outil juste » (IA dîte frugale) au lieu du « tout-LLM ».
Remplacer systématiquement les tâches par des LLM est souvent inutile, coûteux et énergivore. De l’automatisation, des pipelines optimisés (exemple : scraping sans IA + appel LLM ciblé), des modèles spécialisés (Mistral OCR) ou du Deep Learning classique (algorithmique sur CPU) offrent parfois un meilleur ROI (Return On Investment), une fiabilité supérieure et un impact environnemental maîtrisé.
En bref, l’approche décisionnelle par cas d’usage permet d’éviter de foncer sur des technologies IA multimodales qui agissent comme « un canon pour tuer un moustique ».
Téléchargez la présentation du webinaire IA Responsable, au format PDF (1,2 Mo)
