Le , par Julien Wilhelm - Écoconception
Temps de lecture estimé : 9 minutes.
L’IA générative est partout. Comme beaucoup, je m’interroge à son sujet. Et si j’aimerais parfois pouvoir l’ignorer, mon cœur de métier fait que je n’ai pas le choix, il me faut m’instruire et la comprendre pour pouvoir orienter les uns et les autres.
Je ne dis pas que cette technologie est responsable.
Je ne dis pas l’inverse non plus (quoique ?).
J’en suis à ce stade où, après avoir un peu étudié son fonctionnement, je m’interroge sur la façon dont elle est pourrait être déployée pour être saine (cet article) et sur les usages pertinents que nous pourrions lui trouver (article à venir).
J’ai identifié 6 prérequis pour « une IA responsable ».
Notez les guillemets, s’il vous plaît.
Et, surtout, voyez comment on en est loin.
Ce qu’il faut exiger d’une IA responsable
1. Elle s’appuie sur des données ouvertes
Les modèles de langage ont besoin de beaucoup de données pour étoffer leurs connaissances. Ce n’est un secret pour personne : ces données, qu’on le veuille ou non, ce sont les nôtres, pour l’essentiel celles que nous semons sur le Web depuis des décennies.
Or nous sommes peu à avoir donné notre accord. Et il apparaît évident que des œuvres dites protégées par des droits de propriété intellectuelle voire sous droits d’auteur ont été ingérées sans le consentement de leurs créateurs.
Pour se couvrir un peu, on voit fleurir par-ci par-là des propositions de « opt-out » sur les services que nous alimentons à coup de contributions et d’informations personnelles. Comprenez par-là que, si on ne fait rien, nos données serviront à nourrir des modèles de langage. C’est moche comme pratique, pas systématique, et cela arrive un peu tard.
Une IA responsable ne fait pas fi du droit : elle choisit au contraire des sources disposées à partager leurs données à des fins d’entraînement.
2. Elle est entraînée de façon éthique
Les modèles de langage sont comme des enfants : si vous leur donnez des informations sans leur expliquer comment raisonner avec, vous n’en ferez pas quelque chose d’intelligent pour autant. Il faut les éduquer. Leur apprendre ce qui est bien et mal (ou plutôt, ce qui est considéré comme étant le bien ou le mal). En somme, il faut qu’ils puissent être aptes à interagir en société.
Quelques exemples :
- Ne pas promouvoir les violences physiques ou sexuelles ;
- Ne pas promouvoir les discriminations raciales ou de sexes ;
- Ne pas promouvoir l’exploitation des enfants ;
- Ne pas promouvoir la pédopornographie ;
- Etc.
Tout ce à quoi nous ne souhaiterions ô grand jamais pas prendre part. Sauf qu’à trop puiser partout où ils le peuvent, y compris dans les tréfonds d’Internet, les modèles de langage sont surexposés aux déviances. Ce sont donc des humains derrière qui, comme pour les enfants, vont avoir à les accompagner pour les aider à distinguer ce qui est bon ou mauvais.
L’apprentissage par renforcement à partir du feedback humain (RLHF) n’est pas nouveau, mais, il me semble, a toujours été critiqué. Et à raison.
Vous avez déjà vu une telle offre d’emploi en France, vous ? Non, et c’est tout à fait normal ! Les conditions de travail exercées par les demandeurs sont généralement en opposition complète avec le droit du travail de notre pays.
Quelques exemples :
- Salaire horaire bien inférieur au SMIC ;
- Interdiction de se syndiquer ;
- Interdiction de communiquer avec ses collègues ;
- Interdiction même de parler de son métier à ses proches ;
- Impossibilité de bénéficier d’un soutien psychologique malgré l’exposition continue à des violences insoutenables ;
- Etc.
Pour en savoir plus, je vous renvoie au documentaire d’Henri Poulain qui porte bien son nom (le documentaire, pas l’auteur) : « Les sacrifiés de l’IA ».
La mise à disposition d’une IA responsable apte à interagir avec ses utilisateurs ne se fait pas au détriment de la qualité de vie ou de la santé physique et psychologique d’autrui.
3. Elle publie son code source
L’IA traite une quantité phénoménale d’informations lorsqu’elle est en phases d’apprentissage ou d’inférence. Dans les deux cas, il ne s’agit pas seulement de déplacer des données d’un point A à un point B comme on peut le faire avec une base traditionnelle. Après avoir été sélectionnées avec plus ou moins de soin, celles-ci doivent être déconstruites puis ingérées par un modèle qu’il reste encore à entraîner. Autant d’étapes qui suivent à la lettre… Les consignes d’un humain ! Car oui, contrairement aux idées reçues, l’IA ne peut faire preuve d’initiative.
Se pose alors le problème des biais introduits.
- Sont-ils nombreux ?
- Sont-ils significatifs ?
- (Sont-ils volontaires ?)
- Surtout : sont-ils connus ?
Quand on a besoin de demander un service ou un conseil à quelqu’un dans la vraie vie, on essaie de s’adresser à la personne identifiée comme étant la plus qualifiée. Avec l’IA, on peut rarement savoir à qui on a affaire. Et cette opacité nuit à sa crédibilité.
Oui, c’est bien dit.
Oui, c’est bien fait.
Mais la réponse est-elle honnête ?
Des biais, nous en avons tous. Quand plusieurs personnes réfléchissent à un problème, il peut émerger autant de solutions différentes. Cette incapacité à converger crée parfois de l’instabilité dans nos sociétés. L’utilisation massive de l’IA nous fait prendre le risque de penser comme un seul Homme, ce qui n’est pas davantage souhaitable.
Quand bien même il est impossible pour le commun des mortels d’en interpréter les entrailles, une IA responsable publie son code source pour permettre d’interagir avec elle en connaissance de cause.
4. Elle fonctionne avec efficience
L’efficience exprime l’effort consenti pour un résultat. L’état de l’art fait qu’il est difficile (impossible ?) de savoir avec exactitude ce que consomme une IA pour générer du texte, une image ou encore une vidéo. D’ailleurs, parle-t-on d’eau, d’énergie, d’usure des équipements, etc. ?
Si on s’en tient au seul fait qu’il sort régulièrement des modèles de langages se voulant plus performants que les précédents, c’est bien que le compte n’y est pas encore. On peut faire mieux avec moins. Beaucoup mieux sans doute.
Cette quête de l’efficience s’appuiera sur pléthore d’optimisations techniques, mais devra aussi faire le deuil d’une IA capable de tout. Raisonner par spécialité apparaît déjà comme étant la solution pour garantir la qualité d’un raisonnement à moindre coût.
Aussi, une IA responsable excelle avant tout dans son domaine, en consommant le moins de ressources possible.
5. Elle préserve la confidentialité des données échangées
Selon les missions qui lui sont confiées, L’IA aura besoin de plus ou moins de contexte pour mener à bien une même tâche. Comme pour un humain, en fait.
Le contexte est défini par une somme d’informations qui peuvent être précieuses, voire carrément sensibles. Or le fait d’utiliser l’IA de quelqu’un d’autre, ou hébergée chez quelqu’un d’autre, sans véritablement savoir quels seront les traitements annexes à la demande initiale, expose ces dernières.
Soyons lucides. Hier, l’IA s’est bâtie sur le vol de nos données sans notre consentement. Que fera-t-elle demain de celles que nous lui apportons sur un plateau ? À moins que le contraire ne soit explicitement indiqué dans les conditions générales d’utilisation, et que cela soit effectivement appliqué (qui sait ?), il y a fort à parier que les informations auxquelles l’IA a accès seront réexploitées.
Tout ou en partie.
Transformées ou en l’état.
Pour un peu que les concepts de sécurité et vie privée appellent à quelque chose en vous, il s’agit une prise de risques que vous ne souhaiterez pas toujours prendre. Moi non plus.
Une IA responsable permet à ses utilisateurs de décider précisément de ce qui doit être fait des données qui lui sont confiées (et par pitié, pas avec un opt-out !).
6. Elle assure la traçabilité de ses contenus
Tout ce que produit l’IA devrait pouvoir être identifié en tant que tel. Et ce n’est pas tant pour l’empêcher de faire leurs devoirs à la place de nos enfants (encore que).
Avec Internet, et plus encore avec les réseaux sociaux, une fausse information aura vite fait de faire le tour de la Terre avant d’avoir pu être contestée. Pour bien faire, il faut débunker chaque information, c’est-à-dire questionner sa véracité. Sans cela, nous pouvons absorber au quotidien quantité d’informations trompeuses ou erronées sans nous en apercevoir !
L’IA telle qu’elle est mise à disposition actuellement intensifie le phénomène de désinformation. En permettant de produire des contenus toujours plus réalistes, elle donne des outils puissants à des individus mal intentionnés. Il devient peu à peu impossible de distinguer le vrai du faux. Au point d’en arriver à douter de la réalité quand elle est trop belle.
Dans un tout autre registre, nous sommes d’ores et déjà noyés des contenus culturels générés par l’IA que nous ne pouvons pas toujours distinguer du fait humain. Le livre, la photographie, la musique, la vidéo, le jeu vidéo… Tous les secteurs sont touchés. Nous sommes en 2025, et c’est peut-être un travers typiquement humain dont nous nous déferons à l’avenir (ou pas), mais j’ai moi besoin de savoir qui, ou quoi, a produit ce que je lis, observe, écoute ou regarde. C’est d’autant plus vrai lorsque j’ai payé pour. Que je souhaite rémunérer un labeur à sa juste valeur.
Pour prévenir toute forme de désinformation et garantir la transparence des processus de création, une IA responsable authentifie de façon systématique et indélébile les contenus qu’elle génère.
Au-delà des prérequis : l’usage
Je ne peux conclure cette liste sans rappeler qu’une IA responsable doit servir un but dont l’utilité ne fait aucun doute. Je sors volontairement cet aspect pourtant essentiel des prérequis, car, s’agissant d’un outil, même les usages qui nous semblent acceptables de prime abord peuvent se révéler contestables une fois le pouvoir entre nos mains.
Il ne fait aucun doute que certaines propositions de l’IA doivent être refusées nettes. Pour d’autres, il est plus difficile d’évaluer leurs impacts à long terme, et par impacts je fais ici référence aux ruptures sociétales que cette technologie introduit déjà (bouleversement du marché de l’emploi, transfert de compétences de l’Homme vers la machine, défiance grandissante vis-à-vis de l’information, etc.).
L’IA va-t-elle nous aider ? Nous desservir ?
Vaste question à laquelle personne ne peut encore répondre.