Avant d’utiliser l’IA, il faut d’abord la comprendre
Une boite noire n'est pas un outil fiable
Hello tout le monde,
Bienvenue dans cette nouvelle édition de Transformations consacrée cette semaine à un sujet très tendance, l’intelligence artificielle.
Mais vous commencez à me connaitre, je ne vais pas vous donner le dernier prompt à la mode pour GPT 4. On va s’intéresser au fond, à la façon dont on utilise les IA, quelles qu’elles soient.
J’ai lu récemment “Les algorithmes font-ils la loi ?”, écrit par Aurélie Jean, entrepreneuse et scientifique spécialisée dans les algorithmes et la modélisation numérique.
Le livre est assez intéressant et je vous invite à le lire si vous vous posez des questions sur la règlementation des algorithmes, et la façon dont on les utilise pour faire appliquer les lois. Mais ce n’est pas mon sujet aujourd’hui.
Il y a un point sur lequel l’autrice incite beaucoup et dont je suis très partisan, c’est l’importance de comprendre l’algorithme.
L’IA, une nébuleuse pour beaucoup d’entreprise
Lorsque l’on prend les derniers baromètres de France Num ou du Conseil national du numérique, le constat est assez clair : seulement 5% des PME et ETI font de l’intelligence artificielle un investissement prioritaire. Il sont encore moins nombreux à déclarer en maitriser les enjeux.
“Qu’est-ce que l’IA ?” est déjà un bonne question à se poser car il y a beaucoup de confusion entre IA et machines humanoïdes. On entend beaucoup dire que depuis l’hiver dernier, les IA ont fait un énorme bond en avant. Je suis plus mitigé sur ce constat. L’IA progresse à grande vitesse depuis des années. Ce qu’ils s’est passé avec l’arrivée de ChatGPT, c’est que l’IA s’approche de ce que les japonais appèlent bukimi no tani (la vallée de l’étrange), le seuil technologique où l’aspect humanoïde d’une machine nous met mal à l’aise.
Pas plus tard que ce weekend, le fameux podcasteur Matthieu Stefani se demandait d’ailleurs sur Instagram s’il devait être poli avec ChatGPT. On attribue de plus en plus à la machine des qualités humaines et c’est ce qui est dangereux.
C’est d’ailleurs le propos d’Aurélie Jean : ne règlementons pas les IA comme des personnes morales ou physique … ce sont des outils.
Un outil, pas une baguette magique
« Toute technologie suffisamment avancée est indiscernable de la magie. » disait l’auteur Arthur C. Clarke. J’aime aussi beaucoup la variante de Karl Schroeder :
Toute technologie suffisamment avancée est indiscernable de la nature.
On est en plein dedans avec les IA génératives. On a l’impression qu’elles sont naturelles. D’ailleurs elles s’appuient sur une discipline algorithmique appelée le NLP, pour Natural Language Processing. Mais n’oublions pas la notion de “processing” dans cette discipline.
À trop vouloir humaniser ces outils, on les considère comme des boites noires inexpliquées, avec une conscience propre … sauf que ces boites noires sont souvent développées par des entreprises privées, dans lesquelles des ingénieurs qui ont des consignes bien précises sur ce qui doit être implémenté.
Aurélie Jean l’explique très bien dans son ouvrage, chercher à expliquer les algorithmes n’est pas toujours possible, notamment quand ceux ci sont implicites comme c’est le cas d’un entrainement par Deep Learning.
Mais si on ne peut pas les expliquer, on peut, et on doit, chercher à les comprendre. Pour le faire, on peut s’appuyer sur les données utilisées pour les entrainer, ou sur des méthodes de tests pour vérifier les variables de sortie. Il existe d’ailleurs tout un pan académique qui vise à construire des outils pour mesurer le poids de chaque variable d’entrée dans une décisions algorithmiques.
Un grand pouvoir implique de grandes responsabilités
Il faut prendre les IA pour ce qu’elle sont. Ce ne sont pas des solutions, ce sont des outils. Ce sont d’ailleurs des outils très puissants, et comme n’importe quel outil puissant, il faut l’utiliser en se rappelant les mots de ce cher oncle Ben (celui de Spiderman, pas celui du riz).
Utilisées comme des boites noires, elles font courir des risques de propriété intellectuelle, de biais de conception, de sur-confiance dans les résultats … Utilisées par des humains qui en comprennent les rouages, elles décuplent leurs capacités.
Un exemple simple à appréhender est celui des IA dans la médecine. On commence à voir des algorithmes qui détectent des signes avant-coureur de cancer (et on imagine que d’autres maladies vont suivre rapidement). Si l’on croit l’IA sur parole, on risque de lancer un traitement lourd sur un faux positif. Mais quand on sait comment l’IA l’a détecté, on sait quel diagnostique complémentaire fournir pour infirmer ou confirmer le pré-diagnostique logiciel. On sauvera alors de nombreuses vies.
Au final, ce n’est peut être pas si mal que les entreprises françaises approchent l’IA avec prudence. C’est un signe de réalisme vis à vis de leur maturité sur le sujet, et probablement d’une utilisation plus pertinente de ces outils dans le futur.
Merci d’avoir lu cet article. Si tu l’as aimé, parles en, partage le ou transfère le à quelqu’un que ça peut intéresser. C’est le meilleur soutien que tu peux m’apporter.
Pour ne pas louper les suivants, inscrit toi !
Tu peux aussi me suivre sur Linkedin pour une actualité plus fraiche.
Accompagner les entreprises dans leur transformation digitale, c’est mon métier. Tu veux échanger sur ce sujet et la façon dont ça impacte ton métier ? Contacte-moi pour en discuter.
Ah ! Et aussi … Les éditions précédentes sont évidemment disponibles.