—
Réflexions sur l’Intelligence Artificielle
Lorsque j’étais étudiant, à la fin des années 90, un de mes profs d’informatique définissait l’intelligence, au sens large, comme l’habilité de chacun à dissimuler à quel point il est complètement con. Si ça peut prêter à sourire, ça me semble être la définition parfaite pour l’Intelligence Artificielle.
C’est d’ailleurs assez amusant de voir comme ça résonne avec ce discours de Steve Jobs à l’International Design Conference en 1983, concernant les ordinateurs en général:
Computers are really dumb. They’re exceptionally simple, but they’re really fast. The raw instructions that we have to feed these little microprocessors—or even these giant Cray–1 supercomputers—are the most trivial of instructions. They get some data from there, get a number from here, add two numbers together, and test to see if it’s bigger than zero. It’s the most mundane thing you could ever imagine.
But here’s the key thing: let’s say I could move a hundred times faster than anyone in here. In the blink of your eye, I could run out there, grab a bouquet of fresh spring flowers, run back in here, and snap my fingers. You would all think I was a magician. And yet I would basically be doing a series of really simple instructions: running out there, grabbing some flowers, running back, snapping my fingers. But I could just do them so fast that you would think that there was something magical going on.
And it’s the exact same way with a computer. It can do about a million instructions per second. And so we tend to think there’s something magical going on, when in reality, it’s just a series of simple instructions.
L’IA ne serait donc que l’itération suivante, une évolution du bond en avant réalisé grâce aux ordinateurs. Cette capacité à traiter énormément d’informations extrêmement rapidement, et de compiler une réponse la plus proche de ce que pourrait faire, dire ou penser un humain de telle sorte que cela ne semble pas artificiel.
Evidemment, le phénomène récent des Large Language Models dit “génératifs”, dont ChatGPT est le porte-étendard le plus impressionnant, donnent parfois l’impression que la réussite du test de Turing1 est possible. Tout comme l’apparition d’IA comme MidJourney ou DALL-E, permettant de créer des images plus vraies que nature qui peuvent facilement tromper l’observateur lambda. Tout ceci génère évidemment des inquiétudes, pour ne pas dire des peurs, qui si elles peuvent sembler légitimes au premier abord, sont surtout un réflexe mécanique de notre cher gouvernement toujours enclin à tuer dans l’oeuf toute innovation, selon la célèbre citation de Reagan :
“Les gouvernements ont une vision très sommaire de l’économie. Si ça bouge, ajoute des taxes. Si ça bouge toujours, impose des lois. Si ça s’arrête de bouger, donne des subventions.”
J’en reviens donc à mon point de départ, l’IA est avant tout complètement conne mais capable d’accomplir des tâches statistiques extrêmement rapidement, et plutôt que d’en avoir peur, nous devrions nous réjouir de voir tout ce qu’elle apporte déjà depuis de nombreuses années dans notre vie au quotidien. Elle est partout et rend des services incalculables et dont on pourrait difficilement se passer:
- à titre individuel, dans nos smartphones par exemple: assistant vocaux, GPS, reconnaissance faciale, …
- mais de façon plus générale, dans la médecine pour n’en citer qu’une seule: elle est capable de diagnostiquer des maladies là où les médecins ont échoué.
Essayons juste d’en faire quelque chose d’utile… Si Adobe Firefly semble bluffant, à quoi bon l’utiliser pour inventer un fond à La Joconde. Ça ne résout aucun problème et ne répond à aucune question…
Gardons juste à l’esprit que les machines ne sont pas conscientes, comme le dit Ted Chiang dans cet article passionnant du Financial Times et j’aime particulièrement ce passage qui remet bien les choses en place sur le terme IA:
“There was an exchange on Twitter a while back where someone said, ‘What is artificial intelligence?’ And someone else said, ‘A poor choice of words in 1954’,” he says. “And, you know, they’re right. I think that if we had chosen a different phrase for it, back in the ’50s, we might have avoided a lot of the confusion that we’re having now.”
So if he had to invent a term, what would it be? His answer is instant: applied statistics.
Le vocabulaire est important. Et nombreux sont ceux qui ont remarqué qu’Apple n’a pas utilisé une seule fois le terme “Artificial Intelligence” durant sa keynote d’ouverture de la WWDC23, quand tous les autres grands acteurs du domaine (Google, Microsoft, …) n’ont que ce mot à la bouche. Si vous suivez un peu les annonces de startups sur l’IA qui naissent aujourd’hui, surfant sur la vague ChatGPT, comportant d’ailleurs au moins GPT ou IA dans leur nom, vous pouvez facilement faire une overdose: combien d’entre-elles iront au delà de la simple levée de fonds sur LE sujet du moment avant de disparaitre (avec la caisse) ?
Apple fait disparaitre l’IA derrière l’utilité et parle plutôt de Machine Learning, qui est un des domaines d’application de l’IA certes, mais qui se rapproche selon moi bien mieux de là où nous en sommes aujourd’hui: apprendre à partir de données, sans conscience: applied statistics. Et le ML est déjà partout chez Apple, sur iOS pour ne prendre qu’un seul exemple: dans Photos, détourer un individu d’une photo ou rechercher les photos de chat ou de voiture… Mais annoncé plus récemment encore, dans de nombreuses fonctions d’accessibilités dont Personal Voice qui permet aux personnes susceptibles de perdre l’usage de la parole de créer une voix de synthèse (en quelques minutes) qui leur ressemble afin de communiquer avec leurs proches.
Et si finalement c’était ça, le secret d’une IA réussie ? Rendre les humains plus humains.
- Le test de Turing (décrit par Alan Turing en 1950) consiste à confronter, à l’aveugle, un individu dans une conversation avec une autre personne humaine et un ordinateur. S’il ne parvient pas à différencier l’humain de la machine, alors le test est un succès. ↩