L’IA – concepts et histoire

Intelligence artificielle - concept et histoire - Machine Learning Deep Learning Transformers.

Intelligence artificielle - concept et histoire - Machine Learning Deep Learning Transformers.

L’intelligence artificielle (IA) est largement traitée dans les médias spécialisés avec les technologies de Machine Learning et de Deep Learning (réseaux de neurones artificiels) qui permettent de développer de nombreuses applications grand public ou professionnelles. Il nous a semblé intéressant de rappeler l’origine de l’IA, ses principes, ce qui a permis son émergence, mais aussi ses limitations et les futurs développements de cette technologie algorithmique.

Le nombre de neurones par espèces

Comparatif du nombre de neurones par espèces.
Comparatif du nombre de neurones par espèces.

Même si le nombre de neurones (ou la taille du cerveau) n’est pas un indicateur d’intelligence au sein d’une même espèce, en revanche, d’une espèce à l’autre, la différence quantitative est suffisamment importante pour être significative. Tout en bas de l’échelle, on trouve un petit ver de 1 mm (caenorhabditis elegans) qui compte seulement 300 neurones. On passe ensuite à la mouche drosophile (avec 250 000 neurones) puis on franchit un pas de géant avec la souris et ses 71 millions de neurones. Les grands réseaux de Deep Learning actuels sont clairement dans cette échelle et possèdent entre 1 et 10 millions de neurones. On trouve ensuite le chien avec 2 milliards de neurones. Les grands singes, quant-à-eux, sont bien au-delà des animaux de compagnies avec par exemple pour le gorille ou l’orang-outan un cerveau comprenant 32 milliards de neurones. Enfin, l’espèce humaine culmine avec 86 milliards de neurones environ. Le grand nombre de neurones est ainsi globalement corrélé avec le niveau d’intelligence relative des espèces entre elles. De la même manière, les réseaux de neurones artificiels à très grand nombre de neurones seront capables de performances techniques bien supérieures aux réseaux à plus faible nombre de neurones artificiels.

L’apprentissage, fondamental dans l’espèce humaine

Sur la figure ci-dessus, nous avons à dessein représenté le gorille avec un petit sur son dos et des jeunes enfants entourés de leurs parents et grands-parents. En effet, pour ces deux espèces, l’apprentissage est fondamental pour l’éducation et la survie. L’éducation est particulièrement longue chez l’homme (une vingtaine d’année, soit près du quart de la durée de vie) et nécessite l’acquisition de nombreuses règles de vie en société (normes, codes sociaux) et de compétences qui ne sont pas naturelles (lecture, écriture, calcul, dessin, …, métier). L’apprentissage continue d’ailleurs tout au long de la vie (nouvelles compétences professionnelles, …, apprendre à être parent). L’intelligence artificielle (et les réseaux de neurones) consiste justement à simuler cet apprentissage sur des problèmes bien délimités pour – à partir des données d’apprentissage connues – pouvoir prédire des résultats sur des données jamais vues. Le data set d’apprentissage acquiert alors un rôle prédominant avec la nécessité de disposer de données non biaisées et en nombre suffisant.

Les dates clefs de l’histoire des réseaux de neurones

On peut distinguer plusieurs dates clefs dans la progression du concept d’intelligence artificielle et des réseaux de neurones. En 1881 tout d’abord, le terme « neurone » fut introduit dans le vocabulaire médical par l’anatomiste allemand Heinrich Wilhelm Waldeyer. Puis les neurologues Warren McCulloch et Walter Pitts publièrent, dès la fin des années 1950, les premiers travaux sur les réseaux de neurones, avec un article fondateur « What the frog’s eye tells the frog’s brain » (ce que l’œil d’une grenouille dit à son cerveau). Ils proposèrent ensuite un modèle simplifié de neurone biologique (dit neurone formel). Ils montrèrent que des réseaux de neurones formels simples peuvent théoriquement réaliser des fonctions logiques, arithmétiques et symboliques complexes. En 1957, le modèle du Perceptron (premier neurone virtuel) – inventé par Frank Rosenblatt – est capable d’apprendre par l’expérience, mais c’est un modèle linéaire très limité. Puis, en 1986, est inventé le perceptron multi-couches avec l’algorithme de rétropropagation du gradient de l’erreur (Paul Werbos et Yann Le Cun). Enfin, en 2012, lors d’une compétition organisée par ImageNet, un réseau de neurones artificiels parvint pour la première fois à surpasser un humain (taux d’erreur plus réduit) dans la reconnaissance d’image, ce qui déclencha la ruée vers l’IA, enfin crédible aux yeux de la communauté scientifique qui jusqu’alors ne lui voyait pas d’avenir. Après être longtemps restée la spécialité de quelques chercheurs, l’IA aura enfin des applications et sera largement connu du grand public.

De l’IA avec des programmes manuels à l’IA avec apprentissage automatique

IA des programmes écrits à la main à l IA avec apprentissage automatique.
IA des programmes écrits à la main à l IA avec apprentissage automatique.

La révolution de l’IA s’est donc passée autour de 2012. Avant cette date, les algorithmes d’IA étaient majoritairement écrits « à la main » et reposait majoritairement sur des systèmes experts (règles logiques pilotées par un moteur d’inférence) ou sur une logique d’exploration arborescente (exploitant la « force brute »). Ainsi, en 1997, le programme Deep Blue d’IBM bat Garry Kasparov (grand maître d’échecs) et l’évènement fait grand bruit. Deep Blue était cependant basé sur la recherche arborescente et l’exploration de toutes les séquences possibles de coups (force brute). Ce qui ne veut pas dire que les recherches sur les réseaux de neurones et des applications modestes n’existaient pas. Mais depuis 2012, le machine learning et le deep learning ont acquis leurs lettres de noblesse et sont connus du grand public. Ainsi en 2016, le programme Deep Mind de Google qui bat le champion Coréen de jeu de Go utilise plusieurs technologies : réseaux de neurones convolutifs, apprentissage par renforcement et Monte Carlo Tree Search.

L’IA est bio-inspirée

L'aviation est bio inspirée - le vol est possible grace aux ailes copiées sur les oiseaux.
L’aviation est bio inspirée – le vol est possible grâce aux ailes copiées sur les oiseaux.

Comme d’autres technologies (aviation, …), l’IA est bio-inspirée sur le modèle des neurones du cerveau et du système de vision. L’aviation repose sur un écosystème complet : le concept (des ailes, inspirés des oiseaux), la physique (la portance, mécanique des fluides, …), la motorisation (carburant, moteur, …) et enfin un modèle économique (constructeurs d’avions, compagnies d’aviation, aéroports, tourisme international, …). L’IA, inspirée du fonctionnement du cerveau, est sans doute en train également de développer un tel écosystème virtuel, même si elle n’en est qu’à ses débuts et subira encore probablement de nombreuses (ré)évolutions.

Une technologie bio inspirée - neurones biologiques et artificiels.
Une technologie bio inspirée – neurones biologiques et artificiels.

Dans le cerveau, on recense environ près de 86 milliards de neurones. Chaque neurone est connecté en moyenne avec 2000 autres neurones. Les neurones virtuels des algorithmes de machine learning ou de deep learning sont inspirés de leurs homologues biologiques. Ainsi chaque neurone est connecté avec les neurones de la couche précédente et de la couche suivante dans la configuration « fully connected » ANN (Artificial Neuron Network).

Emergence du Deep Learning

Le Deep Learning - la conjonction de trois facteur la data les algorithmes et la puissance de calcul.
Le Deep Learning – la conjonction de trois facteur la data les algorithmes et la puissance de calcul.

Le Deep Learning, utilisé dans de nombreuses applications (reconnaissance d’images, de la parole, … , prédiction de séries temporelles) a sans doute émergé grâce à la conjonction de trois facteurs clefs qui ont permis son avènement : la disponibilité de data, les GPU (Graphical Processing Units) et la performance des algorithmes. Tout d’abord, il est clair qu’il ne peut y avoir de Deep Learning sans apprentissage et donc sans une base d’images numérisées importante (sur laquelle s’appuie l’apprentissage). Un minimum d’un millier d’images semble nécessaire et les algorithmes les plus puissants nécessitent des millions, voir des milliards d’images (chez les GAFAM) pour acquérir une portée généraliste et reconnaitre des types d’images très différentes. L’avènement d’internet et des réseaux sociaux ont donné accès à ces bases de milliards d’images uploadés par les utilisateurs eux-mêmes sur les serveurs des GAFAM. Ensuite, des algorithmes performants et accessibles sont nécessaires pour exploiter ces images (en phase d’apprentissage, mais aussi en phase d’exploitation). La puissance des ordinateurs et les cartes graphiques (utilisées par les Gamers) ont permis de réaliser des calculs en un temps raisonnable en particulier en phase d’apprentissage du réseau de neurones. La technologie de la rétropropagation du gradient stochastique et les réseaux de neurones convolutifs (inspirés du cortex visuel) ont enfin rendus possibles ces traitements d’images.

L’IA et l’open-source

De plus, les GAFAM (Facebook, Google, …), pour permettre à la technologie d’évoluer plus rapidement, ont mis une partie de leurs outils en accès open-source sur des plateformes (TensorFlow, Pytorch, …), ce qui a permis à la technologie du Deep Learning de diffuser largement et rapidement dans la communauté scientifique du calcul. De très nombreuses librairies de machine learning (Scikit-Learn, …) existent aussi qui permettent de déployer des modèles d’apprentissage divers.

Les limitations de l’IA

Cependant, l’IA est encore limitée. Tout d’abord, elle consomme énormément d’énergie par rapport à ses performances. Ensuite, elle pêche par son absence de sens commun par rapport aux modèles d’intelligence biologique. Pour réaliser un apprentissage, elle nécessite un très grand nombre d’exemples. Et enfin, l’IA est hyperspécialisée contrairement à l’intelligence humaine.

L’efficacité du cerveau humain en termes de consommation énergétique

Comparatif cerveau humain et GPU en terme de ratio puissance de calcul sur consommation électrique
Comparatif cerveau humain et GPU en terme de ratio puissance de calcul sur consommation électrique

Si l’on compare la performance du cerveau humain à celle de l’électronique actuelle, on arrive à 1,5 x 1018 opérations/seconde pour le cerveau (avec une consommation électrique de 25 W) contre 1 x 1013 opérations/seconde (pour une consommation électrique de 250 W environ) pour l’électronique. Pour égaler le cerveau humain en capacité de calcul, la machine va consommer un million de fois plus d’énergie électrique. L’informatique actuelle est un million de fois moins performante que la biologie en termes de ratio « puissance de calcul/consommation électrique ».

Le manque de sens commun de l’intelligence artificielle actuelle

Les systèmes d’intelligence artificielle actuelle pêchent souvent par leur manque quasi-complet de sens commun. Ce qui nous apparaît à nous comme une évidence et « allant de soi » leur échappe complètement. De très nombreuses informations sont intuitives pour l’homme, mais pas pour l’IA, pour qui elles doivent être explicitées.

Un très grand nombre d’exemples pour l’apprentissage

Les algorithmes de Deep Learning sont très consommateurs d’exemples (des milliers d’images par exemple) en phase d’apprentissage. Alors qu’un enfant pourra reconnaitre un animal (un chien ou une girafe) très rapidement et seulement en lui présentant quelques exemples de l’animal, l’IA, pour le même exercice aura besoin d’un très grand nombre d’images.

L’IA très spécialisée par rapport à l’intelligence humaine

L’intelligence humaine balaye des domaines très larges. On parle ainsi des 8 différents types d’intelligence humaine : l’intelligence logico-mathématique, verbo-linguistique, spatiale, inter personnelle, kinesthésique/corporelle, interpersonnelle, musicale/rythmique et naturaliste. Ces différentes intelligences sollicitent des zones du cerveau différentes. Elles sont plus ou moins développées chez chaque individu. La plupart des hommes peuvent faire appel à l’ensemble de ces formes d’intelligence et en cela, ils possèdent une intelligence généraliste. A contrario, l’IA est aujourd’hui très performante et peut dépasser les capacités humaines mais sur des domaines très spécialisées (reconnaissance d’images, reconnaissance de la parole, jeu d’échec ou de GO, …). Aucune IA n’a d’intelligence généraliste comme l’homme.

Les nombreuses branches de l’IA

Le domaine de l’intelligence artificielle est de nos jours très vaste et comprend de très nombreuses technologies algorithmiques allant des systèmes experts au Machine Learning supersisé, non supervisé en passant par les algorithmes génétiques, les réseaux de neurones convolutifs, les réseaux de neurones récurrents, les GAN (Generative Adversarial Network), les auto-encodeurs, la détection d’anomalie les méthodes bayésiennes, les PINNS (Physical Informed Neural Networks), … et les Transformers plus récemment (au cœur des Large Langage Model comme ChatGPT).

La data augmentation et l’utilisation de réseaux pré-entrainés

Plusieurs tendances de fond peuvent être constatés en IA. Tout d’abord, il est notoire que les réseaux de neurones donnent bien souvent de meilleurs résultats (erreur plus réduite, meilleur prédictabilité) que les autres algorithmes de machine learning (régression linéaire, SVM, KNN, arbre de décision, Random Forest,…) mais nécessitent en contrepartie un temps de calcul souvent plus important en phase d’apprentissage. Pour faire face à la nécessité d’un grand nombre de données nécessaires pour la base d’apprentissage, la data-augmentation est une solution intéressante. On peut imaginer également générer des données par simulation numérique lorsque c’est pertinent. On peut citer également l’utilisation du Transfert learning qui consiste à utiliser un réseau de neurones pré-entrainés (VGG19, …) pour gagner en efficacité (limiter l’apprentissage) au lieu de développer des architectures « from scratch ».

L’émergence en 2023 de ChatGPT et des LLM

La deuxième date clef et emblématique dans la progression de l’intelligence artificielle a été sans doute 2023 avec l’émergence de ChatGPT, qui a permis au grand public de mieux en mesurer l’efficacité, mais aussi les limites. Plus généralement, et au-delà de ChatGPT, les LLM (Large langage Model), à base de Transformers, et ayant bénéficiés d’un apprentissage se basant sur un très large corpus de textes (plusieurs milliards) dans de très nombreuses langues, font preuve de capacité étonnantes et assez généralistes (codage, génération de textes, traduction, …). L’année 2023 restera sans doute un marqueur dans la progression de l’IA comme 2012 l’a été avec la reconnaissance d’images.

Conclusions

Si les travaux de recherche remontent à plusieurs dizaines d’années, les réseaux de neurones virtuels et les algorithmes d’IA qui en découlent (machine Learning, Deep Leaning) n’ont acquis leur lettre de noblesse que très récemment (2012 et 2023). Ils sont cependant en très forte évolution dopés par une puissance de calcul sans cesse accrue, des algorithmes plus performants et des développements conceptuels (Transformers) encore à venir. L’IA va avoir, n’en doutons pas, une utilisation croissante dans de très nombreux domaines grand public et industriels.

4 commentaires

  1. Dos Reis dit :

    Article très bien documenté, précis et intéressant qui donne l’envie de s’intéresser de manière plus approfondie au sujet.

  2. Jean-Jacqui Boutet dit :

    Très bon article. Est-il trop tôt pour envisager que l’IA aura un jour une conscience de soi comme chez l’humain ? Merci.

    • Le CTIF dit :

      Bonjour Jean-Jacqui et merci de votre intérêt pour cet article sur l’IA, concepts et histoire sur MetalBlog. Très bonne question que vous posez là car si l’IA a conscience de soi, on peut penser qu’elle aurait également une volonté propre. Nous n’avons malheureusement pas la réponse.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *