L’intelligence artificielle (IA) est aujourd’hui devenue une composante familière de la vie moderne, présente dans tous les domaines, du commerce à la santé. Pourtant, peu de personnes imaginaient que l’histoire du développement de l’IA ait commencé au milieu du XXe siècle et ait traversé de nombreuses phases avant d’atteindre les avancées fulgurantes actuelles.

Cet article INVIAI propose une analyse détaillée de l’histoire de la formation et du développement de l’IA, depuis les premières idées rudimentaires, en passant par les phases difficiles du « hiver de l’IA », jusqu’à la révolution du deep learning et à la vague explosive de l’IA générative dans les années 2020.

Années 1950 : Le début de l’intelligence artificielle

Les années 1950 sont considérées comme le point de départ officiel du domaine de l’IA. En 1950, le mathématicien Alan Turing publie l’article « Computing Machinery and Intelligence », dans lequel il propose un test célèbre pour évaluer la capacité de raisonnement des machines – plus tard appelé test de Turing. Ce jalon marque l’émergence de l’idée que les ordinateurs pourraient « penser » comme des humains, posant ainsi les bases théoriques de l’IA.

En 1956, le terme « Artificial Intelligence » (intelligence artificielle) est officiellement introduit. Cet été-là, le scientifique informatique John McCarthy (Université Dartmouth), avec ses collègues Marvin Minsky, Nathaniel Rochester (IBM) et Claude Shannon, organise un atelier historique à l’Université Dartmouth.

McCarthy propose le terme « intelligence artificielle » (IA) pour cet atelier, et l’événement de Dartmouth en 1956 est souvent considéré comme la naissance officielle du domaine de l’IA. Lors de cette rencontre, les chercheurs audacieux déclarent que « tous les aspects de l’apprentissage ou de l’intelligence peuvent être simulés par des machines », fixant des objectifs ambitieux pour ce nouveau domaine.

La fin des années 1950 voit de nombreux premiers succès en IA. En 1951, les premiers programmes d’IA sont écrits pour fonctionner sur l’ordinateur Ferranti Mark I – notamment un programme de jeu de dames de Christopher Strachey et un programme d’échecs de Dietrich Prinz, marquant la première fois qu’un ordinateur joue à un jeu intellectuel.

En 1955, Arthur Samuel chez IBM développe un programme de jeu de dames capable d’apprendre de l’expérience, devenant l’un des premiers systèmes de machine learning. Parallèlement, Allen Newell, Herbert Simon et leurs collaborateurs créent le programme Logic Theorist (1956), capable de démontrer automatiquement des théorèmes mathématiques, prouvant que les machines peuvent effectuer un raisonnement logique.

Outre les algorithmes, des outils et langages de programmation dédiés à l’IA voient le jour dans les années 1950. En 1958, John McCarthy invente le langage Lisp, conçu spécifiquement pour l’IA, qui devient rapidement populaire dans la communauté des développeurs IA. La même année, le psychologue Frank Rosenblatt présente le Perceptron, le premier modèle de réseau de neurones artificiels capable d’apprendre à partir des données. Le Perceptron est considéré comme la base des réseaux neuronaux modernes.

En 1959, Arthur Samuel utilise pour la première fois le terme « machine learning » (apprentissage automatique) dans un article clé décrivant comment un ordinateur peut être programmé pour apprendre et améliorer ses performances au jeu, surpassant même son programmeur. Ces avancées témoignent d’un optimisme fort : les pionniers croient qu’en quelques décennies, les machines pourraient atteindre une intelligence comparable à celle des humains.

Années 1950 - Le début de l’intelligence artificielle

Années 1960 : Premiers progrès

Dans les années 1960, l’IA continue de progresser avec de nombreux projets et inventions remarquables. Des laboratoires d’IA sont créés dans plusieurs universités prestigieuses (MIT, Stanford, Carnegie Mellon...), attirant l’attention et le financement de la recherche. Les ordinateurs deviennent progressivement plus puissants, permettant d’expérimenter des idées d’IA plus complexes que dans la décennie précédente.

Un succès notable est la création du premier programme chatbot. En 1966, Joseph Weizenbaum au MIT développe ELIZA, un programme simulant un dialogue avec l’utilisateur dans le style d’un psychothérapeute. ELIZA est programmé de manière simple (basé sur la reconnaissance de mots-clés et des réponses types), mais étonnamment, beaucoup de personnes croyaient qu’ELIZA comprenait réellement et avait des émotions. Le succès d’ELIZA ouvre la voie aux chatbots modernes et soulève des questions sur la tendance humaine à attribuer des émotions aux machines.

Parallèlement, le premier robot intelligent apparaît. Entre 1966 et 1972, l’Institut de Recherche de Stanford (SRI) développe Shakey, le premier robot mobile capable de conscience de soi et de planification d’actions au lieu d’exécuter des commandes isolées. Shakey est équipé de capteurs et de caméras pour se déplacer dans son environnement et analyser les tâches en étapes de base comme trouver un chemin, pousser des obstacles, monter une pente… C’est la première fois qu’un système intègre pleinement vision par ordinateur, traitement du langage naturel et planification dans un robot, posant les bases de la robotique IA.

L’American Association of Artificial Intelligence (AAAI) est également fondée à cette époque (précédée par la conférence IJCAI en 1969 et l’organisation AAAI en 1980), rassemblant les chercheurs en IA et témoignant de la croissance de la communauté IA.

Les années 1960 voient aussi le développement des systèmes experts et des algorithmes fondamentaux. En 1965, Edward Feigenbaum et ses collègues créent DENDRAL, considéré comme le premier système expert au monde. DENDRAL est conçu pour aider les chimistes à analyser la structure moléculaire à partir de données expérimentales, en simulant les connaissances et le raisonnement d’un expert en chimie. Le succès de DENDRAL montre que les ordinateurs peuvent résoudre des problèmes spécialisés complexes, posant les bases des systèmes experts qui exploseront dans les années 1980.

De plus, le langage de programmation Prolog (spécialisé en IA logique) est développé en 1972 à l’Université de Marseille, ouvrant la voie à une approche de l’IA basée sur la logique et les règles relationnelles. Un autre jalon important est la publication en 1969 par Marvin Minsky et Seymour Papert du livre « Perceptrons ». Ce livre met en lumière les limites mathématiques du modèle perceptron à une couche (incapable de résoudre le problème simple du XOR), ce qui entraîne un fort scepticisme envers les réseaux neuronaux.

De nombreux financeurs perdent confiance dans l’apprentissage des réseaux neuronaux, et la recherche sur les réseaux neuronaux décline à la fin des années 1960. C’est le premier signe d’un « refroidissement » de l’enthousiasme pour l’IA après plus d’une décennie d’optimisme.

IA dans les années 1960

Années 1970 : Défis et premier « hiver de l’IA »

Dans les années 1970, le domaine de l’IA fait face à des défis de réalité : de nombreuses attentes élevées des années précédentes ne sont pas atteintes en raison des limites de la puissance de calcul, des données et des connaissances scientifiques. En conséquence, la confiance et le financement de l’IA commencent à chuter fortement au milieu des années 1970 – une période plus tard appelée le premier « hiver de l’IA ».

En 1973, Sir James Lighthill jette de l’huile sur le feu en publiant un rapport intitulé « Artificial Intelligence: A General Survey » qui évalue très négativement les progrès de la recherche en IA. Le rapport Lighthill conclut que les chercheurs en IA « promettent trop mais réalisent trop peu », critiquant notamment l’incapacité des ordinateurs à comprendre le langage ou la vision comme espéré.

Ce rapport conduit le gouvernement britannique à réduire drastiquement le budget alloué à l’IA. Aux États-Unis, les agences de financement comme DARPA réorientent leurs investissements vers des projets plus pragmatiques. En conséquence, de la mi-1970 aux débuts des années 1980, le domaine de l’IA est presque gelé, avec peu de percées et un manque de financement sérieux. C’est précisément la période du « premier hiver de l’IA » – un terme apparu en 1984 pour désigner cette longue phase de stagnation.

Malgré ces difficultés, les années 1970 connaissent quelques lueurs d’espoir dans la recherche en IA. Les systèmes experts continuent de se développer dans le milieu académique, notamment MYCIN (1974) – un système expert de conseil médical développé par Ted Shortliffe à Stanford, aidant au diagnostic des infections sanguines. MYCIN utilise un ensemble de règles d’inférence pour formuler des recommandations de traitement avec une précision élevée, démontrant la valeur pratique des systèmes experts dans des domaines spécialisés.

Par ailleurs, le langage Prolog (lancé en 1972) commence à être utilisé pour des tâches de traitement du langage et de résolution de problèmes logiques, devenant un outil important pour l’IA basée sur la logique. Dans la robotique, en 1979, une équipe de Stanford développe avec succès le Stanford Cart – le premier véhicule robot capable de se déplacer de manière autonome dans une pièce remplie d’obstacles sans télécommande. Cette avancée, bien que modeste, pose les bases des recherches ultérieures sur les véhicules autonomes.

Globalement, à la fin des années 1970, la recherche en IA entre dans une phase de ralentissement. De nombreux chercheurs en IA doivent se réorienter vers des domaines connexes comme l’apprentissage statistique, la robotique et la vision par ordinateur pour poursuivre leurs travaux.

L’IA n’est plus la « star » des années précédentes, mais devient un domaine spécialisé avec peu de progrès majeurs. Cette période rappelle aux chercheurs que l’intelligence artificielle est bien plus complexe que prévu, nécessitant des approches plus fondamentales que la simple simulation du raisonnement.

IA dans les années 1970

Années 1980 : Systèmes experts – essor et déclin

Au début des années 1980, l’IA entre à nouveau dans une phase de renaissance – parfois appelée « renaissance de l’IA ». Cette impulsion est portée par le succès commercial des systèmes experts et le retour de l’intérêt des gouvernements et entreprises. Les ordinateurs deviennent plus puissants, et la communauté croit pouvoir progressivement concrétiser les idées d’IA dans des domaines spécialisés.

Un moteur important est le développement des systèmes experts commerciaux. En 1981, Digital Equipment Corporation lance XCON (Expert Configuration) – un système expert aidant à configurer des systèmes informatiques, économisant des dizaines de millions de dollars à l’entreprise. Le succès de XCON déclenche une vague de développement de systèmes experts en entreprise pour soutenir la prise de décision. De nombreuses entreprises technologiques investissent dans la création de « coquilles » de systèmes experts (expert system shells) permettant aux entreprises de personnaliser leurs propres systèmes.

Le langage Lisp sort également des laboratoires avec l’apparition des machines Lisp – du matériel spécialisé optimisé pour exécuter des programmes IA. Au début des années 1980, plusieurs startups spécialisées dans les machines Lisp (Symbolics, Lisp Machines Inc.) voient le jour, créant un engouement et marquant « l’ère des machines Lisp » pour l’IA.

Les grands gouvernements investissent massivement dans l’IA à cette époque. En 1982, le Japon lance le projet Ordinateur de 5e génération avec un budget de 850 millions de dollars, visant à développer des ordinateurs intelligents utilisant la logique et Prolog. De même, les États-Unis (DARPA) renforcent leur soutien à la recherche en IA dans un contexte de compétition technologique avec le Japon. Ces projets financés se concentrent sur les systèmes experts, le traitement du langage naturel et les bases de connaissances, avec l’espoir de créer des ordinateurs intelligents avancés.

Au milieu de cette vague d’optimisme, le domaine des réseaux neuronaux artificiels connaît également une renaissance discrète. En 1986, le chercheur Geoffrey Hinton et ses collaborateurs publient l’algorithme de rétropropagation (backpropagation) – une méthode efficace pour entraîner des réseaux neuronaux multicouches, résolvant la principale limitation soulevée par le livre Perceptrons (1969).

En réalité, le principe de rétropropagation avait été esquissé dès 1970, mais ce n’est qu’au milieu des années 1980 qu’il est pleinement exploité grâce à la puissance accrue des ordinateurs. L’algorithme de rétropropagation déclenche rapidement une seconde vague de recherche sur les réseaux neuronaux. À ce moment, la confiance grandit dans la capacité des réseaux neuronaux profonds à modéliser des structures complexes, annonçant les prémices du deep learning à venir.

De jeunes chercheurs comme Yann LeCun (France) et Yoshua Bengio (Canada) rejoignent ce mouvement, développant avec succès des modèles de reconnaissance d’écriture manuscrite à la fin de la décennie.

Cependant, le second âge d’or de l’IA ne dure pas longtemps. À la fin des années 1980, le domaine replonge dans une crise due à des résultats décevants par rapport aux attentes. Les systèmes experts, bien qu’utiles dans certains domaines restreints, montrent leurs limites : ils sont rigides, difficiles à étendre et nécessitent une mise à jour manuelle constante des connaissances.

De nombreux grands projets de systèmes experts échouent, et le marché des machines Lisp s’effondre face à la concurrence des ordinateurs personnels moins coûteux. En 1987, l’industrie Lisp est quasiment en faillite. Les investissements dans l’IA sont fortement réduits à la fin des années 1980, entraînant un second « hiver de l’IA ». Le terme « AI winter », introduit en 1984, se vérifie alors avec la fermeture de nombreuses entreprises IA entre 1987 et 1988. Une fois de plus, le domaine entre dans une phase de recul, obligeant les chercheurs à revoir leurs attentes et stratégies.

En résumé, les années 1980 marquent un cycle d’essor et de déclin de l’IA. Les systèmes experts permettent à l’IA de s’implanter dans l’industrie pour la première fois, mais révèlent les limites des approches basées sur des règles fixes. Néanmoins, cette période produit de nombreuses idées et outils précieux : des algorithmes neuronaux aux premières bases de connaissances. Les leçons importantes tirées sur la nécessité d’éviter les excès d’optimisme préparent le terrain pour une approche plus prudente dans la décennie suivante.

IA dans les années 1980

Années 1990 : Le retour à la pratique

Après le second hiver de l’IA à la fin des années 1980, la confiance dans l’IA se rétablit progressivement dans les années 1990 grâce à une série de progrès concrets. Plutôt que de viser une IA forte (intelligence artificielle générale) ambitieuse, les chercheurs se concentrent sur une IA faible – c’est-à-dire l’application des techniques d’IA à des problèmes spécifiques où elles commencent à produire des résultats impressionnants. De nombreux domaines issus de l’IA (reconnaissance vocale, vision par ordinateur, algorithmes de recherche, bases de connaissances…) se développent désormais de manière indépendante et sont largement appliqués.

Un jalon important marquant les succès pratiques est la victoire en mai 1997 de l’ordinateur Deep Blue d’IBM contre le champion du monde d’échecs Garry Kasparov lors d’un match officiel. C’est la première fois qu’un système IA bat un champion du monde dans un jeu intellectuel complexe, provoquant un choc médiatique.

La victoire de Deep Blue – basée sur un algorithme de recherche brute combiné à une base de données d’ouvertures – démontre la puissance de calcul colossale et les techniques spécialisées permettant aux machines de surpasser les humains dans des tâches déterministes. Cet événement marque le retour spectaculaire de l’IA sous les projecteurs, ravivant l’intérêt pour la recherche après des années de stagnation.

L’IA des années 1990 progresse également sur de nombreux autres fronts. Dans le domaine des jeux, en 1994, le programme Chinook résout complètement le jeu de dames (checkers) au niveau invincible, forçant le champion du monde à reconnaître qu’il ne peut plus battre la machine.

En reconnaissance vocale, des systèmes commerciaux comme Dragon Dictate (1990) apparaissent, et à la fin de la décennie, les logiciels de reconnaissance vocale sont largement utilisés sur les ordinateurs personnels. La reconnaissance de l’écriture manuscrite est également intégrée aux assistants personnels numériques (PDA) avec une précision croissante.

Les applications de la vision par ordinateur commencent à être déployées dans l’industrie, allant de l’inspection de composants aux systèmes de sécurité. Même la traduction automatique – un domaine qui avait découragé l’IA dans les années 1960 – progresse notablement avec le système SYSTRAN, qui prend en charge la traduction automatique multilingue pour l’Union européenne.

Un autre axe important est l’application de l’apprentissage statistique et des réseaux neuronaux à l’exploitation de données à grande échelle. La fin des années 1990 voit l’explosion d’Internet, générant un volume massif de données numériques. Les techniques de data mining et d’apprentissage automatique telles que les arbres de décision, les réseaux neuronaux, les modèles de Markov cachés… sont utilisées pour analyser les données web, optimiser les moteurs de recherche et personnaliser les contenus.

Le terme « science des données » n’est pas encore courant, mais en réalité, l’IA s’intègre déjà dans de nombreux logiciels pour améliorer les performances en apprenant des données utilisateurs (par exemple : filtres anti-spam, recommandations de produits en e-commerce). Ces succès modestes mais concrets permettent à l’IA de regagner la confiance des entreprises et de la société.

On peut dire que les années 1990 sont une période où l’IA progresse discrètement mais solidement dans la vie quotidienne. Plutôt que des déclarations grandiloquentes sur une intelligence humaine, les développeurs se concentrent sur des problèmes spécifiques. Résultat : l’IA est présente dans de nombreux produits technologiques de la fin du XXe siècle sans que les utilisateurs s’en rendent toujours compte – des jeux aux logiciels en passant par les appareils électroniques. Cette période prépare également des bases importantes en données et algorithmes, permettant à l’IA d’exploser dans la décennie suivante.

IA dans les années 1990

Années 2000 : Apprentissage automatique et ère du big data

Au XXIe siècle, l’IA se transforme radicalement grâce à Internet et à l’ère du big data. Les années 2000 voient l’explosion des ordinateurs personnels, réseaux Internet et capteurs, générant un volume colossal de données. L’apprentissage automatique (machine learning) – en particulier les méthodes supervisées – devient l’outil principal pour exploiter ce « pétrole numérique ».

Le slogan « data is the new oil » (les données sont le nouveau pétrole) devient populaire, car plus il y a de données, plus les algorithmes d’IA sont précis. Les grandes entreprises technologiques commencent à construire des systèmes de collecte et d’apprentissage à partir des données utilisateurs pour améliorer leurs produits : Google avec son moteur de recherche intelligent, Amazon avec ses recommandations d’achat basées sur le comportement, Netflix avec ses algorithmes de suggestion de films. L’IA devient progressivement le « cerveau » invisible derrière les plateformes numériques.

En 2006, un événement majeur survient : Fei-Fei Li, professeure à l’Université de Stanford, lance le projet ImageNet – une base de données massive de plus de 14 millions d’images annotées en détail. Présentée en 2009, ImageNet devient le standard pour entraîner et évaluer les algorithmes de vision par ordinateur, notamment pour la reconnaissance d’objets dans les images.

ImageNet est comparé à un « dopant » stimulant la recherche en deep learning en fournissant suffisamment de données pour entraîner des modèles profonds complexes. Le concours annuel ImageNet Challenge à partir de 2010 devient une arène majeure où les équipes rivalisent pour développer les meilleurs algorithmes de reconnaissance d’images. C’est sur ce terrain que se produira un tournant historique en 2012 (voir décennie 2010).

Durant les années 2000, l’IA franchit également plusieurs jalons d’applications majeures :

  • En 2005, la voiture autonome de Stanford (surnommée « Stanley ») remporte le DARPA Grand Challenge – une course de véhicules autonomes dans le désert sur 212 km. Stanley termine le parcours en 6 heures 53 minutes, ouvrant une nouvelle ère pour les véhicules autonomes et attirant d’importants investissements de Google, Uber dans les années suivantes.
  • Les assistants virtuels sur téléphone apparaissent : en 2008, l’application Google Voice Search permet la recherche vocale sur iPhone ; puis en 2011, Apple Siri est lancé – un assistant vocal intégré à l’iPhone. Siri utilise la reconnaissance vocale, la compréhension du langage naturel et la connexion aux services web pour répondre aux utilisateurs, marquant la première approche grand public de l’IA.
  • En 2011, le superordinateur IBM Watson bat deux champions du jeu télévisé Jeopardy! aux États-Unis. Watson comprend des questions complexes en anglais et interroge une vaste base de données pour trouver les réponses, démontrant la puissance de l’IA dans le traitement du langage naturel et la recherche d’information. Cette victoire prouve que les ordinateurs peuvent « comprendre » et réagir intelligemment dans un domaine de connaissances étendu.
  • Réseaux sociaux et web : Facebook introduit la fonction de reconnaissance faciale automatique pour taguer les photos (vers 2010), utilisant des algorithmes d’apprentissage sur les données d’images des utilisateurs. YouTube et Google utilisent l’IA pour filtrer les contenus et suggérer des vidéos. Ces techniques d’apprentissage automatique fonctionnent discrètement en arrière-plan, optimisant l’expérience utilisateur souvent à leur insu.

On peut dire que le moteur principal de l’IA dans les années 2000 est constitué par les données et les applications. Les algorithmes traditionnels d’apprentissage automatique comme la régression, SVM, arbres de décision… sont déployés à grande échelle, apportant des résultats concrets.

L’IA, qui était un sujet de recherche, s’oriente fortement vers l’industrie : « l’IA pour l’entreprise » devient un thème majeur, avec de nombreuses sociétés proposant des solutions IA pour la gestion, la finance, le marketing… En 2006, le terme « intelligence artificielle d’entreprise » (enterprise AI) apparaît, soulignant l’application de l’IA pour améliorer l’efficacité commerciale et la prise de décision.

La fin des années 2000 voit aussi les prémices de la révolution du deep learning. Les recherches sur les réseaux neuronaux profonds continuent de porter leurs fruits. En 2009, l’équipe d’Andrew Ng à Stanford publie une méthode utilisant les GPU (processeurs graphiques) pour entraîner les réseaux neuronaux 70 fois plus rapidement que les CPU classiques.

La puissance de calcul parallèle des GPU est parfaitement adaptée aux calculs matriciels des réseaux neuronaux, ouvrant la voie à l’entraînement de grands modèles deep learning dans les années 2010. Les derniers éléments clés – grandes données, matériel puissant, algorithmes améliorés – sont désormais réunis, attendant seulement le bon moment pour déclencher une nouvelle révolution de l’IA.

IA dans les années 2000

Années 2010 : Révolution du deep learning

Si l’on devait choisir une période où l’IA a véritablement « décollé », ce serait les années 2010. Avec les bases de données et le matériel accumulés la décennie précédente, l’intelligence artificielle entre dans l’ère du deep learning – des modèles de réseaux neuronaux profonds atteignent des performances exceptionnelles, battant tous les records dans de nombreuses tâches d’IA. Le rêve d’une machine « capable d’apprendre comme un cerveau humain » devient en partie réalité grâce aux algorithmes de deep learning.

Le tournant historique survient en 2012, lorsque l’équipe de Geoffrey Hinton et ses étudiants (Alex Krizhevsky, Ilya Sutskever) participe au concours ImageNet Challenge. Leur modèle – appelé AlexNet – est un réseau de neurones convolutifs à 8 couches entraîné sur GPU. Résultat : AlexNet atteint une précision nettement supérieure, réduisant de moitié le taux d’erreur de reconnaissance d’images par rapport au second.

Cette victoire écrasante stupéfie la communauté de la vision par ordinateur et marque le début de la « fièvre du deep learning » en IA. En quelques années, la plupart des méthodes traditionnelles de reconnaissance d’images sont remplacées par des modèles deep learning.

Le succès d’AlexNet confirme qu’avec suffisamment de données (ImageNet) et de puissance de calcul (GPU), les réseaux neuronaux profonds surpassent largement les autres techniques d’IA. Hinton et ses collaborateurs sont rapidement recrutés par Google, et le deep learning devient le sujet phare de la recherche en IA.

Le deep learning révolutionne non seulement la vision par ordinateur, mais s’étend aussi au traitement de la parole, du langage et à de nombreux autres domaines. En 2012, Google Brain (projet d’Andrew Ng et Jeff Dean) fait sensation en publiant un réseau neuronal profond capable d’apprendre à reconnaître le concept de « chat » dans des vidéos YouTube sans étiquettes préalables.

Entre 2011 et 2014, des assistants virtuels comme Siri, Google Now (2012) et Microsoft Cortana (2014) voient le jour, tirant parti des progrès en reconnaissance vocale et compréhension du langage naturel. Par exemple, le système de reconnaissance vocale de Microsoft atteint une précision humaine en 2017, grâce à l’utilisation de réseaux neuronaux profonds pour modéliser le son. En traduction automatique, Google Translate adopte en 2016 une architecture de traduction neuronale (NMT), améliorant nettement la qualité par rapport aux modèles statistiques précédents.

Un autre jalon important est la victoire de l’IA au jeu de go – un exploit longtemps considéré comme hors de portée. En mars 2016, le programme AlphaGo de DeepMind (Google) bat le champion du monde de go Lee Sedol par 4 à 1. Le go est beaucoup plus complexe que les échecs, avec un nombre de coups possibles si vaste qu’il est impossible de tout explorer par force brute. AlphaGo combine deep learning et algorithme Monte Carlo Tree Search, apprenant à jouer à partir de millions de parties humaines et en jouant contre lui-même.

Cette victoire est comparable à celle de Deep Blue contre Kasparov en 1997, confirmant que l’IA peut surpasser l’humain dans des domaines nécessitant intuition et expérience. Après AlphaGo, DeepMind développe AlphaGo Zero (2017), qui apprend à jouer au go uniquement à partir des règles, sans données humaines, et bat la version précédente 100-0. Cela illustre le potentiel de l’apprentissage par renforcement combiné au deep learning pour atteindre des performances surhumaines.

En 2017, une avancée majeure survient dans le traitement du langage naturel : l’architecture Transformer. Les chercheurs de Google publient le modèle Transformer dans l’article « Attention Is All You Need », proposant un mécanisme de self-attention permettant aux modèles d’apprendre les relations entre les mots d’une phrase sans traitement séquentiel.

Transformer facilite l’entraînement de grands modèles de langage (LLM) bien plus efficacement que les architectures séquentielles précédentes (RNN/LSTM). Depuis, de nombreux modèles basés sur Transformer voient le jour : BERT (Google, 2018) pour la compréhension contextuelle, et surtout GPT (Generative Pre-trained Transformer) d’OpenAI, introduit en 2018.

Ces modèles obtiennent des résultats remarquables dans diverses tâches linguistiques, de la classification à la génération de texte. Transformer pose les bases de la course aux très grands modèles de langage dans les années 2020.

La fin des années 2010 voit aussi l’émergence de l’IA générative – des modèles capables de créer du contenu original. En 2014, Ian Goodfellow et ses collègues inventent le modèle GAN (Generative Adversarial Network), composé de deux réseaux neuronaux en compétition pour générer des données synthétiques réalistes.

Les GAN deviennent célèbres pour leur capacité à créer des portraits humains artificiels très réalistes (deepfake). Parallèlement, les modèles autoencodeurs variationnels (VAE) et les réseaux de transfert de style sont développés, permettant de transformer images et vidéos selon de nouveaux styles.

En 2019, OpenAI présente GPT-2 – un modèle de génération de texte de 1,5 milliard de paramètres, capable de produire des paragraphes fluides quasi humains. Il est clair que l’IA ne se limite plus à la classification ou prédiction, mais peut désormais créer du contenu de manière convaincante.

L’IA des années 2010 réalise des progrès spectaculaires dépassant les attentes. De nombreuses tâches autrefois jugées « impossibles » pour les machines sont désormais accomplies au niveau humain ou supérieur : reconnaissance d’images, reconnaissance vocale, traduction, jeux complexes…

Plus important encore, l’IA s’intègre dans la vie quotidienne : des caméras de smartphones reconnaissant automatiquement les visages, aux assistants vocaux dans les enceintes connectées (Alexa, Google Home), en passant par les recommandations de contenu sur les réseaux sociaux, toutes ces fonctions sont désormais assurées par l’IA. C’est véritablement l’ère de l’explosion de l’IA, que beaucoup comparent à « la nouvelle électricité » – une technologie fondamentale transformant tous les secteurs.

IA dans les années 2010

Années 2020 : Explosion de l’IA générative et nouvelles tendances

En seulement quelques années au début des années 2020, l’IA connaît une explosion sans précédent, principalement grâce à l’essor de l’IA générative et des grands modèles de langage (LLM). Ces systèmes permettent à l’IA de toucher directement des centaines de millions d’utilisateurs, créant une vague d’applications créatives et suscitant de vastes débats sociétaux sur l’impact de l’IA.

En juin 2020, OpenAI présente GPT-3 – un modèle de langage gigantesque avec 175 milliards de paramètres, dix fois plus que le plus grand modèle précédent. GPT-3 impressionne par sa capacité à rédiger des textes, répondre à des questions, composer des poèmes, coder… presque comme un humain, malgré quelques erreurs factuelles. Sa puissance montre que la taille du modèle combinée à un volume massif de données d’entraînement peut produire une fluidité linguistique inédite. Les applications basées sur GPT-3 se multiplient rapidement, de la rédaction marketing à l’assistance par email et au support de programmation.

En novembre 2022, l’IA entre véritablement sous les projecteurs publics avec le lancement de ChatGPT – un chatbot interactif développé par OpenAI, basé sur le modèle GPT-3.5. En seulement 5 jours, ChatGPT atteint 1 million d’utilisateurs, et en 2 mois dépasse les 100 millions, devenant l’application grand public à la croissance la plus rapide de l’histoire.

ChatGPT peut répondre de manière fluide à une multitude de questions, rédiger des textes, résoudre des problèmes mathématiques, conseiller… impressionnant les utilisateurs par son « intelligence » et sa flexibilité. Sa popularité marque la première utilisation massive de l’IA comme outil de création de contenu, et lance une course à l’IA entre les géants technologiques.

Début 2023, Microsoft intègre GPT-4 (le modèle successeur d’OpenAI) dans son moteur de recherche Bing, tandis que Google lance le chatbot Bard utilisant son propre modèle LaMDA. Cette compétition stimule l’essor rapide de l’IA générative, qui gagne en accessibilité et en sophistication.

Outre le texte, l’IA générative dans l’image et le son progresse également de manière spectaculaire. En 2022, des modèles text-to-image comme DALL-E 2 (OpenAI), Midjourney et Stable Diffusion permettent aux utilisateurs de décrire une scène en texte et de recevoir une image générée par IA. La qualité des images est si réaliste et créative qu’elle ouvre une nouvelle ère pour la création de contenu numérique.

Cependant, cela soulève aussi des défis en matière de droits d’auteur et d’éthique, car l’IA apprend à partir d’œuvres d’artistes et produit des créations similaires. Dans le domaine sonore, les modèles text-to-speech de nouvelle génération peuvent transformer du texte en voix quasi humaines, voire imiter la voix de célébrités, suscitant des inquiétudes sur les deepfakes vocaux.

En 2023, les premières poursuites judiciaires liées aux droits d’auteur sur les données d’entraînement IA apparaissent – par exemple, Getty Images poursuit Stability AI (développeur de Stable Diffusion) pour avoir utilisé des millions d’images protégées sans autorisation. Cela révèle le revers de la médaille de l’explosion de l’IA : des questions juridiques, éthiques et sociales émergent, nécessitant une attention sérieuse.

Au cœur de cette effervescence, en 2023, la communauté scientifique exprime ses inquiétudes sur les risques liés à une IA forte. Plus de 1 000 personnalités du secteur technologique (dont Elon Musk, Steve Wozniak, chercheurs en IA…) signent une lettre ouverte appelant à une pause de 6 mois dans l’entraînement de modèles IA plus puissants que GPT-4, craignant un développement trop rapide hors de contrôle.

La même année, des pionniers comme Geoffrey Hinton (considéré comme un « père » du deep learning) alertent sur les dangers d’une IA échappant à la régulation humaine. La Commission européenne finalise rapidement le Règlement IA (EU AI Act) – la première réglementation globale au monde sur l’intelligence artificielle, prévue pour 2024. Cette loi interdit les systèmes IA jugés à « risque inacceptable » (surveillance massive, notation sociale) et impose la transparence pour les modèles IA généraux.

Aux États-Unis, plusieurs États adoptent des lois limitant l’usage de l’IA dans des domaines sensibles (recrutement, finance, lobbying électoral, etc.). Il est clair que le monde accélère la mise en place de cadres juridiques et éthiques pour l’IA, une étape inévitable face à l’impact croissant de cette technologie.

Globalement, les années 2020 voient une explosion de l’IA tant sur le plan technique que de sa diffusion. Les outils IA de nouvelle génération comme ChatGPT, DALL-E, Midjourney… sont devenus familiers, aidant des millions de personnes à créer et travailler plus efficacement de façons inédites.

Parallèlement, la course aux investissements dans l’IA bat son plein : les dépenses des entreprises en IA générative devraient dépasser le milliard de dollars dans les années à venir. L’IA s’immisce de plus en plus profondément dans des secteurs tels que la santé (aide au diagnostic d’images, recherche de médicaments), la finance (analyse des risques, détection de fraudes), l’éducation (tuteurs virtuels, contenus personnalisés), les transports (véhicules autonomes avancés), la défense (décisions tactiques), etc.

On peut dire que l’IA est désormais comparable à l’électricité ou à Internet – une infrastructure technologique que toutes les entreprises et gouvernements veulent exploiter. De nombreux experts sont optimistes quant au fait que l’IA continuera à générer des progrès majeurs en productivité et qualité de vie si elle est développée et régulée de manière responsable.

IA dans les années 2020


Depuis les années 1950, l’histoire du développement de l’IA a parcouru un chemin impressionnant – marqué par ambition, déceptions, puis renouveau. Depuis le petit atelier de Dartmouth en 1956 qui a posé les bases du domaine, l’IA a connu deux « hivers » dus à des attentes excessives, mais à chaque fois elle a rebondi plus fort grâce à des avancées scientifiques et technologiques. Particulièrement au cours des 15 dernières années, l’IA a progressé de manière spectaculaire, sortant véritablement des laboratoires pour impacter profondément le monde réel.

Aujourd’hui, l’IA est présente dans presque tous les domaines et devient plus intelligente et polyvalente. Cependant, l’objectif d’une IA forte (intelligence artificielle générale) – une machine dotée d’une intelligence flexible comparable à celle de l’humain – reste encore à atteindre.

Les modèles IA actuels, bien qu’impressionnants, excellent uniquement dans les tâches pour lesquelles ils ont été entraînés, et peuvent parfois commettre des erreurs surprenantes (comme ChatGPT pouvant « halluciner » des informations erronées avec une grande assurance). Les défis de sécurité et d’éthique exigent également une attention urgente : comment développer une IA contrôlée, transparente et bénéfique pour l’humanité ?

La prochaine étape de l’IA promet d’être extrêmement passionnante. Avec les progrès actuels, nous pouvons envisager une IA encore plus intégrée dans la vie quotidienne : des médecins IA assistant les soins de santé, des avocats IA consultant les textes juridiques, jusqu’à des compagnons IA pour l’apprentissage et le soutien émotionnel.

La technologie de calcul neuromorphique est en cours de recherche pour imiter l’architecture du cerveau humain, pouvant créer une nouvelle génération d’IA plus efficace et proche de l’intelligence naturelle. Bien que la perspective d’une IA surpassant l’intelligence humaine suscite encore des débats, il est clair que l’IA continuera d’évoluer et de façonner l’avenir de l’humanité de manière profonde.

En regardant l’histoire de la formation et du développement de l’IA, on voit une histoire de persévérance et de créativité incessantes de l’homme. Depuis les premiers ordinateurs ne sachant que calculer, l’homme a appris à enseigner aux machines à jouer aux échecs, conduire, reconnaître le monde et même créer de l’art. L’intelligence artificielle est, et restera, la preuve de notre capacité à dépasser nos propres limites.

L’essentiel est que nous tirions des leçons de cette histoire – savoir placer nos attentes à bon escient et développer l’IA de manière responsable – afin de garantir que l’IA apporte le maximum de bénéfices à l’humanité dans les étapes à venir.