Pendant de nombreuses années (2023–2025), l’intelligence artificielle a progressé sur de nombreux fronts. Les grands modèles de langage (LLM) et les chatbots, les systèmes multimodaux, les outils scientifiques d’IA et la robotique ont tous connu des avancées majeures.

Les géants de la technologie ont lancé de nouveaux assistants IA, les communautés open source ont déployé des modèles puissants, et même les régulateurs ont commencé à prendre des mesures pour encadrer l’impact de l’IA.

Nous passons en revue ci-dessous les réalisations les plus marquantes, des extensions de GPT-4 et Gemini de Google au prix Nobel d’AlphaFold et aux découvertes scientifiques et artistiques propulsées par l’IA.

Modèles de Langage Génératifs et Chatbots

Les LLM modernes sont devenus beaucoup plus performants et multimodaux. GPT-4 Turbo d’OpenAI (annoncé en novembre 2023) peut désormais traiter 128 000 tokens en une seule requête (soit environ 300 pages de texte) et son coût d’utilisation est bien inférieur à celui de GPT-4.

En mai 2024, OpenAI a présenté GPT-4o (Omni), un modèle amélioré capable de gérer en temps réel le texte, les images et l’audio – offrant ainsi à GPT-4 une « vision et une audition » conversationnelles. ChatGPT intègre désormais des fonctionnalités d’image et de voix : les utilisateurs peuvent télécharger des photos ou parler au bot, qui répondra en fonction de ces entrées visuelles ou sonores.

  • GPT-4 Turbo et GPT-4o (Omni) : GPT-4 Turbo (novembre 2023) a réduit les coûts et étendu la longueur du contexte à 128 000 tokens. GPT-4o (mai 2024) a rendu l’IA véritablement multimodale, générant texte, parole et images avec une rapidité quasi humaine.
  • Progrès de ChatGPT : Fin 2023, ChatGPT « peut désormais voir, entendre et parler » – images et audio peuvent être téléchargés ou dictés comme requêtes, et le bot répond en conséquence.
    Il a aussi intégré DALL·E 3 (octobre 2023) pour générer des images à partir de texte grâce à des invites conversationnelles.
  • Série Gemini de Google : En décembre 2024, Google DeepMind a lancé les premiers modèles Gemini 2.0 (« Flash » et prototypes) conçus pour « l’ère agentique » – une IA capable d’exécuter de manière autonome des tâches complexes en plusieurs étapes.
    Google a déjà commencé à tester Gemini 2.0 dans Search (AI Overviews) et d’autres produits utilisés par plus d’un milliard d’utilisateurs, témoignant de ses capacités accrues de raisonnement et multimodales.
  • Autres modèles : Meta a publié LLaMA 3 en avril 2024 (LLM open-weight jusqu’à 400 milliards de paramètres), affirmant surpasser de nombreux modèles précédents.
    Claude 3 d’Anthropic et les outils copilot de Microsoft s’appuient également sur ces avancées (par exemple, Copilot repose sur la technologie OpenAI).

Ces innovations permettent aux assistants IA de tenir des conversations beaucoup plus longues et riches, tout en traitant des entrées variées.

Elles alimentent aussi de nouvelles applications « assistants » via des API (Google AI Overviews, OpenAI Assistants API, etc.), rendant l’IA plus accessible aux développeurs et aux utilisateurs finaux.

Modèles de Langage Génératifs et Chatbots

Progrès Multimodaux et Créatifs de l’IA

La créativité et la compréhension visuelle de l’IA ont explosé. Les modèles texte-image et texte-vidéo ont atteint de nouveaux sommets :

DALL·E 3 d’OpenAI (octobre 2023) génère des images photoréalistes à partir d’invites et est même intégré à ChatGPT pour guider la rédaction des requêtes.

Google a lancé Imagen 3 (octobre 2024) et Veo 2 (décembre 2024) – moteurs de pointe pour la génération texte-image et texte-vidéo – qui améliorent considérablement la qualité, le détail et la cohérence dans l’art et la vidéo générés par IA.

Même la musique IA a progressé grâce aux outils MusicFX de Google et aux recherches associées (par exemple, les expériences MusicLM).

  • Modèles d’art génératif : DALL·E 3 et Imagen 3 peuvent suivre des invites subtiles (y compris du texte intégré dans les images) avec une grande fidélité.
    Veo 2 de Google peut générer de courts clips vidéo à partir d’une seule description textuelle, une avancée notable pour la synthèse vidéo.
    Stable Diffusion et Midjourney ont également publié de nouvelles versions (v3, v6) offrant un réalisme amélioré cette année.
  • IA dans les appareils : Apple a lancé Apple Intelligence (dans iOS 18 et macOS 15, fin 2024) – une IA générative intégrée sur iPhone/iPad/Mac.
    Elle ajoute des assistants d’écriture (réécriture, correction, résumé dans Mail/Pages), un Siri encore plus intelligent, et des outils d’image comme Image Playground (création d’illustrations ludiques via texte) et Genmoji (émoticônes personnalisées générées par IA).
    Les photos bénéficient d’une recherche en langage naturel (« trouver Maya en skateboard »), et l’IA « Clean Up » supprime les objets indésirables des images.
    L’approche d’Apple privilégie le traitement local et la confidentialité.
  • IA dans l’art : Un exemple marquant : en novembre 2024, Sotheby’s a vendu la première peinture réalisée par un robot humanoïde.
    Un portrait d’Alan Turing dessiné par le robot IA Ai-Da s’est vendu pour 1,08 million de dollars US.
    Cette vente record (« A.I. God : Portrait of Alan Turing ») souligne le rôle croissant de l’IA dans la créativité et son impact culturel.

Globalement, les modèles génératifs démocratisent la créativité : chacun peut désormais créer de l’art, de la musique ou de la vidéo avec quelques mots.
Le secteur s’est éloigné de la simple nouveauté (images surréalistes) pour se concentrer sur une génération d’images utile (logos, schémas, cartes) et un réalisme proche de l’humain.

(En mars 2025, OpenAI a même lancé « 4o Image Generation », intégrant son meilleur modèle d’image dans GPT-4o pour des résultats précis et photoréalistes guidés par la conversation.)

Ces outils s’intègrent rapidement dans les applications, navigateurs et flux de travail créatifs.

Progrès Multimodaux et Créatifs de l’IA

IA en Science, Médecine et Mathématiques

Les avancées en IA ont stimulé la découverte scientifique et les progrès de la recherche :

  • AlphaFold 3 – biomolécules : En novembre 2024, Google DeepMind (avec Isomorphic Labs) a dévoilé AlphaFold 3, un nouveau modèle qui prédit la structure 3D de toutes les biomolécules (protéines, ADN, ARN, ligands, etc.) simultanément, avec une précision sans précédent.
    Pour les interactions protéine-médicament, AlphaFold 3 est environ 50 % plus précis que les méthodes traditionnelles.
    Ses créateurs ont immédiatement mis en ligne un serveur AlphaFold gratuit pour permettre aux chercheurs du monde entier de prédire des structures moléculaires.
    Cette avancée étend les prédictions d’AlphaFold 2, limitées aux protéines, et devrait révolutionner la découverte de médicaments et la recherche en génomique.
  • Prix Nobel – Repliement des protéines : L’importance de cette avancée a été soulignée par le prix Nobel de chimie 2024.
    Demis Hassabis et John Jumper (DeepMind) ont partagé le prix (avec David Baker) pour le développement d’AlphaFold (IA de repliement des protéines).
    Le comité Nobel a noté qu’AlphaFold « a ouvert des possibilités totalement nouvelles » dans la conception des protéines.
    (C’est l’une des réalisations en IA les plus médiatisées à ce jour.)
  • AlphaProteo – conception de médicaments : Toujours en 2024, DeepMind a annoncé AlphaProteo, une IA qui conçoit de nouveaux ligands protéiques – des molécules se liant fortement aux protéines cibles.
    AlphaProteo peut accélérer la création de nouveaux anticorps, biosenseurs et candidats-médicaments en générant des structures protéiques prometteuses pour des cibles spécifiques.
  • Mathématiques – AlphaGeometry : AlphaGeometry et AlphaProof de DeepMind ont également marqué une avancée.
    En juillet 2024, AlphaGeometry 2 a résolu un problème de l’Olympiade internationale de mathématiques en 19 secondes, atteignant le niveau d’un médaillé d’argent.
    C’est un cas rare d’IA abordant des mathématiques avancées de lycée.
  • Informatique quantique – AlphaQubit et Willow : L’IA a aussi amélioré le matériel de pointe.
    En 2024, Google a annoncé AlphaQubit, un décodeur IA qui identifie les erreurs dans les ordinateurs quantiques (par exemple les puces Sycamore de Google) bien mieux que les méthodes précédentes.
    En décembre 2024, Google a présenté Willow, une nouvelle puce quantique qui, grâce à une correction d’erreur avancée, a résolu une tâche de référence en moins de 5 minutes, alors que le meilleur supercalculateur actuel mettrait environ 10^24 ans.
    Ces avancées ont valu à Willow le prix « Percée en physique de l’année 2024 », soulignant le rôle de l’IA dans le progrès quantique.

En médecine et santé, les modèles IA ont également fait des progrès. Par exemple, le nouveau Med-Gemini de Google (affiné sur des données médicales) a obtenu un score de 91,1 % à un examen médical américain de référence (type USMLE), surpassant largement les modèles précédents.

Des outils IA pour la radiologie et la pathologie (par exemple Derm et Path Foundations) ont été lancés pour améliorer l’analyse d’images.
Globalement, l’IA est désormais un partenaire de recherche indispensable – de la cartographie du cerveau humain à l’échelle nanométrique (avec imagerie EM assistée par IA) à l’accélération du dépistage de la tuberculose en Afrique, comme le rapportent les chercheurs de Google.

IA en Science, Médecine et Mathématiques

IA en Robotique et Automatisation

Les robots propulsés par l’IA apprennent à accomplir des tâches complexes dans le monde réel.

Les robots humanoïdes Optimus de Tesla ont été présentés publiquement en octobre 2024 lors de l’événement « We, Robot ». Plusieurs dizaines d’unités Optimus ont marché, tenu debout et même dansé sur scène – bien que des rapports ultérieurs aient indiqué que les démonstrations initiales étaient en partie télécommandées par des humains.

Néanmoins, cet événement a mis en lumière les progrès rapides vers des robots polyvalents.

  • Robots ALOHA de DeepMind : Le laboratoire IA de Google a réalisé des avancées impressionnantes en robotique domestique.
    En 2024, le robot ALOHA (Assistant Ménager Autonome à Pattes) a appris à faire ses lacets, suspendre une chemise, réparer un autre robot, insérer des engrenages et même nettoyer une cuisine en utilisant uniquement la planification IA et la vision.
    Les projets open source « ALOHA Unleashed » ont montré des robots coordonnant deux bras pour des tâches, une première en manipulation polyvalente.
  • Transformers robotiques : DeepMind a présenté RT-2 (Robotic Transformer 2), un modèle vision-langage-action capable d’apprendre à la fois à partir d’images internet et de données réelles de robots.
    RT-2 permet aux robots d’interpréter des instructions comme un humain en exploitant les connaissances du web.
    Il a été démontré en aidant un robot à trier des objets en suivant des commandes textuelles.
  • Robots industriels : D’autres entreprises ont également progressé : Boston Dynamics a continué d’améliorer les robots Atlas et Spot (sans percée majeure annoncée), et les véhicules autonomes pilotés par IA ont progressé (le déploiement élargi de la version bêta Full Self-Driving de Tesla, bien que l’autonomie complète reste un défi).
    Dans l’industrie, des sociétés centrées sur l’IA comme Figure AI ont levé des fonds pour construire des robots ménagers dédiés aux tâches domestiques.

Ces efforts montrent que les robots accomplissent des tâches de plus en plus complexes sans programmation explicite. Cependant, les humanoïdes entièrement autonomes restent à venir.

Les démonstrations (Optimus, ALOHA, RT-2) sont des jalons, mais les chercheurs soulignent qu’il reste du travail avant que les robots puissent travailler en toute sécurité et fiabilité aux côtés des humains à grande échelle.

IA en Robotique et Automatisation

IA dans les Produits, l’Industrie et la Société

L’impact de l’IA s’étend aux produits du quotidien et même aux politiques publiques :

  • Appareils grand public : Les principaux produits technologiques ont intégré des agents IA.
    Le Copilot de Microsoft (intégré à Windows, Office, Bing) et Bard/Bard AI de Google dans Search (alimenté par Gemini) ont apporté la puissance des LLM aux utilisateurs.
    Les appareils Apple ont bénéficié d’Apple Intelligence (comme mentionné plus haut) et les fabricants de matériel comme Nvidia ont vendu un nombre record de GPU IA, alimentant à la fois le cloud et l’IA grand public.
    (Nvidia est devenue la société la plus valorisée au monde en 2024 grâce à l’essor de l’IA.)
  • Réglementation – Loi européenne sur l’IA : Conscients de l’ampleur de l’IA, les régulateurs sont également intervenus.
    Le 1er août 2024, la loi européenne sur l’IA est entrée en vigueur, la première législation complète sur l’IA.
    Elle établit un cadre basé sur les risques : l’IA à faible risque (filtres anti-spam, jeux vidéo) est soumise à peu de règles ; les règles de transparence obligent les systèmes IA comme les chatbots à indiquer qu’ils sont des IA ; l’IA à haut risque (outils médicaux ou de recrutement) fait l’objet d’une surveillance stricte ; et l’IA clairement inacceptable (par exemple le « scoring social » des individus par les gouvernements) est interdite.
    Ce cadre (avec des directives à venir sur les modèles à usage général) constitue une avancée majeure en gouvernance de l’IA et devrait influencer les normes mondiales.
  • Croissance du secteur : Le secteur de l’IA a connu des financements et valorisations historiques : OpenAI a atteint une valorisation estimée à 157 milliards de dollars fin 2023, et des entreprises comme Anthropic, Inflection et des startups chinoises ont levé des fonds de plusieurs milliards.
    La demande en matériel IA de NVIDIA a porté sa capitalisation boursière au-delà de 3,5 trillions de dollars à la mi-2024.
    Ces chiffres soulignent à quel point l’IA est devenue centrale dans l’économie technologique.

>>> Avez-vous déjà essayé : Comparer l’IA à l’intelligence humaine ?

IA dans les Produits, l’Industrie et la Société


En résumé, l’IA ne se limite plus aux laboratoires ou aux démonstrations de nouveauté – elle est intégrée dans les téléphones, les voitures, les lieux de travail et les politiques publiques.

Les avancées présentées ci-dessus – de la vaste connaissance de GPT-4 aux révolutions scientifiques d’AlphaFold – témoignent de la maturation rapide de l’IA.

À l’aube de 2025, ces réalisations annoncent des applications d’IA encore plus puissantes et pratiques dans notre vie quotidienne.