Durante muchos años (2023–2025), la inteligencia artificial ha dado saltos significativos en múltiples frentes. Los grandes modelos de lenguaje (LLMs) y chatbots, sistemas multimodales, herramientas científicas de IA y la robótica han experimentado avances importantes.
Los gigantes tecnológicos lanzaron nuevos asistentes de IA, las comunidades de código abierto presentaron modelos potentes e incluso los reguladores comenzaron a abordar el impacto de la IA.
A continuación, repasamos los logros más destacados, desde las extensiones de GPT-4 y Gemini de Google hasta el Premio Nobel de AlphaFold y los descubrimientos impulsados por IA en ciencia y arte.
Modelos Generativos de Lenguaje y Chatbots
Los LLM modernos se volvieron mucho más capaces y multimodales. GPT-4 Turbo de OpenAI (anunciado en noviembre de 2023) puede procesar ahora 128,000 tokens en un solo prompt (aproximadamente 300 páginas de texto) y es mucho más económico que GPT-4.
En mayo de 2024, OpenAI presentó GPT-4o (Omni), un modelo mejorado que maneja texto, imágenes y audio en tiempo real, otorgando a GPT-4 una “visión y audición” conversacional. ChatGPT ahora incluye funciones integradas de imagen y voz: los usuarios pueden subir fotos o hablar con el bot, y este responderá basándose en esa entrada visual o auditiva.
- GPT-4 Turbo y GPT-4o (Omni): GPT-4 Turbo (noviembre 2023) redujo costos y amplió la longitud del contexto a 128K tokens. GPT-4o (mayo 2024) hizo que la IA fuera verdaderamente multimodal, generando texto, voz e imágenes con velocidad casi humana.
- Avances en ChatGPT: A finales de 2023, ChatGPT “puede ahora ver, oír y hablar”: se pueden subir imágenes y audios o dictarlos como prompts, y el bot responde en consecuencia.
También integró DALL·E 3 (octubre 2023) para generar imágenes a partir de texto con ayuda de indicaciones conversacionales. - Serie Gemini de Google: En diciembre de 2024, Google DeepMind lanzó los primeros modelos Gemini 2.0 (“Flash” y prototipos) diseñados para la “era agéntica”: IA que puede realizar tareas complejas de varios pasos de forma autónoma.
Google ya comenzó a probar Gemini 2.0 en Search (AI Overviews) y otros productos para más de mil millones de usuarios, reflejando sus capacidades mejoradas de razonamiento y multimodalidad. - Otros modelos: Meta lanzó LLaMA 3 en abril de 2024 (LLMs de pesos abiertos de hasta 400 mil millones de parámetros) afirmando que supera a muchos modelos anteriores.
Claude 3 de Anthropic y las herramientas copiloto de Microsoft también se basaron en estos avances (por ejemplo, Copilot construido sobre tecnología de OpenAI).
Estas innovaciones permiten que los asistentes de IA mantengan conversaciones mucho más largas y ricas, y manejen entradas diversas.
También impulsan nuevas aplicaciones de “asistente” mediante APIs (como “AI Overviews” de Google, Assistants API de OpenAI, etc.), haciendo la IA más accesible para desarrolladores y usuarios finales.
Avances Multimodales y Creativos en IA
La creatividad y comprensión visual de la IA han explotado. Los modelos de texto a imagen y texto a video alcanzaron nuevos niveles:
DALL·E 3 de OpenAI (octubre 2023) genera imágenes fotorrealistas a partir de indicaciones y está incluso integrado con ChatGPT para guiar la creación de prompts.
Google presentó Imagen 3 (octubre 2024) y Veo 2 (diciembre 2024), motores de última generación para texto a imagen y texto a video, que mejoran drásticamente la calidad, detalle y coherencia en la generación artística y de video con IA.
Incluso la IA musical mejoró con las herramientas MusicFX de Google y la investigación relacionada (por ejemplo, experimentos MusicLM).
- Modelos generativos de arte: DALL·E 3 e Imagen 3 pueden seguir indicaciones sutiles (incluyendo texto incrustado en imágenes) con alta fidelidad.
Veo 2 de Google puede generar clips de video cortos a partir de una sola descripción textual, un avance notable en síntesis de video.
Stable Diffusion y Midjourney también lanzaron versiones nuevas (v3, v6) con mayor realismo este año. - IA en dispositivos: Apple lanzó Apple Intelligence (en iOS 18 y macOS 15, finales de 2024), IA generativa integrada en iPhone/iPad/Mac.
Incluye asistentes de escritura (reescribir, corregir, resumir en Mail/Pages), un Siri más inteligente y herramientas de imagen como Image Playground (crear ilustraciones divertidas mediante texto) y Genmoji (emojis personalizados generados por IA).
Las fotos ahora tienen búsqueda por lenguaje natural (“buscar a Maya haciendo skate”), y la IA “Clean Up” elimina objetos no deseados de las imágenes.
El enfoque de Apple enfatiza el procesamiento en el dispositivo y la privacidad. - IA en el arte: Un ejemplo destacado: en noviembre de 2024 Sotheby’s vendió la primera pintura creada por un robot humanoide.
Un retrato de Alan Turing dibujado por el robot impulsado por IA Ai-Da alcanzó los 1.08 millones de dólares.
Esta venta récord (“A.I. God: Portrait of Alan Turing”) subraya el creciente papel de la IA en la creatividad y su impacto cultural.
En general, los modelos generativos están democratizando la creatividad: cualquiera puede ahora generar arte, música o video con unas pocas palabras.
El enfoque de la industria ha pasado de la mera novedad (imágenes surrealistas) a la generación de imágenes útiles (logotipos, diagramas, mapas) y realismo humano.
(En marzo de 2025, OpenAI incluso lanzó “4o Image Generation”, integrando su mejor modelo de imagen en GPT-4o para resultados precisos y fotorrealistas guiados por la conversación.)
Estas herramientas se están integrando rápidamente en aplicaciones, navegadores y flujos de trabajo creativos.
IA en Ciencia, Medicina y Matemáticas
Los logros en IA han impulsado el descubrimiento científico y los avances en investigación:
- AlphaFold 3 – biomoléculas: En noviembre de 2024, Google DeepMind (con Isomorphic Labs) presentó AlphaFold 3, un nuevo modelo que predice las estructuras 3D de todas las biomoléculas (proteínas, ADN, ARN, ligandos, etc.) simultáneamente con una precisión sin precedentes.
Para interacciones proteína-fármaco, AlphaFold 3 es aproximadamente un 50% más preciso que los métodos tradicionales.
Sus creadores lanzaron inmediatamente un Servidor AlphaFold gratuito para que investigadores de todo el mundo puedan predecir estructuras moleculares.
Esto amplía las predicciones solo de proteínas de AlphaFold 2 y se espera que transforme el descubrimiento de fármacos y la investigación genómica. - Premio Nobel – Plegamiento de Proteínas: La importancia de este avance fue reconocida con el Premio Nobel de Química 2024.
Demis Hassabis y John Jumper (DeepMind) compartieron el premio (junto con David Baker) por desarrollar AlphaFold (IA para plegamiento de proteínas).
El comité Nobel destacó que AlphaFold “abrió posibilidades completamente nuevas” en el diseño de proteínas.
(Este es uno de los logros de IA más destacados hasta la fecha.) - AlphaProteo – diseño de fármacos: También en 2024, DeepMind anunció AlphaProteo, una IA que diseña nuevos ligandos proteicos, moléculas que se unen con alta afinidad a proteínas objetivo.
AlphaProteo puede acelerar la creación de nuevos anticuerpos, biosensores y candidatos a fármacos generando estructuras proteicas prometedoras para objetivos específicos. - Matemáticas – AlphaGeometry: AlphaGeometry y AlphaProof de DeepMind lograron otro avance.
En julio de 2024, AlphaGeometry 2 resolvió un problema de la Olimpiada Matemática Internacional en 19 segundos, alcanzando el nivel de medalla de plata.
Este es un caso raro de IA abordando matemáticas avanzadas de secundaria. - Computación cuántica – AlphaQubit y Willow: La IA también mejoró hardware de vanguardia.
En 2024, Google anunció AlphaQubit, un decodificador basado en IA que identifica errores en computadoras cuánticas (como los chips Sycamore de Google) mucho mejor que métodos anteriores.
Luego, en diciembre de 2024, Google presentó Willow, un nuevo chip cuántico que, usando corrección avanzada de errores, resolvió una tarea de referencia en menos de 5 minutos que tomaría al mejor superordenador actual ~10^24 años.
Estos avances le valieron a Willow el premio “Avance en Física del Año 2024”, destacando el papel de la IA en el progreso cuántico.
En medicina y salud, los modelos de IA también avanzaron. Por ejemplo, el nuevo Med-Gemini de Google (ajustado con datos médicos) obtuvo un 91.1% en un examen médico estadounidense tipo USMLE, superando ampliamente a modelos anteriores.
Se lanzaron herramientas habilitadas por IA para radiología y patología (como Derm y Path Foundations) para mejorar el análisis de imágenes.
En general, la IA es ahora un socio indispensable en la investigación, desde mapear el cerebro humano a escala nanométrica (con imágenes asistidas por IA) hasta acelerar el cribado de tuberculosis en África, según reportes de investigadores de Google.
IA en Robótica y Automatización
Los robots impulsados por IA están aprendiendo tareas complejas del mundo real.
Los robots humanoides Optimus de Tesla se mostraron públicamente en octubre de 2024 (evento “We, Robot”). Varias docenas de unidades Optimus caminaron, se mantuvieron de pie e incluso bailaron en el escenario, aunque informes posteriores indicaron que las demos iniciales fueron parcialmente controladas a distancia por humanos.
Aun así, el evento destacó el rápido progreso hacia robots de propósito general.
- Robots ALOHA de DeepMind: El laboratorio de IA de Google avanzó notablemente en robots domésticos.
En 2024, el robot ALOHA (Asistente Autónomo con Piernas para el Hogar) aprendió a atar cordones, colgar una camisa, reparar otro robot, insertar engranajes e incluso limpiar una cocina usando solo planificación y visión por IA.
Los proyectos open-source “ALOHA Unleashed” mostraron robots coordinando dos brazos para tareas, un hito en manipulación de propósito general. - Transformers robóticos: DeepMind presentó RT-2 (Robotic Transformer 2), un modelo de visión-lenguaje-acción que puede aprender tanto de imágenes en internet como de datos reales de robots.
RT-2 permite que los robots interpreten instrucciones como un humano aprovechando el conocimiento web.
Se demostró ayudando a un robot a clasificar objetos siguiendo comandos de texto. - Robots industriales: Otras compañías también avanzaron: Boston Dynamics continuó perfeccionando los robots Atlas y Spot (aunque sin un avance destacado único), y los vehículos autónomos impulsados por IA mejoraron (la versión beta de conducción autónoma completa de Tesla se desplegó más ampliamente, aunque la autonomía total sigue sin resolverse).
En manufactura, empresas centradas en IA como Figure AI recaudaron fondos para construir robots domésticos para tareas del hogar.
Estos esfuerzos muestran robots realizando tareas cada vez más complejas sin programación explícita. Sin embargo, los humanoides totalmente autónomos aún están en el horizonte.
Las demostraciones (Optimus, ALOHA, RT-2) son hitos, pero los investigadores advierten que queda trabajo por hacer antes de que los robots puedan trabajar de forma segura y confiable junto a humanos a gran escala.
IA en Productos, Industria y Sociedad
El impacto de la IA se extiende a productos cotidianos e incluso a políticas públicas:
- Dispositivos de consumo: Los principales productos tecnológicos incorporaron agentes de IA.
Copilot de Microsoft (integrado en Windows, Office, Bing) y Bard/Bard AI de Google en Search (respaldado por Gemini) llevaron el poder de los LLM a los usuarios.
Los dispositivos de Apple recibieron Apple Intelligence (como se mencionó) y fabricantes de hardware como Nvidia vendieron cantidades récord de GPUs para IA, impulsando tanto la nube como la IA para consumidores.
(Nvidia se convirtió en la empresa más valiosa del mundo en 2024 gracias al auge de la IA.) - Regulación – Ley de IA de la UE: Reflejando el alcance de la IA, los reguladores también actuaron.
El 1 de agosto de 2024 entró en vigor la Ley de IA de la UE, la primera legislación integral sobre IA.
Establece un marco basado en riesgos: la IA de bajo riesgo (filtros de spam, videojuegos) tiene reglas mínimas; las normas de transparencia obligan a sistemas como chatbots a revelar que son IA; la IA de alto riesgo (herramientas médicas o de selección de personal) está sujeta a supervisión estricta; y la IA claramente inaceptable (por ejemplo, “puntuación social” de individuos por gobiernos) está prohibida.
Este conjunto de reglas (junto con futuras directrices sobre modelos de propósito general) es un logro importante en la gobernanza de la IA y probablemente influirá en estándares globales. - Crecimiento industrial: El sector de IA experimentó financiamiento y valoraciones históricas: OpenAI alcanzó una valoración reportada de 157 mil millones de dólares a finales de 2023, y empresas como Anthropic, Inflection y startups chinas de IA recaudaron rondas multimillonarias.
La demanda de hardware de IA de NVIDIA elevó su capitalización de mercado por encima de 3.5 billones de dólares a mediados de 2024.
Estas cifras subrayan cómo la IA se ha convertido en el centro de la economía tecnológica.
>>> ¿Alguna vez has probado: Comparando la inteligencia artificial con la inteligencia humana ?
En resumen, la IA ya no está confinada a laboratorios o demostraciones novedosas: está integrada en teléfonos, autos, lugares de trabajo y políticas públicas.
Los avances mencionados —desde el vasto conocimiento de GPT-4 hasta las revoluciones científicas de AlphaFold— demuestran la rápida madurez de la IA.
Al entrar en 2025, estos logros anticipan aplicaciones de IA aún más potentes y prácticas en nuestra vida diaria.