La inteligencia artificial ha desbloqueado el poder de crear “deepfakes” – medios altamente realistas pero fabricados. Desde videos que intercambian el rostro de alguien de manera impecable hasta voces clonadas que suenan indistinguibles de la persona real, los deepfakes representan una nueva era donde ver (o escuchar) no siempre es creer. Esta tecnología ofrece emocionantes oportunidades para innovar en diversas industrias, pero también plantea riesgos serios.

En este artículo, exploraremos qué son los deepfakes de IA, cómo funcionan y las principales oportunidades y peligros que traen en el mundo actual.

¿Qué es un Deepfake?

Un deepfake es un medio sintético (video, audio, imágenes o incluso texto) generado o alterado por IA para imitar de forma convincente contenido real. El término proviene de “deep learning” (algoritmos avanzados de IA) y “fake”, y comenzó a usarse popularmente alrededor de 2017 en un foro de Reddit donde los usuarios compartían videos de celebridades con rostros intercambiados.

Los deepfakes modernos suelen utilizar técnicas como las redes generativas antagónicas (GANs) – dos redes neuronales que se entrenan entre sí para producir falsificaciones cada vez más realistas. En la última década, los avances en IA han facilitado y abaratado la creación de deepfakes: cualquier persona con conexión a internet ahora tiene acceso a generadores de medios sintéticos.

Los primeros deepfakes ganaron notoriedad por usos maliciosos (como insertar rostros de celebridades en videos falsos), lo que le dio a la tecnología una reputación negativa. Sin embargo, no todo el contenido sintético generado por IA es nefasto. Como muchas tecnologías, los deepfakes son una herramienta – su impacto (positivo o negativo) depende de cómo se usen.

Como señala el Foro Económico Mundial, aunque existen muchos ejemplos negativos, “este tipo de contenido sintético también puede traer beneficios.” En las siguientes secciones, analizaremos algunas aplicaciones positivas destacadas del deepfake de IA, seguidas de los riesgos y abusos serios asociados a esta tecnología.

Deepfake

Oportunidades y Aplicaciones Positivas del Deepfake de IA

A pesar de su reputación controvertida, los deepfakes (a menudo denominados de forma más neutral como “medios sintéticos”) ofrecen varias aplicaciones positivas en campos creativos, educativos y humanitarios:

  • Entretenimiento y Medios: Los cineastas están utilizando técnicas de deepfake para crear efectos visuales impresionantes e incluso para “rejuvenecer” actores en pantalla. Por ejemplo, en la última película de Indiana Jones se recreó digitalmente a un Harrison Ford más joven entrenando una IA con décadas de sus grabaciones anteriores. Esta tecnología puede revivir figuras históricas o actores fallecidos para nuevas actuaciones y mejorar el doblaje al sincronizar con precisión los movimientos labiales.
    En general, los deepfakes pueden producir contenido más inmersivo y realista en películas, televisión y videojuegos.

  • Educación y Capacitación: La tecnología deepfake puede hacer que las experiencias de aprendizaje sean más atractivas e interactivas. Los instructores podrían generar simulaciones educativas o recreaciones históricas con figuras realistas de personajes famosos, dando vida a las lecciones de historia o ciencia.
    Escenarios de juego de roles realistas creados por IA (por ejemplo, simulando una emergencia médica o una situación en la cabina de un avión) pueden ayudar a entrenar profesionales en salud, aviación, fuerzas armadas y más. Estas simulaciones generadas por IA preparan a los estudiantes para situaciones reales de forma segura y controlada.

  • Accesibilidad y Comunicación: Los medios generados por IA están rompiendo barreras de idioma y comunicación. Los traductores deepfake pueden doblar un video a múltiples idiomas conservando la voz y los gestos del hablante – una artista, FKA Twigs, incluso creó un deepfake de sí misma que habla idiomas que no domina. Esto tiene un potencial que salva vidas: los servicios de emergencia han usado traducción de voz por IA para interpretar llamadas al 911 más rápido, reduciendo el tiempo de traducción hasta en un 70% en situaciones críticas.
    De manera similar, se están desarrollando avatares deepfake para lenguaje de señas que traducen el habla a señas para audiencias sordas, produciendo videos tan realistas que en estudios iniciales los algoritmos no pudieron distinguirlos de intérpretes humanos reales. Otro uso impactante es la clonación personal de voz para quienes pierden la capacidad de hablar – por ejemplo, una congresista estadounidense con una enfermedad neurodegenerativa usó recientemente un clon de voz generado por IA para dirigirse a los legisladores después de perder la voz, permitiéndole “hablar con [su] tono de voz” a pesar de su enfermedad.
    Estas aplicaciones muestran cómo los deepfakes mejoran la accesibilidad y preservan las voces y la comunicación de las personas.

  • Salud y Terapia: En medicina, los medios sintéticos pueden ayudar tanto en la investigación como en el bienestar del paciente. Las imágenes médicas generadas por IA pueden aumentar los datos de entrenamiento para algoritmos diagnósticos – un estudio encontró que un sistema de IA para detección de tumores entrenado principalmente con imágenes de resonancia magnética generadas por GANs tuvo un desempeño tan bueno como un sistema entrenado con escaneos reales. Esto significa que los deepfakes pueden potenciar la IA médica creando abundantes datos de entrenamiento sin comprometer la privacidad del paciente.
    En terapia, los deepfakes controlados también pueden brindar consuelo a los pacientes. Por ejemplo, cuidadores han experimentado con videos donde un ser querido de un paciente con Alzheimer aparece como su yo más joven (del periodo que el paciente recuerda mejor), reduciendo la confusión y ansiedad del paciente. En campañas de salud pública, las técnicas deepfake han permitido mensajes poderosos: en una campaña contra la malaria, el mensaje en video de la estrella del fútbol David Beckham fue modificado por IA para que “hablara” en nueve idiomas diferentes, ayudando a que la campaña de concienciación llegara a medio billón de personas en todo el mundo. Esto demuestra cómo los medios sintéticos pueden amplificar mensajes importantes para audiencias diversas.

  • Privacidad y Anonimato: Paradójicamente, la misma capacidad de intercambio facial que puede crear noticias falsas también puede proteger la privacidad. Activistas, denunciantes o personas vulnerables pueden ser filmados con sus rostros reemplazados por una cara realista generada por IA, ocultando su identidad sin recurrir a desenfoques evidentes.
    Un ejemplo notable es el documental “Welcome to Chechnya” (2020), que usó superposiciones faciales generadas por IA para enmascarar las identidades de activistas LGBT que huían de la persecución, preservando sus expresiones y emociones faciales. De esta forma, los espectadores podían conectar con la humanidad de los sujetos, aunque los rostros mostrados no fueran reales.
    Los investigadores están ampliando esta idea hacia herramientas para la privacidad cotidiana – por ejemplo, sistemas experimentales de “anonimización” pueden reemplazar automáticamente el rostro de una persona en fotos compartidas en redes sociales con un doble sintético si no han dado su consentimiento para ser identificados. De igual forma, la tecnología de “piel de voz” puede alterar la voz del hablante en tiempo real (como en juegos en línea o reuniones virtuales) para evitar sesgos o acoso, manteniendo la emoción e intención original.
    Estas aplicaciones sugieren que los deepfakes pueden ayudar a las personas a controlar su identidad digital y seguridad.

El intercambio facial deepfake puede usarse para anonimizar a individuos. Por ejemplo, la película Welcome to Chechnya protegió a activistas en riesgo superponiendo sus rostros con los de actores voluntarios mediante IA, ocultando sus identidades mientras conservaba expresiones naturales. Esto demuestra cómo los medios sintéticos pueden salvaguardar la privacidad en situaciones sensibles.

En resumen, los deepfakes son una espada de doble filo. Por un lado, “el contenido sintético no es inherentemente positivo ni negativo – su impacto depende del actor y su intención”. Los ejemplos anteriores resaltan la oportunidad de aprovechar la tecnología deepfake para la creatividad, la comunicación y el bien social.

Sin embargo, la otra cara de esta poderosa herramienta es su enorme potencial de daño cuando se usa con malas intenciones. Los últimos años han ofrecido numerosos ejemplos de engaños y abusos impulsados por deepfakes, que examinaremos a continuación.

Oportunidades y Aplicaciones Positivas del Deepfake de IA

Riesgos y Malos Usos de los Deepfakes

La proliferación de deepfakes fáciles de crear también ha generado serias preocupaciones y amenazas. De hecho, una encuesta de 2023 encontró que el 60% de los estadounidenses estaban “muy preocupados” por los deepfakes – ubicándolo como su principal temor relacionado con la IA. Los riesgos clave asociados con la tecnología deepfake incluyen:

  • Desinformación y Manipulación Política: Los deepfakes pueden ser usados como armas para difundir desinformación a gran escala. Videos o audios falsificados de figuras públicas pueden mostrarles diciendo o haciendo cosas que nunca ocurrieron, engañando al público. Estas falsedades pueden minar la confianza en las instituciones, influir en la opinión pública o incluso incitar disturbios.

    Por ejemplo, durante la guerra de Rusia en Ucrania, circuló un video deepfake del presidente Volodymyr Zelensky pareciendo rendirse; aunque fue rápidamente desmentido por fallos evidentes (como una cabeza desproporcionadamente grande y una voz extraña), demostró el potencial de los adversarios para usar falsificaciones de IA en propaganda.
    De manera similar, una imagen falsa de una “explosión” cerca del Pentágono se volvió viral en 2023 y causó una breve caída en la bolsa antes de que las autoridades aclararan que fue generada por IA.

    A medida que los deepfakes mejoran, la preocupación es que puedan usarse para crear noticias falsas extremadamente convincentes, erosionando la capacidad del público para distinguir la realidad de la falsificación. Esto no solo difunde mentiras, sino que también crea un efecto escalofriante de “dividendo del mentiroso” – la gente puede empezar a desconfiar incluso de videos o pruebas genuinas, alegando que son deepfakes. El resultado general es una erosión de la verdad y una mayor pérdida de confianza en los medios y el discurso democrático.

  • Pornografía No Consentida y Acoso: Uno de los primeros y más extendidos usos maliciosos de los deepfakes ha sido la creación de contenido explícito falso. Usando unas pocas fotos, los atacantes (a menudo a través de foros anónimos o aplicaciones) pueden generar videos pornográficos realistas de personas – típicamente mujeres – sin su consentimiento. Esto constituye una grave violación de la privacidad y acoso sexual.

    Estudios han encontrado que la gran mayoría de videos deepfake en línea (alrededor del 90–95%) son pornografía no consentida, casi todos con mujeres como víctimas. Estos videos falsos pueden ser devastadores a nivel personal, causando humillación, trauma, daño reputacional e incluso amenazas de extorsión. Actrices, periodistas y personas privadas han visto sus rostros pegados en contenido adulto.

    Las fuerzas del orden y legisladores están cada vez más alarmados por esta tendencia; por ejemplo, en EE. UU., varios estados y el gobierno federal han propuesto o aprobado leyes para criminalizar la pornografía deepfake y ofrecer recursos legales a las víctimas. El daño de la pornografía deepfake subraya cómo esta tecnología puede explotarse para violar la privacidad, atacar a individuos (a menudo con sesgo anti-mujer) y difundir imágenes falsas difamatorias con poco costo para el agresor.

  • Fraudes y Estafas de Suplantación: Los deepfakes se han convertido en un arma peligrosa para los ciberdelincuentes. Clones de voz generados por IA e incluso deepfakes de video en vivo se usan para suplantar personas de confianza con fines fraudulentos. El FBI advierte que los criminales están aprovechando la clonación de voz/video por IA para hacerse pasar por familiares, compañeros de trabajo o ejecutivos – engañando a las víctimas para que envíen dinero o revelen información sensible.

    Estas estafas, a menudo una versión tecnológica avanzada del fraude de “suplantación”, ya han causado pérdidas significativas. En un caso real, ladrones usaron IA para imitar la voz de un CEO y convencieron con éxito a un empleado de transferirles 220,000 € (unos 240,000 $). En otro incidente, criminales deepfake hicieron aparecer al CFO de una empresa en una llamada de Zoom para autorizar una transferencia de 25 millones de dólares a cuentas fraudulentas.

    Estos ataques de ingeniería social impulsados por deepfakes están en aumento – los informes muestran un aumento masivo en fraudes con deepfakes a nivel mundial en los últimos años. La combinación de voces/videos falsos altamente creíbles y la rapidez de la comunicación digital puede tomar desprevenidas a las víctimas. Las empresas están especialmente en riesgo por las “estafas al CEO” o falsos ejecutivos dando órdenes.

    Si los empleados no están entrenados para ser escépticos con medios audiovisuales, podrían seguir instrucciones deepfake que parecen legítimas. El resultado puede ser robo de fondos, brechas de datos u otros daños costosos. Esta amenaza ha llevado a expertos en seguridad a recomendar prácticas más estrictas de verificación de identidad (por ejemplo, usar canales seguros para confirmar solicitudes) y herramientas técnicas para autenticar audio y video en transacciones sensibles.

  • Erosión de la Confianza y Desafíos Legales: La llegada de los deepfakes difumina la línea entre realidad y ficción, planteando amplias preocupaciones sociales y éticas. A medida que el contenido falso se vuelve más convincente, las personas pueden comenzar a dudar de pruebas auténticas – un escenario peligroso para la justicia y la confianza pública.

    Por ejemplo, un video real de una mala conducta podría ser descartado como un “deepfake” por el infractor, complicando el periodismo y los procesos legales. Esta erosión de la confianza en los medios digitales es difícil de cuantificar, pero muy dañina a largo plazo.

    Los deepfakes también presentan complejos problemas legales: ¿Quién posee los derechos sobre una imagen generada por IA de una persona? ¿Cómo se aplican las leyes de difamación o calumnias a un video falso que daña la reputación de alguien? También existen preguntas de consentimiento y ética – usar el rostro o la voz de alguien en un deepfake sin permiso generalmente se considera una violación de sus derechos, aunque las leyes aún están adaptándose a esta realidad.

    Algunas jurisdicciones han comenzado a exigir que los medios alterados se etiqueten claramente, especialmente si se usan en anuncios políticos o elecciones. Además, plataformas como redes sociales están bajo presión para detectar y eliminar deepfakes dañinos (similar a cómo manejan otras formas de desinformación o medios manipulados).

    Tecnológicamente, detectar deepfakes es una “carrera armamentista”. Los investigadores están desarrollando sistemas de detección por IA para identificar artefactos sutiles de falsedad (por ejemplo, anomalías en el flujo sanguíneo facial o patrones de parpadeo). Sin embargo, a medida que mejora la detección, también mejoran los métodos deepfake para evadirla – generando una constante batalla de gato y ratón.

    Todos estos desafíos dejan claro que la sociedad debe enfrentar cómo verificar auténticamente los medios en la era de la IA y cómo responsabilizar a los creadores de deepfakes por su mal uso.

Riesgos y Malos Usos de los Deepfakes

Navegando la Era del Deepfake: Encontrando un Equilibrio

Los deepfakes de IA presentan un dilema clásico del progreso tecnológico: una enorme promesa entrelazada con peligros. Por un lado, tenemos usos creativos y beneficiosos sin precedentes – desde preservar voces y traducir idiomas hasta imaginar nuevas formas de contar historias y proteger la privacidad.

Por otro lado, los usos maliciosos de los deepfakes amenazan la privacidad, la seguridad y la confianza pública. De cara al futuro, es crucial maximizar los beneficios mientras se minimizan los daños.

Se están realizando esfuerzos en múltiples frentes. Empresas tecnológicas e investigadores invierten en herramientas de detección y marcos de autenticidad (como marcas de agua digitales o estándares de verificación de contenido) para ayudar a las personas a distinguir medios reales de falsos. Los legisladores de todo el mundo también exploran leyes para frenar las prácticas más abusivas de deepfakes – por ejemplo, prohibiendo la pornografía falsa, la desinformación electoral o exigiendo divulgaciones cuando los medios han sido alterados por IA.

Sin embargo, solo con regulaciones es difícil, dado lo rápido que evoluciona la tecnología y lo fácil que cruza jurisdicciones. La educación y la concienciación son igualmente importantes: programas de alfabetización digital pueden enseñar al público a evaluar críticamente los medios y detectar señales de deepfakes, tal como la gente ha aprendido a identificar estafas por correo electrónico o intentos de phishing.

Si los usuarios saben que imágenes “perfectas” o sensacionalistas podrían estar fabricadas, pueden considerarlo antes de reaccionar o compartir.

>>> Haz clic para saber más:

El papel de la IA en la era digital

Problemas de seguridad de datos e inteligencia artificial

Navegando la Era del Deepfake


En última instancia, el fenómeno deepfake ha llegado para quedarse – “el genio salió de la botella y no podemos volver a meterlo”. En lugar de entrar en pánico o prohibiciones absolutas, los expertos abogan por un enfoque equilibrado: fomentar la innovación responsable en medios sintéticos mientras se desarrollan fuertes protecciones contra el abuso.

Esto implica promover aplicaciones positivas (en entretenimiento, educación, accesibilidad, etc.) bajo pautas éticas, y al mismo tiempo invertir en medidas de seguridad, marcos legales y normas para castigar los usos malintencionados. Trabajando juntos – tecnólogos, reguladores, empresas y ciudadanos – podemos construir un futuro donde la IA deepfake sea “común, familiar y confiable”. En ese futuro, aprovechamos la creatividad y conveniencia que ofrecen los deepfakes, mientras permanecemos vigilantes y resilientes ante las nuevas formas de engaño que posibilitan.

Las oportunidades son emocionantes y los riesgos reales – reconocer ambos es el primer paso para moldear un panorama mediático impulsado por IA que beneficie a la sociedad en su conjunto.

Referencias externas
Este artículo ha sido elaborado con referencia a las siguientes fuentes externas: