Искусственный интеллект открыл возможность создавать “глубокие подделки” — высокореалистичные, но сфабрикованные медиа. От видео с безупречной заменой лица до клонированных голосов, неотличимых от настоящих, глубокие подделки открывают новую эру, где видеть (или слышать) — не всегда значит верить. Эта технология предлагает захватывающие возможности для инноваций в различных отраслях, но также несёт серьёзные риски.

В этой статье мы рассмотрим, что такое глубокие подделки на базе ИИ, как они работают, а также ключевые возможности и опасности, которые они несут в современном мире.

Что такое глубокая подделка?

Глубокая подделка — это синтетический медиа-контент (видео, аудио, изображения или даже текст), созданный или изменённый с помощью ИИ для убедительного имитирования реального материала. Сам термин происходит от “глубокого обучения” (продвинутых алгоритмов ИИ) и “подделки”, и стал широко использоваться примерно с 2017 года на форуме Reddit, где пользователи делились видео с заменой лиц знаменитостей.

Современные глубокие подделки часто используют методы, такие как генеративные состязательные сети (GAN) — две нейронные сети, обучающиеся друг против друга для создания всё более реалистичных подделок. За последнее десятилетие достижения в области ИИ упростили и удешевили создание глубоких подделок: каждый, у кого есть доступ в интернет, теперь имеет ключи к генераторам синтетического медиа.

Ранние глубокие подделки приобрели дурную славу из-за злонамеренного использования (например, вставка лиц знаменитостей в фальшивые видео), что создало негативный образ технологии. Однако не весь синтетический контент, созданный ИИ, является злонамеренным. Как и многие технологии, глубокие подделки — это инструмент, и их влияние (положительное или отрицательное) зависит от того, как ими пользуются.

Как отмечает Всемирный экономический форум, несмотря на множество негативных примеров, “такой синтетический контент может также приносить пользу”. В следующих разделах мы рассмотрим некоторые заметные положительные применения глубоких подделок на базе ИИ, а затем перейдём к серьёзным рискам и злоупотреблениям, связанным с этой технологией.

Глубокая подделка

Возможности и положительные применения глубоких подделок на базе ИИ

Несмотря на спорную репутацию, глубокие подделки (часто более нейтрально называемые “синтетическими медиа”) предлагают несколько положительных применений в творческих, образовательных и гуманитарных сферах:

  • Развлечения и СМИ: Кинематографисты используют технологии глубоких подделок для создания впечатляющих визуальных эффектов и даже “омоложения” актёров на экране. Например, в последнем фильме про Индиану Джонса цифровым путём воссоздали молодого Харрисона Форда, обучив ИИ на десятилетиях его архивных кадров. Эта технология позволяет оживлять исторические личности или ушедших актёров для новых ролей и улучшать дубляж, точно синхронизируя движения губ.
    В целом, глубокие подделки способны создавать более захватывающий и реалистичный контент в кино, телевидении и играх.

  • Образование и обучение: Технология глубоких подделок может сделать обучение более увлекательным и интерактивным. Преподаватели могут создавать образовательные симуляции или исторические реконструкции с реалистичными образами известных личностей, оживляя уроки истории или науки.
    Реалистичные ролевые сценарии, созданные ИИ (например, моделирование медицинской чрезвычайной ситуации или ситуации в кабине пилота), помогают готовить специалистов в здравоохранении, авиации, армии и других сферах. Такие симуляции позволяют обучающимся безопасно отрабатывать навыки для реальных ситуаций.

  • Доступность и коммуникация: Медиа, созданные ИИ, разрушают языковые и коммуникационные барьеры. Переводчики на базе глубоких подделок могут озвучивать видео на нескольких языках, сохраняя голос и манеры говорящего — одна артистка, FKA Twigs, даже создала глубокую подделку самой себя, говорящую на языках, которых она не знает. Это имеет жизненно важное значение: службы экстренной помощи использовали голосовой перевод ИИ для ускорения обработки звонков 911, сокращая время перевода до 70% в критических ситуациях.
    Аналогично, создаются аватары жестового языка на базе глубоких подделок, которые переводят речь в жестовый язык для глухих, создавая видео с такой реалистичной мимикой, что алгоритмы на ранних этапах не могли отличить их от настоящих жестовых переводчиков. Ещё одно важное применение — клонирование голоса для тех, кто потерял способность говорить: например, одна конгрессвумен США с нейродегенеративным заболеванием использовала ИИ-клон своего голоса, чтобы обратиться к законодателям после того, как перестала говорить, позволяя “говорить своим тоном” несмотря на болезнь.
    Такие применения показывают, как глубокие подделки улучшают доступность и сохраняют голоса и коммуникацию людей.

  • Здравоохранение и терапия: В медицине синтетические медиа помогают как в исследованиях, так и в улучшении самочувствия пациентов. Медицинские изображения, созданные ИИ, могут расширять обучающие данные для диагностических алгоритмов — одно исследование показало, что система ИИ для обнаружения опухолей, обученная преимущественно на MRI-изображениях, созданных GAN, работала так же эффективно, как и система, обученная на реальных снимках. Это означает, что глубокие подделки могут улучшить медицинский ИИ, создавая обширные обучающие наборы без риска нарушения конфиденциальности пациентов.
    В терапевтических целях контролируемые глубокие подделки могут успокаивать пациентов. Например, ухаживающие экспериментировали с видео, где близкий человек пациента с болезнью Альцгеймера появляется в образе молодого себя (из периода, который пациент лучше всего помнит), снижая путаницу и тревогу. В общественных кампаниях глубокие подделки помогли донести мощные послания: в одной антималярийной кампании видео с участием футбольной звезды Дэвида Бекхэма было изменено ИИ так, что “он” говорил на девяти языках, помогая охватить полмиллиарда человек по всему миру. Это демонстрирует, как синтетические медиа могут усиливать важные сообщения для разных аудиторий.

  • Конфиденциальность и анонимность: Парадоксально, но та же технология замены лиц, которая может создавать фейковые новости, также может защищать конфиденциальность. Активисты, информаторы или уязвимые люди могут быть сняты на видео с заменой лица на реалистичное лицо, созданное ИИ, скрывая свою личность без использования явного размытия.
    Знаковым примером является документальный фильм “Добро пожаловать в Чечню” (2020), где использовались наложения лиц, созданные ИИ, чтобы скрыть личности ЛГБТ-активистов, спасавшихся от преследований, при этом сохраняя их мимику и эмоции. Таким образом зрители могли почувствовать человечность героев, несмотря на то, что лица были не настоящими.
    Исследователи развивают эту идею в инструменты для повседневной конфиденциальности — например, экспериментальные “системы анонимизации” могут автоматически заменять лицо человека на фото, опубликованных в соцсетях, на синтетический двойник, если он не дал согласия на идентификацию. Аналогично, технология “голосовой маски” может изменять голос говорящего в реальном времени (например, в онлайн-играх или виртуальных встречах), чтобы предотвратить предвзятость или домогательства, сохраняя при этом исходные эмоции и намерения.
    Эти применения показывают, что глубокие подделки могут помочь людям контролировать свою цифровую идентичность и безопасность.

Замена лиц с помощью глубоких подделок может использоваться для анонимизации людей. Например, фильм Добро пожаловать в Чечню защитил активистов, находящихся под угрозой, наложив лица добровольцев с помощью ИИ, скрывая их личности, но сохраняя естественные выражения. Это демонстрирует, как синтетические медиа могут защищать конфиденциальность в чувствительных ситуациях.

В итоге глубокие подделки — это палка о двух концах. С одной стороны, “синтетический контент не является по своей природе ни положительным, ни отрицательным — его влияние зависит от пользователя и его намерений”. Приведённые примеры подчёркивают возможности использовать технологию глубоких подделок для творчества, коммуникации и общественного блага.

Однако обратная сторона этого мощного инструмента — огромный потенциал вреда при злонамеренном использовании. В последние годы появилось множество предупреждающих историй о мошенничестве и злоупотреблениях с помощью глубоких подделок, которые мы рассмотрим далее.

Возможности и положительные применения глубоких подделок на базе ИИ

Риски и злоупотребления глубокими подделками

Распространение простых в создании глубоких подделок вызвало серьёзные опасения и угрозы. Так, опрос 2023 года показал, что 60% американцев “очень обеспокоены” глубокими подделками — это их главный страх, связанный с ИИ. Основные риски, связанные с технологией глубоких подделок, включают:

  • Дезинформация и политические манипуляции: Глубокие подделки могут использоваться как оружие для масштабного распространения дезинформации. Поддельные видео или аудио с публичными фигурами могут показывать их делающими или говорящими то, чего на самом деле не было, вводя общественность в заблуждение. Такие фальсификации подрывают доверие к институтам, влияют на общественное мнение и могут даже провоцировать беспорядки.

    Например, во время войны России в Украине в сети появилось видео с глубокими подделками, где президент Владимир Зеленский якобы сдаётся; хотя видео быстро опровергли из-за явных ошибок (например, непропорционально большая голова и странный голос), оно показало, как противники могут использовать ИИ-фейки в пропаганде.
    Аналогично, в 2023 году вирусным стало фальшивое изображение “взрыва” возле Пентагона, вызвавшее кратковременное падение фондового рынка, пока власти не уточнили, что это ИИ-сгенерированное изображение.

    По мере совершенствования глубоких подделок растёт опасение, что они могут создавать чрезвычайно убедительные фейковые новости, подрывая способность общества отличать реальность от вымысла. Это не только распространяет ложь, но и создаёт эффект “дивиденда лжеца” — люди начинают сомневаться даже в подлинных видео или доказательствах, утверждая, что это глубокие подделки. В итоге происходит эрозия истины и дальнейшее снижение доверия к СМИ и демократическим процессам.

  • Непоcтверждённая порнография и домогательства: Одним из первых и самых распространённых злонамеренных применений глубоких подделок стало создание фальшивого откровенного контента. Используя несколько фотографий, злоумышленники (часто через анонимные форумы или приложения) могут создавать реалистичные порнографические видео с изображением людей — обычно женщин — без их согласия. Это серьёзное нарушение конфиденциальности и форма сексуальных домогательств.

    Исследования показывают, что большинство глубоких подделок в интернете (около 90–95%) — это непоcтверждённая порнография, почти всегда с женщинами в роли жертв. Такие видео могут нанести серьёзный личный ущерб, вызывая унижение, травму, репутационные потери и даже угрозы шантажа. Известные актрисы, журналистки и частные лица обнаруживали свои лица на порнографическом контенте.

    Правоохранительные органы и законодатели всё больше обеспокоены этой тенденцией; например, в США несколько штатов и федеральное правительство предложили или приняли законы, криминализирующие глубокую порнографию и предоставляющие жертвам юридическую защиту. Вред от глубоких подделок в порнографии подчёркивает, как эта технология может использоваться для нарушения конфиденциальности, преследования людей (часто с антиженской предвзятостью) и распространения клеветнических изображений с минимальными затратами для злоумышленников.

  • Мошенничество и подделка личности: Глубокие подделки стали опасным оружием для киберпреступников. Клоны голосов и даже живые видео с глубокими подделками используются для имитации доверенных лиц с целью мошенничества. ФБР предупреждает, что преступники используют клонирование голоса и видео с помощью ИИ, выдавая себя за членов семьи, коллег или руководителей, обманывая жертв и заставляя их переводить деньги или раскрывать конфиденциальную информацию.

    Эти мошенничества, часто являющиеся высокотехнологичной формой “имитационного” мошенничества, уже привели к значительным потерям. В одном случае преступники с помощью ИИ имитировали голос генерального директора и убедили сотрудника перевести им 220 000 евро (около 240 000 долларов). В другом случае мошенники с помощью глубоких подделок создали видео с участием финансового директора компании на Zoom-звонке, чтобы санкционировать перевод 25 миллионов долларов на мошеннические счета.

    Такие социально-инженерные атаки с использованием глубоких подделок растут — отчёты показывают резкий рост мошенничества с глубокими подделками в последние годы. Сочетание крайне правдоподобных фальшивых голосов и видео с быстротой цифровой коммуникации может застать жертв врасплох. Особенно уязвимы компании, подверженные “мошенничеству с генеральным директором” или подделке приказов от руководства.

    Если сотрудники не обучены критически относиться к аудиовизуальному контенту, они могут выполнить указание, которое кажется легитимным. Это может привести к краже средств, утечкам данных и другим серьёзным убыткам. Эта угроза заставляет экспертов по безопасности настаивать на усилении процедур проверки личности (например, использование безопасных каналов для подтверждения запросов) и технических средств обнаружения для аутентификации аудио и видео в чувствительных операциях.

  • Подрыв доверия и юридические проблемы: Появление глубоких подделок стирает грани между реальностью и вымыслом, вызывая широкие общественные и этические вопросы. По мере того как фальшивый контент становится всё более убедительным, люди могут начать сомневаться в подлинности доказательств — опасный сценарий для правосудия и общественного доверия.

    Например, реальное видео с доказательствами правонарушения может быть отвергнуто как “глубокая подделка” самим нарушителем, усложняя журналистские расследования и судебные процессы. Эта эрозия доверия к цифровым медиа трудно поддаётся количественной оценке, но со временем наносит серьёзный ущерб.

    Глубокие подделки также создают сложные юридические вопросы: кому принадлежат права на ИИ-созданный образ человека? Как применяются законы о клевете к фальшивому видео, наносящему ущерб репутации? Возникают также вопросы согласия и этики — использование лица или голоса человека в глубокой подделке без разрешения обычно считается нарушением его прав, однако законодательство пока не успевает за этими реалиями.

    В некоторых юрисдикциях уже требуют чёткой маркировки изменённого контента, особенно если он используется в политической рекламе или на выборах. Кроме того, платформы социальных сетей испытывают давление с целью выявления и удаления вредоносных глубоких подделок (аналогично борьбе с дезинформацией и манипулированным контентом).

    С технологической точки зрения обнаружение глубоких подделок — это “гонка вооружений”. Исследователи создают системы ИИ для выявления тонких признаков подделки (например, аномалии в кровотоке лица или паттернах моргания). Однако по мере улучшения методов обнаружения совершенствуются и методы обхода — что приводит к постоянной борьбе между создателями и детекторами.

    Все эти вызовы ясно показывают, что обществу необходимо научиться достоверно проверять медиа в эпоху ИИ и привлекать создателей глубоких подделок к ответственности за злоупотребления.

Риски и злоупотребления глубокими подделками

Навигация в эпоху глубоких подделок: поиск баланса

Глубокие подделки на базе ИИ представляют классическую дилемму технологического прогресса: огромные перспективы, переплетённые с опасностями. С одной стороны, у нас есть беспрецедентные творческие и полезные применения — от сохранения голосов и перевода языков до новых форм повествования и защиты конфиденциальности.

С другой стороны, злонамеренное использование глубоких подделок угрожает конфиденциальности, безопасности и общественному доверию. В дальнейшем крайне важно максимизировать выгоды и минимизировать вред.

Ведутся усилия на многих фронтах. Технологические компании и исследователи инвестируют в инструменты обнаружения и системы проверки подлинности (например, цифровые водяные знаки или стандарты верификации контента), чтобы помочь людям отличать реальный контент от подделок. Законодатели по всему миру также разрабатывают законодательство для ограничения самых злоупотребительных практик глубоких подделок — например, запрет фальшивой порнографии, дезинформации на выборах или обязательное раскрытие факта ИИ-изменения медиа.

Однако одних только правил недостаточно, учитывая скорость развития технологии и её трансграничный характер. Образование и повышение осведомлённости не менее важны: программы цифровой грамотности могут научить общественность критически оценивать медиа и распознавать признаки глубоких подделок, так же как люди научились выявлять мошенничество по электронной почте или фишинг.

Если пользователи знают, что “идеальные” или сенсационные кадры могут быть сфабрикованы, они смогут учитывать это перед тем, как реагировать или делиться ими.

>>> Подробнее:

Роль ИИ в цифровую эпоху

Проблемы искусственного интеллекта и безопасности данных

Навигация в эпоху глубоких подделок


В конечном счёте, феномен глубоких подделок останется с нами — “джинн выпущен из бутылки, и обратно его не запихнуть”. Вместо паники или полного запрета эксперты призывают к сбалансированному подходу: поощрять ответственные инновации в области синтетических медиа при одновременном создании надёжных ограничителей для предотвращения злоупотреблений.

Это означает поддержку положительных применений (в развлечениях, образовании, доступности и др.) в рамках этических норм, а также инвестиции в меры безопасности, правовые рамки и нормы для наказания злонамеренного использования. Путём совместной работы — технологов, регуляторов, компаний и граждан — мы можем построить будущее, где глубокие подделки на базе ИИ будут “обычными, знакомыми и вызывающими доверие”. В таком будущем мы используем творческий потенциал и удобство глубоких подделок, оставаясь бдительными и устойчивыми к новым формам обмана, которые они порождают.

Возможности впечатляют, а риски реальны — признание обоих аспектов является первым шагом к формированию медиаландшафта на базе ИИ, приносящего пользу всему обществу.

Внешние источники
Эта статья подготовлена с учетом следующих внешних источников: