Искусственный интеллект (ИИ) сегодня пронизывает всё — от помощников в смартфонах и лент в социальных сетях до здравоохранения и транспорта. Эти технологии приносят беспрецедентные выгоды, но вместе с тем несут серьёзные риски и вызовы.
Эксперты и международные организации предупреждают, что без надлежащих этических ограничений ИИ может воспроизводить реальные предубеждения и дискриминацию, способствовать экологическому ущербу, угрожать правам человека и усиливать существующее неравенство.
В этой статье мы вместе с INVIAI рассмотрим риски использования ИИ во всех сферах и типах ИИ — от чат-ботов и алгоритмов до роботов — на основе данных из официальных и международных источников.
- 1. Предвзятость и дискриминация в системах ИИ
- 2. Опасности дезинформации и дипфейков
- 3. Угрозы конфиденциальности и массового наблюдения
- 4. Сбои в безопасности и непреднамеренный вред
- 5. Замещение рабочих мест и экономические потрясения
- 6. Преступное использование, мошенничество и угрозы безопасности
- 7. Военная милитаризация и автономное оружие
- 8. Отсутствие прозрачности и подотчётности
- 9. Концентрация власти и неравенство
- 10. Воздействие ИИ на окружающую среду
- 11. Экзистенциальные и долгосрочные риски
Предвзятость и дискриминация в системах ИИ
Одним из главных рисков ИИ является укоренение предвзятости и несправедливой дискриминации. Модели ИИ обучаются на данных, которые могут отражать исторические предрассудки или неравенства; в результате система ИИ может по-разному относиться к людям на основе расы, пола или других характеристик, что поддерживает несправедливость.
Например, «неисправно работающий универсальный ИИ может причинять вред через предвзятые решения в отношении защищённых характеристик, таких как раса, пол, культура, возраст и инвалидность», — говорится в международном отчёте по безопасности ИИ.
Предвзятые алгоритмы, используемые при найме, кредитовании или правоохранительной деятельности, уже приводили к неравным результатам, несправедливо ущемляющим определённые группы. Глобальные организации, такие как ЮНЕСКО, предупреждают, что без мер по обеспечению справедливости ИИ рискует «воспроизводить реальные предубеждения и дискриминацию, разжигать разделения и угрожать фундаментальным правам и свободам человека». Обеспечение обучения ИИ на разнообразных и репрезентативных данных и проведение аудитов на предмет предвзятости крайне важно для предотвращения автоматической дискриминации.
Опасности дезинформации и дипфейков
Способность ИИ создавать гиперреалистичные тексты, изображения и видео вызвала опасения по поводу потока дезинформации. Генеративный ИИ может создавать убедительные фальшивые новости, поддельные изображения или дипфейк-видео, которые трудно отличить от реальности.
В Глобальном отчёте о рисках 2024 Всемирного экономического форума отмечается, что «манипулированная и фальсифицированная информация» является наиболее серьёзным краткосрочным глобальным риском, при этом ИИ «усиливает распространение искажённой и манипулированной информации, которая может дестабилизировать общества».
На самом деле дезинформация и дезинформация, подпитываемые ИИ, представляют собой одну из «крупнейших угроз демократическому процессу» — особенно учитывая, что миллиарды людей готовятся голосовать на предстоящих выборах. Синтетические медиа, такие как дипфейк-видео и клонированные голоса ИИ, могут использоваться для распространения пропаганды, имитации публичных фигур или мошенничества.
Представители власти предупреждают, что злоумышленники могут использовать ИИ для масштабных кампаний дезинформации, что облегчает засорение социальных сетей фальшивым контентом и посев хаоса. Риск заключается в циничной информационной среде, где граждане не могут доверять увиденному или услышанному, что подрывает общественный дискурс и демократию.
Угрозы конфиденциальности и массового наблюдения
Широкое использование ИИ вызывает серьёзные опасения за конфиденциальность. Для эффективной работы системы ИИ часто требуют огромного объёма персональных данных — от наших лиц и голосов до покупательских привычек и местоположения. Без надёжных мер защиты эти данные могут быть использованы неправомерно или злоупотреблены.
Например, технологии распознавания лиц и предиктивные алгоритмы могут обеспечить повсеместное наблюдение, отслеживая каждое движение человека или оценивая его поведение без согласия. Глобальная рекомендация ЮНЕСКО по этике ИИ прямо предупреждает, что «системы ИИ не должны использоваться для социального рейтинга или массового наблюдения». Такие применения считаются неприемлемыми рисками.
Кроме того, анализ персональных данных с помощью ИИ может раскрывать интимные детали нашей жизни — от состояния здоровья до политических убеждений, что угрожает праву на конфиденциальность. Агентства по защите данных подчёркивают, что конфиденциальность — это «право, необходимое для защиты человеческого достоинства, автономии и свободы выбора», которое должно соблюдаться на протяжении всего жизненного цикла системы ИИ.
Если развитие ИИ опередит регулирование конфиденциальности, люди могут потерять контроль над своей информацией. Общество должно обеспечить надёжное управление данными, механизмы согласия и технологии защиты конфиденциальности, чтобы ИИ не превратился в инструмент бесконтрольного наблюдения.
Сбои в безопасности и непреднамеренный вред
Хотя ИИ может автоматизировать решения и физические задачи с сверхчеловеческой эффективностью, он также может сбоить непредсказуемым образом, приводя к реальному вреду. Мы доверяем ИИ всё более ответственные задачи, связанные с безопасностью — например, управление автомобилями, диагностика пациентов или управление энергосистемами — но эти системы не безупречны.
Сбои, ошибочные обучающие данные или непредвиденные ситуации могут привести к опасным ошибкам. ИИ в автономном автомобиле может неправильно распознать пешехода, а медицинская система — назначить неверное лечение с потенциально смертельными последствиями.
Международные рекомендации подчёркивают, что нежелательный вред и риски безопасности от ИИ должны предвидеться и предотвращаться: «Нежелательный вред (риски безопасности), а также уязвимости к атакам (риски безопасности) должны избегаться и устраняться на протяжении всего жизненного цикла систем ИИ для обеспечения безопасности человека, окружающей среды и экосистем».
Иными словами, системы ИИ должны проходить тщательное тестирование, мониторинг и оснащаться средствами защиты от сбоев, чтобы минимизировать вероятность ошибок. Чрезмерное доверие к ИИ также опасно — если люди слепо полагаются на автоматические решения, они могут не вмешаться вовремя при возникновении проблем.
Поэтому крайне важно обеспечить человеческий контроль. В критически важных сферах (например, здравоохранении или транспорте) окончательные решения должны оставаться за человеком, и, как отмечает ЮНЕСКО, «решения о жизни и смерти не должны передаваться системам ИИ». Обеспечение безопасности и надёжности ИИ — постоянная задача, требующая продуманного проектирования и культуры ответственности у разработчиков.
Замещение рабочих мест и экономические потрясения
Трансформационное влияние ИИ на экономику — палка о двух концах. С одной стороны, ИИ повышает производительность и создаёт новые отрасли; с другой — существует риск замещения миллионов работников из-за автоматизации.
Многие профессии — особенно связанные с рутинными, повторяющимися задачами или легко анализируемыми данными — уязвимы к замещению алгоритмами и роботами. Глобальные прогнозы тревожны: например, Всемирный экономический форум прогнозирует, что «к 2030 году будет замещено 92 миллиона рабочих мест» из-за ИИ и сопутствующих технологий.
Хотя экономика может создать новые рабочие места (возможно, даже больше, чем потеряется), переход будет болезненным для многих. Новые профессии часто требуют иных, более продвинутых навыков или сосредоточены в определённых технологических центрах, что затрудняет трудоустройство для многих уволенных работников.
Это несоответствие между навыками работников и требованиями новых профессий, связанных с ИИ, может привести к росту безработицы и неравенства, если не принять меры. Политики и исследователи предупреждают о рисках «нарушения рынка труда и неравенства экономической власти» в масштабах всей системы.
Некоторые группы пострадают сильнее — например, исследования показывают, что большая доля рабочих мест, занятых женщинами или работниками в развивающихся странах, подвержена высокому риску автоматизации. Без проактивных мер (переподготовки, обучения навыкам ИИ и социальной поддержки) ИИ может усугубить социально-экономические разрывы, создавая экономику, где выгоды получают преимущественно владельцы технологий.
Подготовка рабочей силы к влиянию ИИ критически важна для того, чтобы выгоды автоматизации были распределены справедливо и избежать социальных потрясений из-за массовой потери рабочих мест.
Преступное использование, мошенничество и угрозы безопасности
ИИ — мощный инструмент, который может использоваться как во благо, так и во вред. Киберпреступники и другие злоумышленники уже применяют ИИ для усиления своих атак.
Например, ИИ может создавать высоко персонализированные фишинговые письма или голосовые сообщения (клонируя чей-то голос), чтобы обманом заставить людей раскрыть конфиденциальную информацию или перевести деньги. Также ИИ используется для автоматизации взломов, поиска уязвимостей в программном обеспечении или создания адаптивного вредоносного ПО.
Центр безопасности ИИ выделяет злонамеренное использование ИИ как ключевую проблему, отмечая сценарии, когда преступники применяют ИИ для масштабного мошенничества и кибератак. В отчёте, заказанном правительством Великобритании, прямо говорится, что «злоумышленники могут использовать ИИ для масштабных кампаний дезинформации, мошенничества и обмана».
Скорость, масштаб и сложность, которые даёт ИИ, могут перегрузить традиционные системы защиты — представьте тысячи звонков с мошенническими сообщениями или дипфейк-видео, направленных на безопасность компании за один день.
Помимо финансовых преступлений, существует риск использования ИИ для кражи личных данных, преследования или создания вредоносного контента (например, дипфейк-порнографии без согласия или пропаганды экстремистских групп). По мере того как инструменты ИИ становятся доступнее, барьер для совершения таких преступлений снижается, что может привести к росту преступности с использованием ИИ.
Это требует новых подходов к кибербезопасности и правоохранительной деятельности, таких как системы ИИ для обнаружения дипфейков и аномального поведения, а также обновлённые правовые рамки для привлечения виновных к ответственности. По сути, мы должны понимать, что любые возможности, которые ИИ предоставляет добросовестным пользователям, могут быть использованы и преступниками — и готовиться к этому.
Военная милитаризация и автономное оружие
Возможно, самый тревожный риск ИИ связан с войной и национальной безопасностью. ИИ быстро внедряется в военные системы, что порождает перспективу автономного оружия («роботов-убийц») и принятия боевых решений на основе ИИ.
Эти технологии могут реагировать быстрее человека, но лишение человека контроля над применением смертоносной силы несёт огромные риски. Существует опасность, что оружие под управлением ИИ выберет неправильную цель или спровоцирует эскалацию конфликта непредсказуемым образом. Международные наблюдатели предупреждают, что «вооружение ИИ для военных целей» становится растущей угрозой.
Если государства начнут гонку вооружений с интеллектуальным оружием, это может привести к дестабилизирующему вооружённому соперничеству. Кроме того, ИИ может использоваться в кибервойне для автономных атак на критическую инфраструктуру или распространения пропаганды, размывая границы между миром и конфликтом.
Организация Объединённых Наций выразила обеспокоенность, что развитие ИИ в военных целях, сосредоточенное в руках немногих, «может навязываться людям без их участия в решениях о его использовании», подрывая глобальную безопасность и этику.
Автономные системы оружия также вызывают правовые и моральные дилеммы — кто несёт ответственность, если дрон под управлением ИИ случайно убьёт мирных жителей? Как такие системы соответствуют международному гуманитарному праву?
Эти вопросы остаются без ответа, что приводит к призывам к запрету или строгому регулированию некоторых видов оружия с ИИ. Обеспечение человеческого контроля над ИИ, принимающим решения о жизни и смерти, считается первоочередной задачей. Без этого риск — не только трагические ошибки на поле боя, но и утрата человеческой ответственности в войне.
Отсутствие прозрачности и подотчётности
Большинство современных систем ИИ работают как «чёрные ящики» — их внутренняя логика часто непонятна даже создателям. Отсутствие прозрачности создаёт риск, что решения ИИ нельзя объяснить или оспорить, что является серьёзной проблемой в таких сферах, как юриспруденция, финансы или здравоохранение, где объяснимость может быть юридическим или этическим требованием.
Если ИИ отказывает в кредите, ставит диагноз или решает, кто может выйти на условно-досрочное освобождение, естественно, мы хотим знать почему. Для некоторых моделей ИИ (особенно сложных нейросетей) дать чёткое объяснение сложно.
«Отсутствие прозрачности» может подорвать доверие и «также затруднить эффективное оспаривание решений, основанных на результатах работы ИИ», отмечает ЮНЕСКО, «и тем самым нарушить право на справедливое судебное разбирательство и эффективное средство правовой защиты».
Иными словами, если ни пользователи, ни регуляторы не могут понять, как ИИ принимает решения, становится практически невозможно привлечь кого-либо к ответственности за ошибки или предвзятость.
Этот пробел в подотчётности — серьёзный риск: компании могут уклоняться от ответственности, обвиняя «алгоритм», а пострадавшие останутся без защиты. Для борьбы с этим эксперты выступают за объяснимый ИИ, тщательный аудит и нормативные требования, чтобы решения ИИ можно было отследить до человеческого авторитета.
Международные этические нормы настаивают, что «всегда должна быть возможность возложить этическую и юридическую ответственность» за поведение систем ИИ на человека или организацию. Люди должны оставаться в конечном итоге ответственными, а ИИ — помогать, а не заменять человеческое суждение в чувствительных вопросах. Иначе мы рискуем создать мир, где важные решения принимают непостижимые машины — рецепт несправедливости.
Концентрация власти и неравенство
Революция ИИ происходит неравномерно по всему миру — небольшое число корпораций и стран доминируют в разработке передового ИИ, что само по себе несёт риски.
Современные модели ИИ требуют огромных объёмов данных, талантов и вычислительных ресурсов, которыми обладают лишь технологические гиганты и хорошо финансируемые правительства. Это привело к «высококонцентрированной, единой, глобально интегрированной цепочке поставок, которая благоприятствует нескольким компаниям и странам», согласно Всемирному экономическому форуму.
Такая концентрация власти в области ИИ может привести к монополистическому контролю над технологиями ИИ, ограничивая конкуренцию и выбор потребителей. Это также повышает риск того, что приоритеты этих немногих компаний или стран будут формировать ИИ таким образом, что не будут учитывать интересы широкой общественности.
Организация Объединённых Наций отмечает «опасность того, что технология [ИИ] может навязываться людям без их участия в решениях о её использовании», когда разработка сосредоточена в руках немногих.
Этот дисбаланс может усугубить глобальное неравенство: богатые страны и компании опережают остальных, используя ИИ, в то время как бедные сообщества лишены доступа к современным инструментам и страдают от потери рабочих мест без получения преимуществ ИИ. Кроме того, концентрированная индустрия ИИ может подавлять инновации (если новички не могут конкурировать с ресурсами лидеров) и создавать риски безопасности (если критическая инфраструктура ИИ контролируется немногими, это становится единой точкой отказа или манипуляции).
Для решения этой проблемы необходимы международное сотрудничество и, возможно, новые регуляции для демократизации разработки ИИ — например, поддержка открытых исследований, обеспечение справедливого доступа к данным и вычислительным ресурсам, а также разработка политик (как, например, предлагаемый в ЕС Закон об ИИ) для предотвращения злоупотреблений со стороны «вратарей ИИ». Более инклюзивный ландшафт ИИ поможет обеспечить, чтобы выгоды от ИИ распределялись по всему миру, а не увеличивали разрыв между технологическими лидерами и отстающими.
Воздействие ИИ на окружающую среду
Часто упускается из виду экологический след ИИ. Разработка ИИ, особенно обучение больших моделей машинного обучения, требует огромных затрат электроэнергии и вычислительных ресурсов.
Центры обработки данных, заполненные тысячами энергоёмких серверов, необходимы для обработки огромных объёмов данных, на которых обучаются системы ИИ. Это означает, что ИИ косвенно способствует выбросам углерода и изменению климата.
Недавний отчёт агентства ООН показал, что косвенные выбросы углерода четырёх ведущих технологических компаний, ориентированных на ИИ, выросли в среднем на 150% с 2020 по 2023 год, в основном из-за энергетических потребностей центров обработки данных ИИ.
По мере роста инвестиций в ИИ ожидается резкий рост выбросов от работы моделей ИИ — в отчёте прогнозируется, что ведущие системы ИИ могут в совокупности выбрасывать более 100 миллионов тонн CO₂ в год, что создаст значительную нагрузку на энергетическую инфраструктуру.
Для сравнения, центры обработки данных, поддерживающие ИИ, увеличивают потребление электроэнергии «в четыре раза быстрее, чем общий рост потребления электроэнергии».
Помимо выбросов углерода, ИИ также потребляет воду для охлаждения и производит электронные отходы из-за быстрого обновления оборудования. Если не контролировать, экологическое воздействие ИИ может подорвать глобальные усилия по устойчивому развитию.
Этот риск требует повышения энергоэффективности ИИ и использования более чистых источников энергии. Исследователи разрабатывают «зелёные» методы ИИ для снижения энергопотребления, а некоторые компании взяли на себя обязательства компенсировать углеродный след ИИ. Тем не менее, это остаётся актуальной проблемой, поскольку гонка за ИИ может иметь серьёзную экологическую цену. Балансирование технологического прогресса и экологической ответственности — ещё одна задача, которую обществу предстоит решить при повсеместном внедрении ИИ.
Экзистенциальные и долгосрочные риски
Помимо непосредственных рисков, некоторые эксперты предупреждают о более спекулятивных, долгосрочных рисках ИИ — включая возможность появления продвинутого ИИ, выходящего из-под контроля человека. Хотя современные системы ИИ узкоспециализированы, исследователи активно работают над созданием универсального ИИ, который потенциально может превзойти человека во многих областях.
Это порождает сложные вопросы: если ИИ станет значительно умнее или автономнее, может ли он действовать так, что поставит под угрозу существование человечества? Хотя это звучит как научная фантастика, известные представители технологического сообщества выражают обеспокоенность по поводу сценариев «бунтарского ИИ», и правительства серьёзно обсуждают эту тему.
В 2023 году Великобритания провела глобальный саммит по безопасности ИИ, чтобы обсудить риски передового ИИ. Научный консенсус неоднороден — одни считают, что суперразумный ИИ появится через десятилетия или его можно будет согласовать с человеческими ценностями, другие видят небольшую, но реальную вероятность катастрофических последствий.
Недавний международный отчёт по безопасности ИИ отметил, что «эксперты имеют разные взгляды на риск потери контроля человечеством над ИИ, что может привести к катастрофическим последствиям».
По сути, признаётся, что экзистенциальный риск от ИИ, каким бы отдалённым он ни был, нельзя полностью исключать. Такой исход может означать, что ИИ будет преследовать свои цели в ущерб благополучию человека (классический пример — ИИ, который при неправильном программировании решит нанести масштабный вред из-за отсутствия здравого смысла или моральных ограничений).
Хотя сегодня ни один ИИ не обладает такой степенью автономии, темпы развития ИИ быстры и непредсказуемы, что само по себе является фактором риска. Подготовка к долгосрочным рискам требует инвестиций в исследования по согласованию ИИ (чтобы цели ИИ оставались совместимыми с человеческими ценностями), установления международных соглашений по исследованиям ИИ с высоким риском (аналогично договорам о ядерном или биологическом оружии) и сохранения человеческого контроля по мере роста возможностей ИИ.
Будущее ИИ обещает огромные возможности, но также и неопределённость — и благоразумие требует учитывать даже маловероятные, но масштабные риски в долгосрочном планировании.
>>> Нажмите, чтобы узнать больше: Преимущества ИИ для частных лиц и бизнеса
ИИ часто сравнивают с мощным двигателем, который может привести человечество вперёд — но без тормозов и руля этот двигатель может свернуть с курса. Как мы видели, риски использования ИИ многообразны: от непосредственных проблем, таких как предвзятые алгоритмы, фейковые новости, вторжение в личную жизнь и потеря рабочих мест, до более широких общественных вызовов — угроз безопасности, «чёрных ящиков» в принятии решений, монополий крупных технологических компаний, экологической нагрузки и даже отдалённой угрозы потери контроля над суперразумным ИИ.
Эти риски не означают, что нужно останавливать развитие ИИ; напротив, они подчёркивают острую необходимость ответственного управления ИИ и этических практик.
Правительства, международные организации, лидеры отрасли и исследователи всё активнее сотрудничают для решения этих проблем — например, через такие рамки, как американская Рамочная программа управления рисками ИИ NIST (для повышения доверия к ИИ), глобальная Рекомендация ЮНЕСКО по этике ИИ и Закон об ИИ Европейского союза.
Эти усилия направлены на максимизацию преимуществ ИИ при минимизации его недостатков, чтобы ИИ служил человечеству, а не наоборот. В конечном счёте понимание рисков ИИ — первый шаг к их эффективному управлению. Оставаясь информированными и вовлечёнными в процесс разработки и использования ИИ, мы можем помочь направить эту трансформирующую технологию в безопасное, справедливое и полезное русло для всех.