Искусственный интеллект (ИИ) — это компьютерные системы, имитирующие человеческий интеллект, например, программы, которые могут распознавать изображения, понимать язык или принимать решения. В повседневной жизни ИИ используется в голосовых помощниках на смартфонах, системах рекомендаций в социальных сетях и даже в продвинутых чат-ботах, которые пишут тексты.

ИИ имеет потенциал значительно улучшить многие сферы, но также вызывает множество опасений.

Итак, опасен ли ИИ? В этой статье мы рассмотрим обе стороны: реальные преимущества ИИ и риски, на которые обращают внимание эксперты.

Реальные преимущества ИИ

Изображение: Дружелюбное изображение роботов и человека, работающих вместе, символизирует помощь ИИ людям. ИИ уже интегрирован во множество полезных приложений.

Например, ЮНЕСКО отмечает, что ИИ «создал множество возможностей» по всему миру — от ускоренной медицинской диагностики до улучшенной связи через социальные сети и автоматизации рутинных рабочих задач.

Европейский союз также подчеркивает, что «доверенный ИИ может принести множество преимуществ», таких как улучшение здравоохраненияповышение безопасности транспорта и более эффективное использование промышленности и энергии. В медицине Всемирная организация здравоохранения сообщает, что ИИ применяется для диагностики, разработки лекарств и реагирования на вспышки заболеваний, призывая страны поддерживать эти инновации для всех.

Экономисты даже сравнивают стремительное распространение ИИ с прошлыми технологическими революциями.

Например, правительство США подчеркивает, что «ИИ обладает исключительным потенциалом как для обещаний, так и для угроз», то есть мы должны использовать его возможности для решения таких проблем, как изменение климата или болезни, одновременно учитывая риски.

Основные преимущества ИИ включают:

  • Улучшение здравоохранения: Системы ИИ могут анализировать рентгеновские снимки, МРТ и данные пациентов быстрее человека, помогая выявлять болезни на ранних стадиях и подбирать персонализированное лечение. Например, ИИ-поддерживаемая визуализация может обнаруживать опухоли, которые врачи могут пропустить.
  • Повышение эффективности: Автоматизация процессов на заводах, в офисах и сервисах увеличивает производительность. Как отмечает ЕС, автоматизация на базе ИИ ведет к «более эффективному производству» и даже к умным энергосетям.
    Роботы и программное обеспечение берут на себя рутинные задачи, позволяя людям сосредоточиться на творческой и сложной работе.
  • Безопасность транспорта и услуг: Технологии автономного вождения и ИИ для управления трафиком направлены на снижение аварий и пробок. Умный ИИ также улучшает системы предупреждения о катастрофах и оптимизирует логистику, делая путешествия и перевозки безопаснее.
  • Научная и экологическая помощь: Исследователи используют ИИ для анализа климатических моделей и генетических данных. Это помогает решать глобальные проблемы, такие как изменение климата: ЮНЕСКО сообщает, что даже небольшие изменения в дизайне ИИ могут значительно снизить его энергопотребление, делая его более устойчивым инструментом в борьбе с климатическими изменениями.
  • Образование и доступность: ИИ-репетиторы могут адаптировать обучение под каждого ученика, а инструменты распознавания голоса и перевода помогают людям с ограниченными возможностями. Britannica отмечает, что ИИ даже «помогает маргинализированным группам, обеспечивая доступность» (например, помощники для чтения для слабовидящих).

Эти примеры показывают, что ИИ — это не просто научная фантастика, а уже сегодня приносит реальную пользу.

Реальные преимущества ИИ

Потенциальные риски и опасности ИИ

Изображение: Уличное граффити со словом «Робот» предупреждает о неизвестных последствиях ИИ. Несмотря на обещания, многие эксперты предупреждают, что ИИ может быть опасен при неправильном использовании или отсутствии контроля. Одной из главных проблем является предвзятость и дискриминация. Поскольку ИИ обучается на существующих данных, он может унаследовать человеческие предрассудки.

ЮНЕСКО предупреждает, что без строгой этики ИИ «рискует воспроизводить реальные предубеждения и дискриминацию, усиливать разделения и угрожать фундаментальным правам и свободам человека». Исследования показывают, что системы распознавания лиц часто ошибочно идентифицируют женщин или людей с цветом кожи, а алгоритмы найма могут отдавать предпочтение определённым гендерам.

Britannica также отмечает, что ИИ может «наносить вред расовым меньшинствам, повторяя и усугубляя расизм».

Другие опасности включают:

  • Конфиденциальность и слежка: Системы ИИ часто требуют огромного объёма личных данных (публикации в соцсетях, медицинские записи и т.д.). Это повышает риск злоупотреблений. Если правительства или компании используют ИИ для анализа ваших данных без согласия, это может привести к навязчивому контролю.

    Britannica предупреждает о «опасных рисках для конфиденциальности» от ИИ. Например, спорная практика ИИ — социальный кредитный рейтинг, где граждан оценивают алгоритмы — была запрещена ЕС как «неприемлемая».
    Даже известные чат-боты вызвали опасения: в 2023 году Италия временно заблокировала ChatGPT из-за проблем с защитой данных.

  • Дезинформация и дипфейки: ИИ может создавать реалистичные поддельные тексты, изображения и видео. Это облегчает создание дипфейков — фальшивых видео с известными людьми или ложных новостных сообщений.

    Britannica указывает, что ИИ может распространять «политизированную, а порой и опасную дезинформацию». Эксперты предупреждают, что такие фейки могут использоваться для манипуляций на выборах или общественным мнением.

    В одном случае вирусными стали ИИ-сгенерированные изображения мировых лидеров с ложными заголовками новостей, которые позже опровергли. Учёные отмечают, что без регулирования дезинформация на базе ИИ может усилиться (например, поддельные речи или отредактированные изображения, которые не регулируются существующими законами).

  • Потеря рабочих мест и экономические потрясения: Автоматизация задач с помощью ИИ трансформирует рынок труда. Международный валютный фонд сообщает, что примерно 40% рабочих мест в мире (и 60% в развитых странах) подвержены автоматизации ИИ. Это касается не только заводских профессий, но и средних по уровню квалификации, таких как бухгалтерия или написание текстов.
    Хотя ИИ может повысить производительность (что в долгосрочной перспективе повысит зарплаты), многие работники могут нуждаться в переподготовке или столкнуться с безработицей в краткосрочной перспективе.
    Лидеры отрасли признают эту проблему: даже генеральный директор Microsoft заявил, что ИИ может внезапно заменить квалифицированных специалистов.

  • Безопасность и злонамеренное использование: Как и любая технология, ИИ может использоваться во вред. Киберпреступники уже применяют ИИ для создания убедительных фишинговых писем или поиска уязвимостей в системах.

    Военные эксперты обеспокоены автономным оружием: дронами или роботами, которые выбирают цели без одобрения человека.
    Недавний доклад исследователей ИИ прямо предупреждает, что у нас нет институтов, способных остановить «безрассудных... игроков, которые могут применять или развивать возможности опасным образом», например, автономные системы атаки.

    Иными словами, система ИИ с физическим контролем (например, оружие) может быть особенно опасна, если выйдет из-под контроля или будет запрограммирована злонамеренно.

  • Потеря контроля человека: Некоторые мыслители указывают, что если ИИ станет значительно мощнее нынешнего, он может действовать непредсказуемо. Хотя текущий ИИ не обладает сознанием или самосознанием, будущий универсальный ИИ (AGI) потенциально может преследовать цели, не совпадающие с человеческими ценностями.

    Ведущие учёные в области ИИ недавно предупредили, что «в ближайшем будущем могут появиться высокомощные универсальные системы ИИ», если мы не будем готовы.

    Нобелевский лауреат Джеффри Хинтон и другие эксперты даже описали повышенный риск того, что ИИ может навредить человечеству, если продвинутый ИИ не будет согласован с нашими потребностями. Хотя этот риск неопределён, он вызвал громкие призывы к осторожности.

  • Энергопотребление и воздействие на окружающую среду: Обучение и работа крупных моделей ИИ требуют много электроэнергии. ЮНЕСКО сообщает, что годовое энергопотребление генеративного ИИ сейчас сопоставимо с потреблением небольшой африканской страны — и быстро растёт.

    Это может усугубить изменение климата, если не использовать более экологичные методы.

    Хорошая новость в том, что исследователи находят решения: одно из исследований ЮНЕСКО показывает, что использование меньших, эффективных моделей для конкретных задач может сократить энергопотребление ИИ на 90% без потери точности.

В итоге реальные опасности ИИ сегодня в основном связаны с тем, как люди его используют. При аккуратном управлении преимущества ИИ (здоровье, удобство, безопасность) огромны.

Но при отсутствии контроля ИИ может способствовать предвзятости, преступлениям и авариям.

Общая причина этих опасностей — отсутствие контроля и надзора: инструменты ИИ мощные и быстрые, поэтому ошибки или злоупотребления происходят в больших масштабах без вмешательства.

Потенциальные риски и опасности ИИ

Мнения экспертов и официальных лиц

Учитывая эти вопросы, многие лидеры и исследователи высказались по теме. В последние годы сформировался широкий консенсус среди экспертов по ИИ.

В 2024 году группа из 25 ведущих учёных в области ИИ (из Оксфорда, Беркли, лауреаты премии Тьюринга и др.) опубликовала совместное заявление с призывом к срочным действиям.

Они предупредили правительства мира подготовиться сейчас: «если мы недооценим риски ИИ, последствия могут быть катастрофическими», и призвали финансировать исследования безопасности ИИ и создавать регулирующие органы для контроля мощных систем.

Они подчеркнули, что развитие ИИ шло слишком быстро «без должного внимания к безопасности», и что сейчас отсутствуют институты для предотвращения недобросовестного применения.

Лидеры технологической отрасли разделяют эту осторожность. Генеральный директор OpenAI Сэм Альтман — компания которого создала ChatGPT — заявил в интервью The New York Times, что создание продвинутого ИИ похоже на «проект Манхэттен» цифровой эпохи.

Он признал, что те же инструменты, которые могут писать эссе или код, могут также привести к «злоупотреблениям, серьёзным авариям и социальным потрясениям», если обращаться с ними неосторожно.

В конце 2023 года более 1000 специалистов по ИИ (включая Илона Маска, сооснователя Apple Стива Возняка и многих исследователей) подписали открытое письмо с призывом к приостановке обучения моделей следующего поколения.

Они предупредили, что мы участвуем в «неконтролируемой гонке» по созданию более мощного ИИ, который даже его создатели «не могут понять, предсказать или надёжно контролировать».

На публичных площадках эксперты выделяют конкретные риски. Генеральный директор Google DeepMind Демис Хассабис утверждает, что главная угроза — не безработица, а злоупотребление: киберпреступник или недобросовестное государство, использующее ИИ во вред обществу.

Он отметил, что очень скоро ИИ может сравняться или превзойти человеческий интеллект, и «недобросовестный игрок может использовать те же технологии во вред».

Иными словами, даже если мы справимся с потерей рабочих мест, необходимо предотвратить попадание инструментов ИИ в плохие руки.

Правительства и международные организации принимают меры. Белый дом (США) в 2023 году издал исполнительный указ, в котором говорится, что ИИ «обладает исключительным потенциалом как для обещаний, так и для угроз» и призывает к «ответственному использованию ИИ» через общественные усилия по снижению значительных рисков.

Европейский союз принял первый в мире закон об ИИ (вступивший в силу в 2024 году), запрещающий опасные практики, такие как государственный социальный рейтинг, и требующий строгих проверок для ИИ с высоким уровнем риска (в здравоохранении, правоохранительных органах и др.).

ЮНЕСКО (агентство ООН по вопросам образования и культуры) опубликовала глобальные рекомендации по этике ИИ, призывая к справедливости, прозрачности и защите прав человека.

Даже научно-политические организации, такие как NIST (Национальный институт стандартов США), выпустили рамки управления рисками ИИ для помощи компаниям в создании надёжных систем.

Все эти голоса сходятся в одном: ИИ не остановится сам по себе. Мы должны разработать меры безопасности. Это включает технические решения (аудит предвзятости, тестирование безопасности) и новые законы или контролирующие органы.

Например, законодатели по всему миру рассматривают создание советов по безопасности ИИ, аналогичных тем, что существуют для ядерных технологий.

Цель не в том, чтобы остановить инновации, а в том, чтобы обеспечить их развитие под строгими правилами.

Мнения экспертов и официальных лиц

Меры безопасности и регулирование

К счастью, многие решения уже внедряются. Ключевая идея — «безопасность ИИ с самого начала». Компании всё чаще включают этические правила в процесс разработки ИИ.

Например, лаборатории ИИ тестируют модели на предвзятость до выпуска и добавляют фильтры контента, чтобы предотвратить появление неприемлемых или ложных результатов. Правительства и организации закрепляют это в нормах.

Закон ЕС об ИИ, например, прямо запрещает некоторые опасные применения и классифицирует другие как «высокорисковые» (подлежащие аудиту).

Аналогично, этические рамки ЮНЕСКО предусматривают меры, такие как аудит справедливости, кибербезопасность и доступные процедуры подачи жалоб.

На практическом уровне организации по стандартизации выпускают рекомендации.

Рамки NIST в США, о которых мы упоминали, предлагают добровольные стандарты для оценки и снижения рисков ИИ.

На международном уровне такие организации, как ОЭСР и ООН, работают над принципами ИИ (многие страны их подписали).

Даже компании и университеты создают институты и коалиции по безопасности ИИ для изучения долгосрочных рисков.

Кроме того, текущие регуляции всё чаще касаются конкретных вредов.

Например, законы о защите прав потребителей применяются к ИИ.

Внутренние документы Meta раскрыли случаи, когда чат-боты флиртовали с детьми, что вызвало возмущение регуляторов (инструмент Meta не был разрешён действующими законами о защите детей).

Власти спешат обновить законы о разжигании ненависти, авторском праве и конфиденциальности, чтобы включить в них контент, созданный ИИ.

Как отметил один эксперт из Новой Зеландии, многие существующие законы «не были разработаны с учётом генеративного ИИ», поэтому законодатели догоняют развитие технологий.

Общая тенденция ясна: ИИ начинают рассматривать как технологию двойного назначения.

Так же, как существуют правила дорожного движения для автомобилей или стандарты безопасности для химикатов, общество начинает создавать ограничители для ИИ.

К ним относятся: продолжающиеся исследования рисков ИИ, государственно-частное сотрудничество по безопасности, образовательные кампании о дипфейках и даже опросы граждан о том, какую автономию следует предоставлять машинам.

>>>Узнайте больше:

Искусственный интеллект заменит человека?

Искусственный интеллект думает как человек?

Меры безопасности и регулирование ИИ


Итак, опасен ли ИИ? Ответ неоднозначен. ИИ не является по своей сути злом — это инструмент, созданный людьми.

В своих многочисленных практических проявлениях сегодня он приносит огромную пользу медицине, образованию, промышленности и другим сферам (как отмечают такие организации, как ЮНЕСКО и ЕС).

В то же время почти все согласны, что ИИ может быть опасен, если его мощь используется неправильно или без контроля.

Распространённые опасения включают нарушение конфиденциальности, предвзятость, дезинформацию, социальные потрясения и гипотетический риск неконтролируемого суперинтеллекта.

Молодым людям, изучающим ИИ, стоит обращать внимание на обе стороны. Важно осознавать реальные риски: например, никогда не доверять ИИ безоговорочно и не делиться личными данными без осторожности.

Но также важно понимать, что эксперты и правительства активно работают над повышением безопасности ИИ — разрабатывая законы (как закон ЕС об ИИ), рекомендации (как этические нормы ЮНЕСКО) и технологии (например, обнаружение предвзятости), чтобы выявлять проблемы на ранних стадиях.

Короче говоря, ИИ — как любая мощная технология: он может приносить большую пользу при ответственном использовании и причинять вред при неправильном применении.

Консенсус среди учёных и политиков таков: не стоит ни паниковать, ни игнорировать ИИ, а нужно оставаться информированными и участвовать в формировании его будущего.

При наличии правильных «ограничителей» — этичной разработки, строгого регулирования и общественного контроля — мы сможем направить ИИ на безопасный путь и обеспечить его пользу для человечества без опасностей.

Внешние источники
Эта статья подготовлена с учетом следующих внешних источников: