Искусственный интеллект (ИИ) сегодня стал неотъемлемой частью современной жизни, присутствуя во всех сферах — от бизнеса до здравоохранения. Однако немногие знают, что история развития ИИ началась в середине XX века и прошла через множество взлётов и падений, прежде чем достичь сегодняшних впечатляющих успехов.
В этой статье INVIAI представит подробный обзор истории становления и развития ИИ — от первых идей, через периоды «зимы ИИ» с серьёзными трудностями, до революции глубокого обучения и взрывного роста генеративного ИИ в 2020-х годах.
1950-е годы: Начало искусственного интеллекта
1950-е считаются официальным стартом отрасли ИИ. В 1950 году математик Алан Тьюринг опубликовал статью «Computing Machinery and Intelligence», в которой предложил знаменитый тест для оценки способности машины мыслить — впоследствии известный как тест Тьюринга. Это стало важной вехой, заложившей идею о том, что компьютеры могут «думать» как люди и создало теоретическую основу для ИИ.
В 1956 году термин «Artificial Intelligence» (искусственный интеллект) был официально введён. Летом того года учёный в области вычислительной техники Джон Маккарти (Дартмутский колледж) вместе с коллегами — Марвином Мински, Натаном Рочестером (IBM) и Клодом Шенноном — организовал историческую конференцию в Дартмуте.
Маккарти предложил термин «искусственный интеллект» (ИИ) для этой конференции, и событие Дартмута 1956 года часто рассматривается как рождение области ИИ. Здесь смелые учёные заявили, что «все аспекты обучения и интеллекта могут быть смоделированы машинами», поставив амбициозную цель для новой отрасли.
В конце 1950-х годов было достигнуто множество первых успехов в ИИ. В 1951 году были созданы первые программы ИИ для компьютера Ferranti Mark I — примечательны программы игры в шашки Кристофера Стрейчи и шахматы Дитриха Принца, что стало первым случаем, когда машина научилась интеллектуальной игре.
В 1955 году Артур Самуэль из IBM разработал программу для игры в шашки с возможностью обучаться на опыте, ставшей одним из первых примеров машинного обучения. В этот же период Аллен Ньюэлл, Герберт Саймон и их команда создали программу Logic Theorist (1956), способную автоматически доказывать математические теоремы, демонстрируя, что машины могут выполнять логические рассуждения.
Помимо алгоритмов, в 1950-х появились инструменты и языки программирования, специально предназначенные для ИИ. В 1958 году Джон Маккарти изобрёл язык Lisp — язык программирования, разработанный специально для ИИ, который быстро стал популярным среди разработчиков. В том же году психолог Фрэнк Розенблатт представил Перцептрон — первую модель искусственной нейронной сети, способную обучаться на данных. Перцептрон считается основой современных нейронных сетей.
В 1959 году Артур Самуэль впервые использовал термин «machine learning» (машинное обучение) в своей ключевой статье, описывая, как компьютер можно запрограммировать обучаться и улучшать свои навыки игры, превосходя даже создателей программ. Эти достижения породили сильный оптимизм: пионеры верили, что в течение нескольких десятилетий машины смогут достичь человеческого интеллекта.
1960-е годы: Первые шаги вперёд
В 1960-х ИИ продолжал развиваться с множеством заметных проектов и изобретений. Ведущие университеты (MIT, Стэнфорд, Карнеги-Меллон и др.) создавали лаборатории ИИ, привлекая внимание и финансирование. Компьютеры становились мощнее, что позволяло экспериментировать с более сложными идеями ИИ, чем в предыдущем десятилетии.
Одним из значимых достижений стало создание первой программы-чатбота. В 1966 году Джозеф Вейценбаум из MIT создал ELIZA — программу, имитирующую диалог с пользователем в роли психотерапевта. ELIZA была очень простой (основанной на распознавании ключевых слов и шаблонных ответах), но удивительно многие пользователи ошибочно считали, что ELIZA действительно «понимает» и испытывает эмоции. Успех ELIZA не только открыл путь современным чатботам, но и поставил вопрос о склонности людей приписывать эмоции машинам.
Параллельно появился первый интеллектуальный робот. В период 1966–1972 Стэнфордский исследовательский институт (SRI) разработал Shakey — первого мобильного робота с самосознанием и планированием действий, а не просто выполняющего отдельные команды. Shakey был оснащён датчиками и камерами для автономного перемещения и мог анализировать задачи, разбивая их на базовые шаги, такие как поиск пути, толкание препятствий, подъём по склону и т.д. Это был первый интегрированный робот с компьютерным зрением, обработкой естественного языка и планированием, заложивший основы робототехники ИИ.
Американская ассоциация искусственного интеллекта (AAAI) также была основана в этот период (предшественником стала конференция IJCAI 1969, а сама AAAI — с 1980 года), что свидетельствовало о растущем сообществе исследователей ИИ.
Кроме того, 1960-е отметились развитием экспертных систем и базовых алгоритмов. В 1965 году Эдвард Фейгенбаум и коллеги создали DENDRAL — первую в мире экспертную систему, предназначенную для помощи химикам в анализе структуры молекул на основе экспериментальных данных, моделируя знания и мышление экспертов. Успех DENDRAL показал, что компьютеры могут решать сложные специализированные задачи, заложив фундамент для взрывного роста экспертных систем в 1980-х.
Также в 1972 году в Университете Марселя был разработан язык программирования Prolog, ориентированный на логический ИИ и реляционные правила. Важной вехой стало издание в 1969 году книги «Perceptrons» Марвина Мински и Сеймура Паперта, в которой были показаны математические ограничения однослойных перцептронов (например, неспособность решить простую задачу XOR), что вызвало серьёзные сомнения в перспективах нейронных сетей.
Многие спонсоры потеряли веру в обучение нейронных сетей, и исследования в этой области начали угасать в конце 1960-х. Это стало первым признаком «охлаждения» энтузиазма в ИИ после более чем десятилетия оптимизма.
1970-е годы: Испытания и первая «зима ИИ»
В 1970-х ИИ столкнулся с реальными трудностями: многие ожидания предыдущего десятилетия не оправдались из-за ограничений вычислительной мощности, данных и научных знаний. В результате доверие и финансирование ИИ резко сократились в середине 1970-х — этот период позже назвали первой «зимой ИИ».
В 1973 году сэр Джеймс Лайтхилл подлил масла в огонь, опубликовав отчёт «Artificial Intelligence: A General Survey», в котором критически оценил прогресс исследований ИИ. Отчёт Лайтхилла заключал, что исследователи ИИ «обещали слишком много, но сделали слишком мало», особенно критикуя неспособность компьютеров понимать язык и видеть, как ожидалось.
Этот отчёт привёл к тому, что правительство Великобритании сократило почти все бюджеты на ИИ. В США агентства, такие как DARPA, переключились на более практичные проекты. В итоге с середины 1970-х до начала 1980-х отрасль ИИ практически замерла, с малым количеством прорывных работ и серьёзным дефицитом финансирования. Это и есть первая «зима ИИ» — термин, введённый в 1984 году для обозначения периода затишья в исследованиях ИИ.
Несмотря на трудности, 1970-е принесли несколько светлых моментов в исследованиях ИИ. Экспертные системы продолжали развиваться в академической среде, особенно MYCIN (1974) — медицинская экспертная система для диагностики инфекций крови, созданная Тедом Шортлиффом в Стэнфорде. MYCIN использовал набор правил вывода для рекомендаций по лечению и достиг высокой точности, демонстрируя практическую ценность экспертных систем в узких областях.
Кроме того, язык Prolog (выпущенный в 1972 году) начал применяться для задач обработки языка и логики, став важным инструментом для логического ИИ. В робототехнике в 1979 году группа из Стэнфорда успешно разработала Stanford Cart — первый роботизированный автомобиль, способный самостоятельно передвигаться по комнате с препятствиями без дистанционного управления. Этот небольшой успех заложил основу для будущих исследований в области автономных транспортных средств.
В целом, к концу 1970-х исследования ИИ вошли в состояние затишья. Многие учёные переключились на смежные области, такие как машинное обучение, статистика, робототехника и компьютерное зрение, чтобы продолжать работу.
ИИ перестал быть «звездой» предыдущего десятилетия и превратился в узкую область с небольшим количеством заметных достижений. Этот период напомнил исследователям, что искусственный интеллект гораздо сложнее, чем предполагалось, и требует более фундаментальных подходов, а не только имитации логических рассуждений.
1980-е годы: Экспертные системы — подъём и спад
В начале 1980-х ИИ пережил возрождение, иногда называемое «ренессансом ИИ». Это было связано с коммерческим успехом экспертных систем и возобновлением интереса со стороны правительств и бизнеса. Компьютеры становились мощнее, и сообщество верило, что можно постепенно реализовать идеи ИИ в узких областях.
Одним из драйверов стали коммерческие экспертные системы. В 1981 году компания Digital Equipment Corporation внедрила XCON (Expert Configuration) — экспертную систему для конфигурации компьютерных систем, сэкономившую компании десятки миллионов долларов. Успех XCON стимулировал волну развития экспертных систем в бизнесе для поддержки принятия решений. Многие технологические компании инвестировали в создание «оболочек» экспертных систем, позволяющих предприятиям самостоятельно создавать свои решения.
Язык Lisp вышел из лабораторий с появлением машин Lisp — специализированного оборудования для запуска программ ИИ. В начале 1980-х появилось множество стартапов по производству Lisp-машин (Symbolics, Lisp Machines Inc.), что вызвало инвестиционный бум и стало «эрой Lisp-машин» для ИИ.
Крупные правительства также активно финансировали ИИ. В 1982 году Япония запустила проект компьютеров пятого поколения с бюджетом 850 миллионов долларов для разработки интеллектуальных компьютеров на основе логики и Prolog. Аналогично, США (DARPA) усилили поддержку исследований ИИ в условиях технологического соперничества с Японией. Основные направления финансирования включали экспертные системы, обработку естественного языка и базы знаний, с целью создания превосходящих интеллектуальных компьютеров.
На фоне нового оптимизма искусственные нейронные сети также начали тихо возрождаться. В 1986 году исследователь Джеффри Хинтон и коллеги опубликовали алгоритм обратного распространения ошибки (backpropagation) — эффективный метод обучения многослойных нейронных сетей, решающий основные ограничения, описанные в книге Perceptrons (1969).
Хотя идея обратного распространения была предложена ещё в 1970 году, только в середине 1980-х она получила широкое применение благодаря возросшей вычислительной мощности. Алгоритм backpropagation быстро вызвал вторую волну исследований нейронных сетей. Тогда же возникла вера в возможность обучения глубоких нейронных сетей, что стало предпосылкой для глубокого обучения (deep learning) в будущем.
Молодые исследователи, такие как Янн Лекун (Франция) и Йошуа Бенджио (Канада), присоединились к движению нейронных сетей, успешно разрабатывая модели распознавания рукописного текста к концу десятилетия.
Однако второй подъём ИИ оказался недолгим. В конце 1980-х отрасль вновь столкнулась с кризисом из-за неудовлетворительных результатов. Экспертные системы, хоть и полезные в узких сферах, проявили серьёзные недостатки: они были жёсткими, плохо масштабируемыми и требовали постоянного ручного обновления знаний.
Многие крупные проекты экспертных систем провалились, а рынок Lisp-машин рухнул из-за конкуренции с более дешёвыми персональными компьютерами. В 1987 году индустрия Lisp практически обанкротилась. Вложения в ИИ резко сократились во второй половине 1980-х, что привело ко второй «зиме ИИ». Термин «AI winter», введённый в 1984 году, подтвердился, когда многие ИИ-компании закрылись в 1987–1988 годах. Снова отрасль ИИ вошла в фазу спада, заставляя исследователей корректировать ожидания и стратегии.
Итогом 1980-х стала волна подъёма и спада ИИ. Экспертные системы впервые внедрили ИИ в промышленность, но показали ограничения подхода на основе фиксированных правил. Тем не менее, этот период породил множество ценных идей и инструментов — от нейронных алгоритмов до первых баз знаний. Были сделаны дорогостоящие уроки о необходимости избегать чрезмерного оптимизма, что подготовило почву для более взвешенного развития в следующем десятилетии.
1990-е годы: Возвращение ИИ к практике
После «зимы ИИ» конца 1980-х доверие к ИИ постепенно восстанавливалось в 1990-х благодаря ряду практических достижений. Вместо амбициозного сильного ИИ (универсального искусственного интеллекта) исследователи сосредоточились на слабом ИИ — применении ИИ к конкретным задачам, где он начал показывать впечатляющие результаты. Многие области, выделившиеся из ИИ ранее (например, распознавание речи, компьютерное зрение, алгоритмы поиска, базы знаний), развивались самостоятельно и широко применялись.
Важной вехой стал май 1997 года, когда компьютер Deep Blue компании IBM победил чемпиона мира по шахматам Гарри Каспарова в официальном матче. Это было первым случаем, когда система ИИ выиграла у чемпиона мира в сложной интеллектуальной игре, вызвав сенсацию.
Победа Deep Blue — основанная на алгоритмах поиска brute-force с использованием базы данных дебютов — продемонстрировала огромную вычислительную мощь и специализированные техники, позволяющие машинам превосходить людей в определённых задачах. Это событие ознаменовало великолепное возвращение ИИ в медиа и возродило интерес к исследованиям после долгого затишья.
ИИ 1990-х достиг прогресса и в других областях. В играх в 1994 году программа Chinook полностью решила игру в шашки на уровне чемпиона, заставив признать, что человек не может победить машину.
В области распознавания речи появились коммерческие системы, такие как Dragon Dictate (1990), а к концу десятилетия программное обеспечение для распознавания речи стало широко использоваться на персональных компьютерах. Распознавание рукописного текста также интегрировалось в персональные цифровые помощники (PDA) с постоянно растущей точностью.
Приложения компьютерного зрения начали внедряться в промышленности — от контроля качества компонентов до систем безопасности. Даже машинный перевод, который ранее вызывал разочарование в 1960-х, достиг заметного прогресса с системой SYSTRAN, поддерживающей автоматический перевод множества языков для Европейского союза.
Другим важным направлением стали машинное обучение и нейронные сети для анализа больших данных. В 1990-х произошёл взрыв Интернета, породивший огромные объёмы цифровых данных. Техники data mining и машинного обучения (деревья решений, нейронные сети, скрытые марковские модели и др.) стали использоваться для анализа веб-данных, оптимизации поисковых систем и персонализации контента.
Термин «наука о данных» ещё не был широко распространён, но на практике ИИ уже проникал в программные системы, улучшая производительность на основе обучения на пользовательских данных (например, фильтры спама, рекомендации в электронной коммерции). Эти небольшие, но значимые успехи помогли восстановить доверие к ИИ среди бизнеса и общества.
Можно сказать, что 1990-е были периодом тихого, но устойчивого внедрения ИИ в жизнь. Вместо громких заявлений о человеческом интеллекте, разработчики сосредоточились на решении конкретных задач. В результате ИИ стал частью многих технологических продуктов конца XX века, часто незаметно для пользователей — от игр и программ до электронных устройств. Этот период также подготовил важную базу данных и алгоритмов, позволивших ИИ взорваться в следующем десятилетии.
2000-е годы: Машинное обучение и эпоха больших данных
В XXI веке ИИ получил мощный импульс благодаря Интернету и эпохе больших данных. 2000-е ознаменовались взрывным ростом персональных компьютеров, Интернета и сенсорных устройств, создавая огромные объёмы данных. Машинное обучение, особенно методы обучения с учителем, стало ключевым инструментом для добычи «нефтяных запасов» данных.
Слоган «data is the new oil» (данные — новая нефть) стал популярным, поскольку чем больше данных, тем точнее алгоритмы ИИ. Крупные технологические компании начали строить системы сбора и обучения на пользовательских данных для улучшения продуктов: Google — для умного поиска, Amazon — для рекомендаций покупок, Netflix — для подбора фильмов. ИИ постепенно стал «мозгом» цифровых платформ.
В 2006 году произошло важное событие: Фэй-Фэй Ли, профессор Стэнфордского университета, инициировала проект ImageNet — огромную базу данных с более чем 14 миллионами тщательно размеченных изображений. Представленный в 2009 году, ImageNet стал стандартным набором данных для обучения и оценки алгоритмов компьютерного зрения, особенно для распознавания объектов на фото.
ImageNet сравнивают с «допингом», который стимулировал исследования глубокого обучения, предоставив достаточно данных для сложных моделей. Ежегодный конкурс ImageNet Challenge с 2010 года стал важной площадкой для соревнований исследовательских команд в области распознавания изображений. Именно с этого конкурса в 2012 году начался исторический прорыв ИИ (см. раздел 2010-х).
В 2000-х ИИ достиг ряда важных прикладных успехов:
- В 2005 году автономный автомобиль Стэнфорда (прозвище «Stanley») выиграл DARPA Grand Challenge — гонку по пустыне длиной 212 км. Stanley преодолел дистанцию за 6 часов 53 минуты, открыв новую эру автономных транспортных средств и привлёк внимание инвесторов, таких как Google и Uber.
- Появление виртуальных помощников на телефонах: в 2008 году приложение Google Voice Search позволило искать информацию голосом на iPhone; а в 2011 году вышел Apple Siri — голосовой помощник, интегрированный в iPhone. Siri использовал технологии распознавания речи, понимания естественного языка и подключения к веб-сервисам, став первым массовым AI-помощником.
- В 2011 году суперкомпьютер IBM Watson победил двух чемпионов в телевизионной игре Jeopardy! в США. Watson мог понимать сложные вопросы на английском и искать ответы в огромных базах данных, демонстрируя мощь ИИ в обработке естественного языка и поиске информации. Эта победа доказала, что компьютеры могут «понимать» и реагировать интеллектуально в широких областях знаний.
- Социальные сети и веб: Facebook внедрил функцию автоматического распознавания лиц и тегирования фото (около 2010 года), используя машинное обучение на пользовательских изображениях. YouTube и Google применяли ИИ для фильтрации контента и рекомендаций видео. Технологии машинного обучения незаметно работали в фоновом режиме, улучшая пользовательский опыт, зачастую оставаясь незамеченными.
Таким образом, основным драйвером ИИ в 2000-х стали данные и приложения. Традиционные алгоритмы машинного обучения, такие как регрессия, SVM, деревья решений и др., масштабировались и приносили реальную пользу.
ИИ перестал быть только предметом исследований и активно вошёл в промышленность: тема «ИИ для бизнеса» стала популярной, с множеством компаний, предлагающих решения в управлении, финансах, маркетинге и др. В 2006 году появился термин «корпоративный ИИ» (enterprise AI), подчёркивающий применение ИИ для повышения эффективности бизнеса и принятия решений.
В конце 2000-х также началось зарождение революции глубокого обучения. Исследования многослойных нейронных сетей продолжали развиваться. В 2009 году команда Эндрю Ынга из Стэнфорда объявила о применении GPU (графических процессоров) для обучения нейронных сетей, ускорив процесс в 70 раз по сравнению с обычными CPU.
Параллельные вычисления на GPU оказались идеально подходящими для матричных операций нейронных сетей, открывая путь к обучению крупных моделей глубокого обучения в 2010-х. Последние кирпичики — большие данные, мощное оборудование и улучшенные алгоритмы — были готовы, и оставалось лишь дождаться подходящего момента для новой революции ИИ.
2010-е годы: Революция глубокого обучения (Deep Learning)
Если выбирать период, когда ИИ действительно «взлетел», то это 2010-е годы. Благодаря базе данных и аппаратному обеспечению предыдущего десятилетия, искусственный интеллект вступил в эпоху глубокого обучения — многослойных нейронных сетей, достигших выдающихся результатов и побивших все рекорды в различных задачах ИИ. Мечта о машинах, «обучающихся как человеческий мозг», частично стала реальностью благодаря алгоритмам глубокого обучения.
Исторический поворот произошёл в 2012 году, когда команда Джеффри Хинтона и его учеников (Алекса Крижевского, Ильи Сутскевера) участвовала в конкурсе ImageNet Challenge. Их модель — известная как AlexNet — представляла собой 8-слойную сверточную нейронную сеть, обученную на GPU. Результат — превосходная точность, снизившая вдвое ошибку распознавания по сравнению со вторым местом.
Эта ошеломляющая победа потрясла сообщество компьютерного зрения и стала началом «бума глубокого обучения» в ИИ. В последующие годы традиционные методы распознавания изображений были практически полностью заменены глубокими нейронными сетями.
Успех AlexNet подтвердил, что при достаточном объёме данных (ImageNet) и вычислительных ресурсах (GPU) глубокие нейронные сети могут значительно превосходить другие методы ИИ. Хинтон и его команда быстро были приглашены в Google, а глубокое обучение стало самой горячей темой в исследованиях ИИ.
Глубокое обучение революционизировало не только компьютерное зрение, но и обработку речи, языка и многие другие области. В 2012 году проект Google Brain (под руководством Эндрю Ынга и Джеффа Дина) вызвал сенсацию, обучив нейронную сеть самостоятельно распознавать видео на YouTube и выявлять понятие «кот» без предварительной разметки.
В период 2011–2014 появились виртуальные помощники, такие как Siri, Google Now (2012) и Microsoft Cortana (2014), использующие достижения в распознавании речи и понимании естественного языка. Например, система распознавания речи Microsoft достигла человеческой точности в 2017 году, во многом благодаря глубоким нейронным сетям для обработки звука. В области машинного перевода в 2016 году Google Translate перешёл на архитектуру нейронного машинного перевода (NMT), значительно улучшив качество перевода по сравнению с предыдущими статистическими моделями.
Другим важным событием стала победа ИИ в игре го — ранее считавшейся слишком сложной для машин. В марте 2016 года программа AlphaGo компании DeepMind (Google) победила лучшего в мире игрока Ли Седоля со счётом 4-1. Го гораздо сложнее шахмат, с огромным числом возможных ходов, что исключает перебор brute-force. AlphaGo сочетала глубокое обучение и алгоритм Монте-Карло Tree Search, обучаясь на миллионах партий и самостоятельно совершенствуя игру.
Эта победа сравнивается с матчем Deep Blue — Каспаров 1997 года и подтверждает, что ИИ может превосходить человека в областях, требующих интуиции и опыта. После AlphaGo DeepMind разработала AlphaGo Zero (2017), которая обучалась играть с нуля, без данных человека, и разгромила предыдущую версию 100-0. Это демонстрирует потенциал обучения с подкреплением в сочетании с глубоким обучением для достижения сверхчеловеческих результатов.
В 2017 году в области обработки языка произошло прорывное изобретение — архитектура Transformer. Исследователи Google опубликовали статью «Attention Is All You Need», предложив механизм self-attention, позволяющий моделям учитывать взаимосвязи между словами в предложении без последовательной обработки.
Transformer значительно повысил эффективность обучения крупных языковых моделей (LLM) по сравнению с предыдущими последовательными архитектурами (RNN/LSTM). С этого момента появились многочисленные улучшенные языковые модели на базе Transformer: BERT (Google, 2018) для понимания контекста и особенно GPT (Generative Pre-trained Transformer) от OpenAI, впервые представленный в 2018 году.
Эти модели достигли выдающихся результатов в задачах обработки языка — от классификации и ответов на вопросы до генерации текста. Transformer заложил основу для гонки по созданию гигантских языковых моделей в 2020-х.
В конце 2010-х появились генеративные ИИ (generative AI) — модели, способные создавать новый контент. В 2014 году Иэн Гудфеллоу и коллеги изобрели GAN (Generative Adversarial Network) — две нейронные сети, соревнующиеся друг с другом для создания реалистичных искусственных данных.
GAN быстро прославились способностью создавать фотореалистичные портреты людей (deepfake). Параллельно развивались вариационные автоэнкодеры (VAE) и стиль-трансфер, позволяющие преобразовывать изображения и видео в новые стили.
В 2019 году OpenAI представила GPT-2 — языковую модель с 1,5 миллиардами параметров, способную генерировать связные и длинные тексты, почти неотличимые от человеческих. Очевидно, что ИИ теперь не только классифицирует и предсказывает, но и убедительно создаёт контент.
ИИ в 2010-х совершил скачок, превзойдя ожидания. Многие задачи, ранее считавшиеся «невыполнимыми» для машин, теперь решаются на уровне человека или лучше: распознавание изображений, речь, перевод, сложные игры и др.
Что важнее, ИИ начал проникать в повседневную жизнь: от смартфонов с распознаванием лиц, голосовых помощников в умных колонках (Alexa, Google Home) до рекомендаций в соцсетях — всё это стало делом ИИ. Это действительно эпоха взрыва ИИ, и многие сравнивают ИИ с «новой электроэнергией» — фундаментальной технологией, меняющей все отрасли.
2020-е годы: Взрыв генеративного ИИ и новые тренды
Всего за несколько первых лет 2020-х ИИ взорвался с беспрецедентной скоростью, главным образом благодаря подъёму генеративного ИИ (Generative AI) и крупных языковых моделей (LLM). Эти системы позволили ИИ достичь сотен миллионов пользователей, породив волну творческих приложений и вызвав широкие общественные дискуссии о влиянии ИИ.
В июне 2020 года OpenAI представила GPT-3 — гигантскую языковую модель с 175 миллиардами параметров, в 10 раз больше предыдущих моделей. GPT-3 поразила способностью писать тексты, отвечать на вопросы, сочинять стихи, писать код почти как человек, хотя и с некоторыми ошибками. Мощь GPT-3 показала, что масштаб модели в сочетании с огромным объёмом обучающих данных может обеспечить беспрецедентное качество генерации языка. На базе GPT-3 быстро появились приложения — от маркетинговых текстов и помощников по электронной почте до поддержки программирования.
В ноябре 2022 года ИИ вышел на широкую публику с запуском ChatGPT — интерактивного чатбота от OpenAI на базе GPT-3.5. Всего за 5 дней ChatGPT набрал 1 миллион пользователей, а за 2 месяца превысил 100 миллионов, став самым быстрорастущим потребительским приложением в истории.
ChatGPT способен связно отвечать на множество вопросов, писать тексты, решать задачи, консультировать, вызывая восхищение «умом» и гибкостью. Популярность ChatGPT ознаменовала первое массовое использование ИИ как инструмента творческого контента и запустила гонку ИИ между технологическими гигантами.
В начале 2023 года Microsoft интегрировала GPT-4 (следующую модель OpenAI) в поисковик Bing, а Google выпустила чатбот Bard на базе собственной модели LaMDA. Эта конкуренция способствует широкому распространению и быстрому совершенствованию генеративного ИИ.
Помимо текста, генеративный ИИ в области изображений и звука также достиг значительных успехов. В 2022 году появились модели text-to-image, такие как DALL-E 2 (OpenAI), Midjourney и Stable Diffusion, позволяющие пользователям вводить текстовые описания и получать созданные ИИ изображения. Качество картинок настолько реалистично и креативно, что открывает новую эру цифрового творчества.
Однако это также вызвало вопросы о авторских правах и этике, поскольку ИИ обучается на работах художников и создаёт похожие произведения. В аудио области новые text-to-speech модели могут преобразовывать текст в голос, практически неотличимый от человеческого, а также имитировать голоса знаменитостей, вызывая опасения по поводу deepfake-звука.
В 2023 году впервые начались судебные процессы по авторским правам на данные для обучения ИИ — например, компания Getty Images подала иск против Stability AI (разработчика Stable Diffusion) за использование миллионов защищённых изображений без разрешения. Это демонстрирует теневую сторону взрыва ИИ: юридические, этические и социальные проблемы выходят на первый план и требуют серьёзного внимания.
На фоне ажиотажа в 2023 году сообщество экспертов выразило обеспокоенность рисками сильного ИИ. Более 1000 представителей индустрии (включая Илона Маска, Стива Возняка, исследователей ИИ и др.) подписали открытое письмо с призывом приостановить на 6 месяцев обучение моделей ИИ, превосходящих GPT-4, опасаясь неконтролируемого развития.
В том же году пионеры, такие как Джеффри Хинтон (один из «отцов» глубокого обучения), публично предупреждали о рисках выхода ИИ из-под контроля. Европейская комиссия быстро разработала Закон об ИИ (EU AI Act) — первый в мире комплексный нормативный акт по искусственному интеллекту, планируемый к применению с 2024 года. Закон запрещает системы ИИ с «неприемлемыми рисками» (например, массовое наблюдение, социальное скорингование) и требует прозрачности для универсальных моделей ИИ.
В США несколько штатов также приняли законы, ограничивающие использование ИИ в чувствительных сферах (набор персонала, финансы, избирательные кампании и др.). Очевидно, что мир стремительно формирует правовые и этические рамки для ИИ, что неизбежно при его широком влиянии.
В целом, 2020-е годы стали эпохой взрыва ИИ как с технической, так и с общественной точки зрения. Новые инструменты ИИ, такие как ChatGPT, DALL-E, Midjourney и другие, стали привычными, помогая миллионам людей творить и работать эффективнее новыми способами.
Одновременно гонка инвестиций в ИИ разгорелась с новой силой: по прогнозам, расходы компаний на генеративный ИИ превысят 1 триллион долларов в ближайшие годы. ИИ всё глубже проникает в отрасли: медицина (поддержка диагностики, поиск лекарств), финансы (анализ рисков, выявление мошенничества), образование (виртуальные преподаватели, персонализированное обучение), транспорт (автономные автомобили), оборона (тактическое принятие решений) и др.
Можно сказать, что ИИ сегодня — это как электричество или Интернет — технологическая инфраструктура, которую хотят использовать все компании и правительства. Многие эксперты оптимистично считают, что ИИ продолжит приносить прорывы в производительности и качестве жизни при правильном развитии и управлении.
С 1950-х годов история развития ИИ прошла удивительный путь — полный амбиций, разочарований и триумфов. От небольшой конференции в Дартмуте 1956 года, заложившей основы отрасли, ИИ дважды переживал «зимы» из-за чрезмерных ожиданий, но после каждой из них возрождался с новой силой благодаря научным и технологическим прорывам. Особенно за последние 15 лет ИИ добился впечатляющего прогресса, выйдя из лабораторий в реальный мир и оказывая глубокое влияние.
Сегодня ИИ присутствует почти во всех сферах и становится всё более умным и универсальным. Однако цель сильного ИИ (универсального искусственного интеллекта) — машина с гибким интеллектом, как у человека — всё ещё впереди.
Современные модели ИИ впечатляют, но остаются ограниченными в рамках обученных задач и иногда совершают нелепые ошибки (например, ChatGPT может «галлюцинировать» неверную информацию с высокой уверенностью). Вопросы безопасности и этики требуют срочного решения: как обеспечить контролируемое, прозрачное развитие ИИ на благо человечества.
Следующий этап развития ИИ обещает быть чрезвычайно интереснымбудет глубже интегрироваться в жизнь: от ИИ-врачей, помогающих заботиться о здоровье, ИИ-юристов, анализирующих законодательство, до ИИ-компаньонов, поддерживающих обучение и эмоциональное общение.
Технологии, такие как нейроморфные вычисления, имитирующие архитектуру человеческого мозга, исследуются для создания нового поколения ИИ, более эффективного и близкого к естественному интеллекту. Хотя перспектива ИИ, превосходящего человеческий интеллект, остаётся спорной, ясно, что ИИ будет продолжать эволюционировать и глубоко формировать будущее человечества.
Оглядываясь на историю становления и развития ИИ, мы видим историю настойчивости и непрерывного творчества человека. От первых компьютеров, умеющих считать, до машин, играющих в шахматы, водящих автомобили, распознающих мир и даже создающих искусство — искусственный интеллект уже стал и будет оставаться доказательством наших возможностей выходить за пределы собственных ограничений.
Главный урок истории — правильно расставлять ожидания и развивать ИИ ответственно, чтобы гарантировать, что ИИ принесёт максимальную пользу человечеству в будущем.