인공지능(AI)은 오늘날 현대 생활의 친숙한 일부가 되어 비즈니스부터 의료에 이르기까지 모든 분야에 등장하고 있습니다. 하지만 AI 발전의 역사가 20세기 중반부터 시작되어 수많은 우여곡절을 겪으며 현재와 같은 폭발적인 성과를 이루기까지 이어졌다는 사실은 잘 알려져 있지 않습니다.

이 글에서는 INVIAIAI의 형성과 발전 역사를 초기 아이디어부터 ‘AI 겨울’이라는 어려운 시기를 거쳐, 딥러닝 혁명2020년대에 폭발한 생성 AI의 물결까지 상세히 소개합니다.

1950년대: 인공지능의 시작

1950년대는 AI 분야의 공식적인 출발점으로 여겨집니다. 1950년, 수학자 앨런 튜링은 “Computing Machinery and Intelligence”라는 논문을 발표하며 기계의 사고 능력을 평가하는 유명한 테스트인 튜링 테스트를 제안했습니다. 이는 컴퓨터가 인간처럼 ‘생각할 수 있다’는 개념의 기초를 마련한 중요한 이정표였습니다.

1956년에는 ‘Artificial Intelligence’(인공지능)이라는 용어가 공식적으로 탄생했습니다. 그해 여름, 다트머스 대학의 컴퓨터 과학자 존 매카시는 마빈 민스키, 네이선 로체스터(IBM), 클로드 섀넌 등과 함께 다트머스 대학에서 역사적인 워크숍을 개최했습니다.

매카시는 이 워크숍에서 ‘인공지능(AI)’이라는 용어를 제안했으며, 1956년 다트머스 행사는 AI 분야의 탄생으로 간주됩니다. 이 자리에서 과학자들은 “학습과 지능의 모든 측면을 기계로 모방할 수 있다”고 선언하며 새로운 분야에 대한 야심찬 목표를 세웠습니다.

1950년대 후반에는 AI의 첫 성과들이 나타났습니다. 1951년, 초기 AI 프로그램들이 페란티 마크 I 컴퓨터에서 실행되었는데, 특히 크리스토퍼 스트레이치의 체커(체스와 유사한 게임) 프로그램과 디트리히 프린츠의 체스 프로그램이 최초로 컴퓨터가 지능 게임을 할 수 있음을 보여주었습니다.

1955년, IBM의 아서 새뮤얼은 경험을 통해 스스로 학습하는 체커 프로그램을 개발하여 최초의 머신러닝 시스템을 만들었습니다. 같은 시기, 앨런 뉴웰, 허버트 사이먼과 동료들은 수학 정리를 자동으로 증명하는 Logic Theorist(1956)를 개발해 기계가 논리적 추론을 수행할 수 있음을 입증했습니다.

알고리즘뿐 아니라 AI 전용 도구와 프로그래밍 언어도 1950년대에 등장했습니다. 1958년, 존 매카시는 AI 전용 프로그래밍 언어인 Lisp을 발명해 AI 개발자들 사이에서 빠르게 보급되었습니다. 같은 해, 심리학자 프랭크 로젠블랫은 데이터로부터 학습할 수 있는 최초의 인공신경망 모델인 퍼셉트론을 소개했습니다. 퍼셉트론은 현대 신경망의 기초로 평가받습니다.

1959년, 아서 새뮤얼은 ‘머신러닝(machine learning)’이라는 용어를 처음 사용한 논문을 발표하며, 컴퓨터가 학습하고 스스로 체커 실력을 향상시킬 수 있음을 보여주었습니다. 이러한 발전은 강한 낙관론을 불러일으켰고, 선구자들은 몇십 년 내에 기계가 인간 수준의 지능에 도달할 것이라 믿었습니다.

1950년대 - 인공지능의 시작

1960년대: 초기 진전

1960년대에 접어들면서 AI는 다양한 프로젝트와 발명으로 계속 발전했습니다. MIT, 스탠퍼드, 카네기 멜론 등 명문 대학에 AI 연구실이 설립되어 연구 관심과 자금 지원을 끌어모았습니다. 컴퓨터 성능도 향상되어 이전보다 복잡한 AI 아이디어를 실험할 수 있었습니다.

가장 주목할 만한 성과 중 하나는 최초의 챗봇 프로그램의 탄생입니다. 1966년 MIT의 조셉 와이젠바움은 심리학자와 대화하는 스타일을 모방한 ELIZA를 개발했습니다. ELIZA는 간단한 키워드 인식과 패턴 응답으로 작동했지만, 많은 사용자가 ELIZA가 실제로 ‘이해’하고 감정을 가진 것처럼 착각할 정도로 놀라운 반응을 보였습니다. ELIZA의 성공은 현대 챗봇의 길을 열었으며, 인간이 기계에 감정을 투사하는 경향에 대한 질문도 제기했습니다.

동시에 최초의 지능형 로봇도 등장했습니다. 1966년부터 1972년까지 스탠퍼드 연구소(SRI)는 Shakey라는 최초의 자율 인지 및 행동 계획이 가능한 이동 로봇을 개발했습니다. Shakey는 센서와 카메라를 장착해 환경을 스스로 탐색하고, 경로 찾기, 장애물 밀기, 경사면 오르기 등 기본 작업을 수행할 수 있었습니다. 이는 컴퓨터 비전, 자연어 처리, 계획 수립을 통합한 최초의 시스템으로, 이후 로보틱스 AI 분야의 토대를 마련했습니다.

미국 인공지능학회(AAAI)도 이 시기에 설립되어 AI 연구자들을 결집시키며 AI 커뮤니티가 점차 성장했음을 보여줍니다.

또한 1960년대는 전문가 시스템과 핵심 알고리즘의 발전도 기록했습니다. 1965년 에드워드 파이겐바움과 동료들은 세계 최초의 전문가 시스템으로 평가받는 DENDRAL을 개발했습니다. DENDRAL은 화학자들이 실험 데이터를 바탕으로 분자 구조를 분석하는 데 도움을 주기 위해 전문가의 지식과 사고를 모방했습니다. DENDRAL의 성공은 복잡한 전문 문제 해결에 컴퓨터가 기여할 수 있음을 보여주었고, 1980년대 전문가 시스템 붐의 기반이 되었습니다.

또한 1972년 마르세유 대학에서 논리 기반 AI를 위한 프로그래밍 언어 Prolog가 개발되어 논리와 관계 규칙에 기반한 AI 접근법을 열었습니다. 1969년에는 마빈 민스키시모어 파퍼트“Perceptrons”라는 책을 출간했는데, 이 책은 단일층 퍼셉트론 모델의 수학적 한계를 지적하며 XOR 문제를 해결할 수 없음을 보여주어 신경망 분야에 큰 의구심을 불러일으켰습니다.

많은 후원자들이 신경망 학습 능력에 대한 신뢰를 잃으면서 1960년대 후반 신경망 연구는 점차 쇠퇴했습니다. 이는 10여 년간의 낙관론 이후 AI 연구가 ‘냉각기’를 맞이한 첫 신호였습니다.

1960년대 AI

1970년대: 도전과 첫 번째 ‘AI 겨울’

1970년대에 들어서면서 AI 분야는 현실적인 도전에 직면했습니다. 이전 10년간의 큰 기대가 컴퓨팅 파워, 데이터, 과학적 이해의 한계로 인해 충족되지 못했고, AI에 대한 신뢰와 자금 지원이 1970년대 중반부터 급격히 감소했습니다. 이 시기는 이후 ‘첫 번째 AI 겨울’로 불리게 되었습니다.

1973년, 제임스 라이트힐 경은 “Artificial Intelligence: A General Survey”라는 보고서를 발표하며 AI 연구의 진전에 대해 매우 비관적인 평가를 내렸습니다. 라이트힐 보고서는 AI 연구자들이 “과도한 약속을 했지만 성과는 미미하다”고 결론지었으며, 특히 컴퓨터가 자연어 이해나 시각 인식에서 기대에 미치지 못한다고 비판했습니다.

이 보고서로 인해 영국 정부는 AI 예산 대부분을 삭감했고, 미국의 DARPA 등 후원 기관들도 보다 실용적인 프로젝트로 투자 방향을 전환했습니다. 그 결과 1970년대 중반부터 1980년대 초반까지 AI 연구는 사실상 ‘동면’ 상태에 들어가며, 획기적인 연구와 충분한 자금이 부족한 시기가 되었습니다. 이 시기가 바로 1984년에 명명된 ‘AI 겨울’의 시작입니다.

그럼에도 불구하고 1970년대에는 AI 연구에서 몇 가지 밝은 성과도 있었습니다. 전문가 시스템은 학계에서 계속 발전했으며, 대표적으로 1974년 스탠퍼드의 테드 쇼틀리프가 개발한 의료 진단 전문가 시스템 MYCIN이 있습니다. MYCIN은 추론 규칙을 사용해 감염성 혈액 질환 진단과 치료 권고를 제공하며 높은 정확도를 보여, 전문가 시스템의 실용적 가치를 입증했습니다.

또한 1972년에 등장한 Prolog 언어는 자연어 처리와 논리 문제 해결에 활용되며 논리 기반 AI의 중요한 도구가 되었습니다. 로봇 분야에서는 1979년 스탠퍼드 연구팀이 장애물이 가득한 방을 자율적으로 주행하는 최초의 로봇 차량인 Stanford Cart을 성공적으로 개발했습니다. 이 차량은 원격 조종 없이 스스로 이동할 수 있었으며, 이후 자율주행차 연구의 초석이 되었습니다.

전반적으로 1970년대 말 AI 연구는 침체기에 접어들었으며, 많은 AI 과학자들이 머신러닝, 통계학, 로봇공학, 컴퓨터 비전 등 관련 분야로 방향을 전환했습니다.

AI는 이전처럼 ‘떠오르는 별’이 아니라 제한된 분야에서만 소규모 진전을 이루는 좁은 영역으로 축소되었고, 이 시기는 인공지능이 훨씬 더 복잡하며 새로운 근본적 접근법이 필요함을 일깨워 주었습니다.

1970년대 AI

1980년대: 전문가 시스템의 부흥과 쇠퇴

1980년대 초, AI는 다시 부활의 시기를 맞이했으며, 때로는 ‘AI 르네상스’라고도 불립니다. 이 부흥은 전문가 시스템의 상업적 성공과 정부 및 기업의 투자 재개에 힘입은 바 큽니다. 컴퓨터 성능이 향상되면서 제한된 영역 내에서 AI 아이디어를 실현할 수 있다는 믿음이 커졌습니다.

1981년, 디지털 이큅먼트 코퍼레이션은 XCON(Expert Configuration)이라는 전문가 시스템을 도입해 컴퓨터 시스템 구성을 자동화하고 수천만 달러를 절감했습니다. XCON의 성공은 기업 내 의사결정 지원을 위한 전문가 시스템 개발 붐을 촉진했습니다. 많은 기술 기업들이 기업 맞춤형 전문가 시스템을 쉽게 구축할 수 있는 전문가 시스템 셸을 개발했습니다.

Lisp 언어는 실험실을 벗어나 Lisp 머신이라는 AI 전용 하드웨어로 구현되었으며, 1980년대 초에는 Symbolics, Lisp Machines Inc. 등 Lisp 머신 스타트업들이 등장해 투자 열풍과 함께 ‘Lisp 머신 시대’를 열었습니다.

이 시기 주요 정부들도 AI에 대규모 자금을 투입했습니다. 1982년 일본은 8억 5천만 달러 예산으로 5세대 컴퓨터 프로젝트를 시작해 논리와 Prolog를 활용한 지능형 컴퓨터 개발을 목표로 했고, 미국 DARPA도 일본과의 기술 경쟁 속에서 AI 연구 지원을 강화했습니다. 이들 프로젝트는 전문가 시스템, 자연어 처리, 지식 기반에 집중해 고성능 지능형 컴퓨터 개발을 기대했습니다.

한편, 인공신경망 분야도 조용히 부활했습니다. 1986년, 제프리 힌튼과 동료들은 다층 신경망 학습을 위한 효과적인 방법인 역전파 알고리즘(Backpropagation)을 발표해 1969년 Perceptrons에서 지적된 한계를 극복했습니다.

역전파 원리는 1970년대부터 개념화되었으나, 1980년대 중반 컴퓨터 성능 향상 덕분에 본격적으로 활용되었고, 이는 두 번째 신경망 연구 붐을 촉발했습니다. 이 시기에 얀 르쿤(프랑스), 요슈아 벵지오(캐나다) 등 젊은 연구자들이 참여해 손글씨 인식 모델을 성공적으로 개발했습니다.

하지만 1980년대 후반 AI의 두 번째 전성기는 오래가지 못했습니다. 기대에 미치지 못하는 성과와 함께 전문가 시스템의 경직성, 확장성 부족, 수동 지식 업데이트 필요성이라는 약점이 드러났습니다.

대규모 전문가 시스템 프로젝트가 실패하고, 개인용 컴퓨터의 저렴한 가격 경쟁으로 Lisp 머신 시장도 붕괴했습니다. 1987년에는 Lisp 산업이 거의 완전히 파산했고, AI에 대한 두 번째 투자 삭감과 함께 ‘두 번째 AI 겨울’이 시작되었습니다. 1984년에 만들어진 ‘AI 겨울’이라는 용어가 1987~1988년 다수 AI 기업이 문을 닫으면서 현실화되었습니다. AI 분야는 다시 하락 국면에 접어들어 연구자들이 기대와 전략을 재조정해야 했습니다.

요약하자면, 1980년대는 AI의 폭발과 쇠퇴의 주기를 보여줍니다. 전문가 시스템은 AI가 산업 현장에 진입하는 첫 계기가 되었으나, 고정된 규칙 기반 접근법의 한계도 드러냈습니다. 그럼에도 불구하고 이 시기는 신경망 알고리즘부터 최초의 지식 기반 시스템까지 귀중한 아이디어와 도구를 탄생시켰으며, 과도한 기대를 경계하는 교훈을 남겨 다음 시대로 나아가는 토대를 마련했습니다.

1980년대 AI

1990년대: AI의 실용적 복귀

1980년대 후반의 AI 겨울 이후, 1990년대에는 실용적인 진전 덕분에 AI에 대한 신뢰가 점차 회복되었습니다. 야심찬 강한 AI(일반 인공지능) 대신, 연구자들은 특정 문제에 적용하는 약한 AI에 집중하며 인상적인 결과를 내기 시작했습니다. 이전에 AI에서 파생된 여러 분야(음성 인식, 컴퓨터 비전, 탐색 알고리즘, 지식 기반 시스템 등)가 독립적으로 발전하고 널리 활용되었습니다.

중요한 이정표 중 하나는 1997년 5월, IBM의 Deep Blue가 세계 체스 챔피언 개리 카스파로프를 공식 경기에서 이긴 사건입니다. 이는 복잡한 지능 게임에서 AI가 세계 챔피언을 처음으로 이긴 사례로 큰 반향을 일으켰습니다.

Deep Blue의 승리는 브루트포스 탐색 알고리즘과 오프닝 데이터베이스를 결합한 막대한 계산력과 전문 기술의 힘을 보여주었고, AI가 미디어에 화려하게 복귀했음을 알렸습니다.

체스뿐 아니라 1990년대 AI는 다양한 분야에서 진전을 이루었습니다. 1994년에는 Chinook이 드래프츠(체커와 유사한 게임)를 완벽하게 해결해 세계 챔피언이 컴퓨터를 이길 수 없음을 인정했습니다.

음성 인식 분야에서는 1990년대 초 Dragon Dictate 같은 상용 시스템이 등장했고, 1990년대 말에는 개인용 컴퓨터에서 음성 인식 소프트웨어가 널리 사용되었습니다. 손글씨 인식도 PDA(개인 디지털 도우미)에 통합되어 정확도가 크게 향상되었습니다.

산업 현장에서는 컴퓨터 비전이 부품 검사부터 보안 시스템까지 적용되기 시작했고, 1960년대에 난항을 겪었던 기계 번역도 SYSTRAN 같은 시스템을 통해 다국어 자동 번역에 진전을 보였습니다.

또한 통계적 머신러닝과 신경망이 대규모 데이터 분석에 활용되기 시작했습니다. 1990년대 후반 인터넷의 폭발적 성장으로 방대한 디지털 데이터가 생성되면서, 데이터 마이닝머신러닝 알고리즘이 웹 데이터 분석, 검색 엔진 최적화, 개인화 추천 등에 사용되었습니다.

‘데이터 과학’이라는 용어는 아직 널리 알려지지 않았지만, AI는 이미 소프트웨어 시스템에 깊숙이 스며들어 이메일 스팸 필터, 전자상거래 추천 시스템 등에서 사용자 데이터를 학습해 성능을 개선하는 데 활용되고 있었습니다. 이러한 작지만 실용적인 성공은 기업과 사회에서 AI에 대한 신뢰를 회복하는 데 기여했습니다.

요컨대, 1990년대는 AI가 ‘조용하지만 견고하게’ 실생활에 스며든 시기였습니다. 거창한 인간 수준 지능 대신, 연구자들은 특정 문제 해결에 집중했고, 그 결과 AI는 20세기 말 다양한 기술 제품에 내재되어 사용자들이 인지하지 못하는 사이에 널리 퍼졌습니다. 이 시기는 또한 AI의 미래 폭발적 발전을 위한 데이터와 알고리즘의 기초를 다진 시기이기도 합니다.

1990년대 AI

2000년대: 머신러닝과 빅데이터 시대

21세기에 들어서면서 인터넷과 빅데이터 시대의 도래로 AI가 강력하게 전환되었습니다. 2000년대는 개인용 컴퓨터, 인터넷, 센서 기기의 폭발적 증가로 방대한 데이터가 생성되었고, 머신러닝(특히 지도학습)이 이 ‘데이터 광산’을 활용하는 핵심 도구가 되었습니다.

데이터는 새로운 석유’라는 슬로건이 유행했는데, 이는 더 많은 데이터가 AI 알고리즘의 정확도를 높인다는 의미입니다. 구글, 아마존, 넷플릭스 등 대형 IT 기업들은 사용자 데이터를 수집하고 학습하는 시스템을 구축해 검색, 추천 등 제품을 개선했습니다. AI는 점차 디지털 플랫폼의 ‘두뇌’ 역할을 하게 되었습니다.

2006년은 중요한 해였습니다. 스탠퍼드 대학의 교수 페이페이 리ImageNet 프로젝트를 시작했는데, 1,400만 장 이상의 상세 라벨링된 이미지 데이터베이스를 구축했습니다. 2009년에 공개된 ImageNet은 컴퓨터 비전 알고리즘 학습과 평가의 표준 데이터셋이 되었으며, 특히 이미지 내 객체 인식 분야에서 큰 역할을 했습니다.

ImageNet은 이후 딥러닝 연구를 촉진하는 ‘도핑제’로 불리며, 복잡한 딥러닝 모델 학습에 충분한 데이터를 제공했습니다. 2010년부터 매년 열리는 ImageNet 챌린지는 최고의 이미지 인식 알고리즘을 겨루는 중요한 무대가 되었고, 2012년에는 AI 역사에 큰 전환점이 될 사건이 벌어집니다(2010년대 부분 참조).

2000년대에는 AI가 여러 주요 응용 분야에서 성과를 거두기 시작했습니다:

  • 2005년, 스탠퍼드의 자율주행차 ‘스탠리’가 DARPA 그랜드 챌린지 사막 자율주행 경주에서 우승했습니다. 212km 코스를 6시간 53분 만에 완주하며 자율주행 시대의 문을 열었고, 이후 구글, 우버 등에서 큰 관심과 투자를 받았습니다.
  • 휴대전화 기반 가상 비서가 등장했습니다. 2008년 구글 보이스 서치는 아이폰에서 음성 검색을 가능하게 했고, 2011년 애플의 Siri는 음성 인식과 자연어 이해 기술을 활용해 대중에게 AI를 널리 알렸습니다. Siri는 대규모 대중에게 AI가 처음으로 접근한 사례로 평가받습니다.
  • 2011년, IBM의 슈퍼컴퓨터 Watson은 미국 TV 퀴즈쇼 ‘Jeopardy!’에서 두 명의 챔피언을 이겼습니다. Watson은 복잡한 영어 질문을 이해하고 방대한 데이터를 검색해 답변을 찾아내며, 자연어 처리와 정보 검색 분야 AI의 힘을 입증했습니다. 이 승리는 컴퓨터가 광범위한 지식 영역에서 ‘이해’하고 ‘반응’할 수 있음을 보여주었습니다.
  • 소셜 미디어와 웹 분야에서도 AI가 활발히 활용되었습니다. 페이스북은 2010년경 자동 얼굴 인식 태깅 기능을 도입했고, 유튜브와 구글은 AI를 활용해 콘텐츠 필터링과 동영상 추천을 수행했습니다. 머신러닝 기술은 사용자 경험 최적화에 조용히 기여하며, 사용자들은 이를 인지하지 못하는 경우가 많았습니다.

요약하면, 2000년대 AI의 핵심 동력은 데이터와 응용이었습니다. 전통적인 머신러닝 알고리즘(회귀, SVM, 결정트리 등)이 대규모 데이터에 적용되어 실질적인 효과를 거두기 시작했습니다.

AI는 연구 주제에서 산업 현장으로 급격히 이동했으며, ‘기업용 AI’가 뜨거운 화두가 되어 관리, 금융, 마케팅 등 다양한 분야에서 AI 솔루션을 제공하는 기업들이 등장했습니다. 2006년에는 ‘엔터프라이즈 AI’라는 용어가 등장해 AI를 비즈니스 효율성과 의사결정 향상에 적용하는 흐름을 강조했습니다.

2000년대 후반에는 딥러닝 혁명의 싹도 보이기 시작했습니다. 다층 신경망 연구가 계속 발전했고, 2009년 스탠퍼드 대학의 앤드류 응 연구팀은 GPU를 활용해 CPU 대비 70배 빠른 신경망 학습을 발표했습니다.

GPU의 병렬 계산 능력은 신경망의 행렬 연산에 매우 적합해 2010년대 대규모 딥러닝 모델 학습의 길을 열었습니다. 빅데이터, 강력한 하드웨어, 개선된 알고리즘이라는 세 가지 요소가 모두 갖춰지면서 AI 혁명의 도화선이 준비되었습니다.

2000년대 AI

2010년대: 딥러닝 혁명

AI가 진정으로 ‘비상한’ 시기를 꼽는다면 바로 2010년대입니다. 이전 10년간 쌓인 데이터와 하드웨어 기반 위에 딥러닝(다층 신경망) 시대가 열리면서, AI는 다양한 과제에서 기존 기록을 깨뜨리는 획기적 성과를 냈습니다. ‘기계가 인간처럼 학습한다’는 꿈이 딥러닝 알고리즘을 통해 현실화되기 시작했습니다.

2012년, 제프리 힌튼과 제자들(알렉스 크리제브스키, 일리야 서츠케버)은 ImageNet 챌린지에 참가해 AlexNet이라는 8층 합성곱 신경망 모델을 GPU로 학습시켰습니다. 결과는 압도적이었으며, 2위 팀 대비 오류율을 절반으로 줄여 컴퓨터 비전 분야에 큰 충격을 주었습니다.

이 승리는 컴퓨터 비전 분야에서 딥러닝 열풍의 시작을 알렸고, 이후 수년간 기존의 전통적 이미지 인식 방법들이 딥러닝으로 대체되었습니다.

AlexNet의 성공은 충분한 데이터(ImageNet)와 계산력(GPU)이 갖춰지면 딥 신경망이 다른 AI 기법을 능가할 수 있음을 입증했습니다. 힌튼과 동료들은 구글로 영입되었고, 딥러닝은 AI 연구의 핫 키워드가 되었습니다.

딥러닝은 컴퓨터 비전뿐 아니라 음성 인식, 자연어 처리, 다양한 분야로 확산되었습니다. 2012년에는 구글 브레인(앤드류 응, 제프 딘 프로젝트)이 유튜브 동영상을 자율 학습해 ‘고양이’ 개념을 발견하는 등 큰 반향을 일으켰습니다.

2011~2014년 사이에는 Siri, Google Now(2012), Microsoft Cortana(2014) 같은 음성 기반 가상 비서가 등장해 음성 인식과 자연어 이해 기술의 발전을 활용했습니다. 예를 들어, 마이크로소프트 음성 인식 시스템은 2017년 인간 수준의 정확도를 달성했는데, 이는 딥러닝 기반 음향 모델 덕분이었습니다. 2016년 구글 번역은 신경망 기계 번역(NMT)으로 전환해 기존 통계 기반 번역보다 품질을 크게 개선했습니다.

또한 2016년에는 AI가 매우 어려운 분야로 여겨졌던 바둑에서 큰 성과가 있었습니다. 구글 딥마인드의 AlphaGo가 세계 1위 바둑 기사 이세돌을 4대 1로 이겼습니다. 바둑은 체스보다 훨씬 복잡하며 가능한 수가 너무 많아 완전 탐색이 불가능한 게임입니다. AlphaGo는 딥러닝과 몬테카를로 트리 탐색을 결합해 수백만 판의 기보를 학습하고 스스로 대국하며 실력을 키웠습니다.

이 승리는 1997년 Deep Blue와 카스파로프의 대결에 비견되며, AI가 직관과 경험이 필요한 영역에서도 인간을 능가할 수 있음을 보여주었습니다. 이후 딥마인드는 2017년 AlphaGo Zero를 개발해 인간 기보 없이 바둑 규칙만으로 스스로 학습해 이전 버전을 100대 0으로 이겼습니다. 이는 강화학습과 딥러닝의 결합 가능성을 보여준 중요한 사례입니다.

2017년에는 자연어 처리 분야에서 혁신적인 Transformer 아키텍처가 등장했습니다. 구글 연구진은 “Attention Is All You Need” 논문에서 self-attention 메커니즘을 제안해, 순차적 처리 없이 문장 내 단어 간 관계를 학습할 수 있게 했습니다.

Transformer는 기존 순차 모델(RNN/LSTM)보다 대규모 언어 모델(LLM) 학습에 훨씬 효율적이었고, 이후 BERT(구글, 2018)와 GPT(Generative Pre-trained Transformer)(OpenAI, 2018) 등 혁신적 언어 모델들이 등장했습니다.

이 모델들은 분류, 질문 응답, 텍스트 생성 등 다양한 언어 과제에서 뛰어난 성능을 보이며, 2020년대 대규모 언어 모델 경쟁의 토대를 마련했습니다.

2010년대 후반에는 생성 AI(Generative AI)도 등장했습니다. 2014년 이안 굿펠로우 등이 제안한 GAN(Generative Adversarial Network)은 서로 경쟁하는 두 신경망을 통해 실제와 유사한 데이터를 생성하는 모델입니다.

GAN은 딥페이크라 불리는 매우 사실적인 가짜 인물 사진 생성으로 유명해졌고, 변형 오토인코더(VAE), 스타일 전이(style transfer) 등도 발전해 이미지와 영상 변형에 활용되었습니다.

2019년 OpenAI는 15억 매개변수를 가진 텍스트 생성 모델 GPT-2를 공개해, 사람과 유사한 긴 문장을 생성할 수 있음을 보여 큰 주목을 받았습니다. AI는 이제 단순 분류나 예측을 넘어 설득력 있는 콘텐츠를 창작하는 단계에 이르렀습니다.

2010년대 AI는 기대를 뛰어넘는 도약을 이루었습니다. 이전에 ‘불가능’하다고 여겨졌던 이미지 인식, 음성 인식, 번역, 복잡한 게임 플레이 등에서 인간 수준 또는 그 이상의 성과를 냈습니다.

더 중요한 점은 AI가 일상생활에 깊숙이 스며들기 시작했다는 것입니다. 스마트폰 카메라의 얼굴 인식, 스마트 스피커의 가상 비서(Alexa, Google Home), 소셜 미디어 콘텐츠 추천 등 AI가 다양한 방식으로 사용자 경험을 혁신했습니다. 이 시기는 AI 폭발의 시기로 불리며, ‘AI는 새로운 전기’라는 표현이 등장할 정도로 모든 산업을 변화시키는 기반 기술로 자리 잡았습니다.

2010년대 AI

2020년대: 생성 AI 폭발과 새로운 흐름

2020년대 초반 단 몇 년 만에 AI는 전례 없는 속도로 폭발적 성장을 이루었으며, 이는 주로 생성 AI(Generative AI)대규모 언어 모델(LLM)의 부상 덕분입니다. 이 시스템들은 수억 명의 사용자에게 직접 다가가 창작 응용 프로그램을 대량으로 만들어내고, AI의 사회적 영향에 대한 광범위한 논의를 촉발했습니다.

2020년 6월, OpenAI는 1750억 매개변수를 가진 GPT-3를 공개했는데, 이는 이전 최대 모델보다 10배 큰 규모였습니다. GPT-3는 사람처럼 문장 작성, 질문 답변, 시 쓰기, 프로그래밍 코드 작성이 가능해 놀라움을 자아냈으며, 비록 현실적 오류도 있지만 모델 규모와 방대한 학습 데이터가 자연스러운 언어 생성 능력을 가능케 한다는 점을 보여주었습니다. GPT-3 기반 응용 프로그램은 마케팅 콘텐츠 작성, 이메일 비서, 프로그래밍 지원 등 다양한 분야에서 빠르게 확산되었습니다.

2022년 11월, OpenAI는 GPT-3.5 기반의 대화형 챗봇 ChatGPT를 출시했습니다. 단 5일 만에 100만 사용자를 확보했고, 2개월 만에 1억 명 이상이 사용하며 역사상 가장 빠르게 성장한 소비자용 애플리케이션이 되었습니다.

ChatGPT는 문서 작성, 수학 문제 해결, 상담 등 다양한 질문에 유창하게 답변하며 사용자들에게 ‘똑똑하고 유연한’ AI라는 인상을 주었습니다. 이로써 AI가 대규모로 콘텐츠 창작 도구로 활용되는 첫 사례가 되었고, 주요 IT 기업 간 AI 경쟁의 서막을 열었습니다.

2023년 초, 마이크로소프트는 GPT-4(차세대 OpenAI 모델)를 Bing 검색에 통합했고, 구글은 자체 모델 LaMDA 기반 챗봇 Bard를 출시했습니다. 이 경쟁은 생성 AI 기술의 대중화와 빠른 발전을 촉진하고 있습니다.

텍스트뿐 아니라 이미지, 음성 분야의 생성 AI도 급격히 발전했습니다. 2022년에는 OpenAI의 DALL-E 2, Midjourney, Stable Diffusion 같은 텍스트-이미지 모델이 등장해 사용자가 텍스트 설명만으로 사실적이고 창의적인 이미지를 생성할 수 있게 했습니다. 이로써 디지털 콘텐츠 창작의 새 시대가 열렸습니다.

하지만 AI가 예술가의 작품을 학습해 유사한 결과물을 생성하는 과정에서 저작권과 윤리 문제가 제기되고 있습니다. 음성 분야에서는 텍스트-음성 변환(text-to-speech) 기술이 발전해 실제 사람과 거의 구분이 안 되는 음성을 생성하고, 유명인의 목소리를 모방하는 기술도 등장해 딥페이크 음성에 대한 우려가 커지고 있습니다.

2023년에는 AI 학습용 데이터 저작권 관련 소송도 본격화되었습니다. 예를 들어, Getty Images가 Stable Diffusion 개발사 Stability AI를 상대로 수백만 장의 저작권 이미지 무단 사용을 문제 삼아 소송을 제기했습니다. 이는 AI 폭발의 그림자, 법적·윤리적 문제의 심각성을 보여줍니다.

같은 해, 엘론 머스크, 스티브 워즈니악 등 1,000명 이상의 기술계 인사들이 GPT-4보다 더 큰 AI 모델 개발 6개월 중단을 촉구하는 공개서한에 서명하며 강력한 AI 위험성에 대한 우려를 표명했습니다.

딥러닝의 ‘아버지’ 중 한 명인 제프리 힌튼도 AI가 인간 통제를 벗어날 위험을 경고했고, 유럽연합은 2024년 시행 예정인 세계 최초의 포괄적 AI 규제법인 ‘AI 법안(EU AI Act)’을 신속히 완성했습니다. 이 법은 대규모 감시, 사회 신용 점수 등 ‘용납할 수 없는 위험’ AI 시스템을 금지하고, 일반 AI 모델에 대한 투명성 요구를 포함합니다.

미국도 여러 주에서 채용, 금융, 선거운동 등 민감 분야 AI 사용을 제한하는 법률을 제정하며, 전 세계가 AI 법적·윤리적 틀을 서둘러 마련하고 있습니다. 이는 AI가 사회 전반에 미치는 영향이 매우 크기 때문입니다.

전반적으로 2020년대는 기술적 진보와 대중화가 동시에 폭발하는 시기입니다. ChatGPT, DALL-E, Midjourney 등 신세대 AI 도구가 수백만 명의 창작과 업무 효율성을 혁신하고 있습니다.

동시에 AI 투자 경쟁도 치열해지고 있으며, 향후 수년 내 기업들의 생성 AI 지출이 1천억 달러를 넘어설 것으로 예상됩니다. AI는 의료(영상 진단, 신약 개발), 금융(리스크 분석, 사기 탐지), 교육(가상 튜터, 개인화 학습), 교통(고도 자율주행), 국방(전술 의사결정) 등 다양한 산업에 깊숙이 침투하고 있습니다.

요컨대, AI는 이제 전기나 인터넷처럼 모든 기업과 정부가 활용하려는 핵심 인프라가 되었으며, 많은 전문가들은 AI가 올바르게 개발·관리된다면 생산성과 삶의 질에 혁신적 도약을 가져올 것이라 낙관합니다.

2020년대 AI


1950년대부터 현재까지 AI 발전의 역사는 놀라운 여정이었습니다. 야망과 실망, 그리고 다시 도약의 반복이었죠. 1956년 다트머스 워크숍이라는 작은 출발점에서 시작해, AI는 두 차례 ‘겨울’을 겪었지만 매번 과학과 기술의 혁신으로 더욱 강력하게 부활했습니다. 특히 최근 15년간 AI는 비약적 발전을 이루며 실험실을 넘어 현실 세계에 깊은 영향을 미치고 있습니다.

현재 AI는 거의 모든 분야에 존재감을 드러내며 점점 더 지능적이고 다재다능해지고 있습니다. 하지만 강한 AI(일반 인공지능)—즉, 인간처럼 유연하고 포괄적인 지능을 가진 기계—는 아직 도달하지 못한 목표로 남아 있습니다.

오늘날 AI 모델들은 인상적이지만 훈련받은 특정 임무 범위 내에서만 뛰어나며, 때로는 ChatGPT가 높은 자신감으로 잘못된 정보를 ‘환각’하는 것처럼 어리석은 실수를 하기도 합니다. 안전성과 윤리 문제도 시급한 과제로, AI가 통제 가능하고 투명하며 인류 공동의 이익에 부합하도록 발전해야 합니다.

앞으로 AI의 여정은 매우 흥미로울 것의료 지원 AI 의사, 법률 문서 검색 AI 변호사, 학습과 상담을 함께하는 AI 친구 등으로 우리 삶에 더욱 깊이 스며들 것입니다.

또한 뉴로모픽 컴퓨팅(neuromorphic computing)과 같은 기술이 인간 뇌 구조를 모방해 더욱 효율적이고 자연스러운 지능형 AI 세대를 탄생시킬 가능성도 연구되고 있습니다. AI가 인간 지능을 뛰어넘는 문제는 여전히 논쟁거리지만, AI는 계속 진화하며 인류 미래를 깊이 있게 형성할 것입니다.

AI의 형성과 발전 역사를 되돌아보면, 이는 인간의 끈기와 창의성에 관한 이야기입니다. 단순 계산기였던 기계가 체스, 운전, 세계 인식, 심지어 예술 창작까지 배우게 되었으며, 인공지능은 우리 한계를 넘어서는 능력의 증거로서 현재와 미래에 계속 자리할 것입니다.

중요한 것은 역사에서 배운 교훈—적절한 기대 설정과 책임 있는 AI 개발—을 통해 AI가 앞으로도 인류에게 최대한의 혜택을 제공하도록 보장하는 것입니다.