Kunstmatige intelligentie (AI) is tegenwoordig een vertrouwd onderdeel van het moderne leven en komt voor in vrijwel alle sectoren, van het bedrijfsleven tot de gezondheidszorg. Toch beseft maar weinig mensen dat de geschiedenis van de ontwikkeling van AI begon halverwege de 20e eeuw en vele ups en downs kende voordat het de doorbraakprestaties van nu bereikte.

Dit artikel van INVIAI geeft een gedetailleerd overzicht van de geschiedenis van de vorming en ontwikkeling van AI, van de eerste voorlopige ideeën, via de moeilijke periodes van de “AI-winter”, tot aan de doorbraak van deep learning en de explosie van generatieve AI in het decennium van de jaren 2020.

Jaren 1950: Het begin van kunstmatige intelligentie

De jaren 1950 worden beschouwd als het officiële startpunt van de AI-sector. In 1950 publiceerde de wiskundige Alan Turing het artikel “Computing Machinery and Intelligence”, waarin hij een beroemde test voorstelde om het denkvermogen van machines te beoordelen – later bekend als de Turing-test. Dit wordt gezien als het begin van het idee dat computers kunnen “denken” zoals mensen, en legde de theoretische basis voor AI.

In 1956 werd de term “Artificial Intelligence” (kunstmatige intelligentie) officieel geïntroduceerd. In de zomer van dat jaar organiseerde computerwetenschapper John McCarthy (Dartmouth College) samen met collega’s zoals Marvin Minsky, Nathaniel Rochester (IBM) en Claude Shannon een historische conferentie aan Dartmouth College.

McCarthy stelde de term “kunstmatige intelligentie” (AI) voor tijdens deze conferentie, en het Dartmouth-evenement van 1956 wordt vaak gezien als de geboorte van het AI-veld. Hier verklaarden de moedige wetenschappers dat “alle aspecten van leren of intelligentie kunnen worden nagebootst door machines”, waarmee ze ambitieuze doelen stelden voor deze nieuwe sector.

De late jaren 1950 zagen veel eerste successen in AI. In 1951 werden vroege AI-programma’s geschreven voor de Ferranti Mark I-computer – opmerkelijk waren het damprogramma van Christopher Strachey en het schaakprogramma van Dietrich Prinz, wat het eerste bewijs was dat computers intelligente spellen konden spelen.

In 1955 ontwikkelde Arthur Samuel bij IBM een damprogramma dat zelf kon leren van ervaring, en werd daarmee het eerste vroege machine learning-systeem. In dezelfde periode schreven Allen Newell, Herbert Simon en hun team het programma Logic Theorist (1956), dat automatisch wiskundige stellingen kon bewijzen en aantoonde dat machines logisch konden redeneren.

Naast algoritmen werden ook tools en programmeertalen speciaal voor AI ontwikkeld in de jaren 1950. In 1958 vond John McCarthy de programmeertaal Lisp uit – een taal speciaal ontworpen voor AI, die snel populair werd in de AI-gemeenschap. In datzelfde jaar introduceerde psycholoog Frank Rosenblatt de Perceptron – het eerste kunstmatige neuraal netwerkmodel dat kon leren van data. De Perceptron wordt gezien als de basis voor moderne neurale netwerken.

In 1959 gebruikte Arthur Samuel voor het eerst de term “machine learning” in een baanbrekend artikel waarin hij beschreef hoe computers geprogrammeerd konden worden om te leren en hun schaakvaardigheden te verbeteren tot boven het niveau van hun programmeurs. Deze ontwikkelingen toonden een sterk optimisme: pioniers geloofden dat machines binnen enkele decennia menselijke intelligentie konden bereiken.

Jaren 1950 - Het begin van kunstmatige intelligentie

Jaren 1960: De eerste vooruitgangen

In de jaren 1960 bleef AI zich ontwikkelen met veel belangrijke projecten en uitvindingen. AI-laboratoria werden opgericht aan gerenommeerde universiteiten (MIT, Stanford, Carnegie Mellon...), wat onderzoek aantrok en financiering opleverde. Computers werden krachtiger, waardoor complexere AI-ideeën getest konden worden dan in het vorige decennium.

Een opvallende mijlpaal was de creatie van het eerste chatbotprogramma. In 1966 ontwikkelde Joseph Weizenbaum aan MIT ELIZA, een programma dat een gesprek met gebruikers simuleerde in de stijl van een psychotherapeut. ELIZA was eenvoudig geprogrammeerd (gebaseerd op herkenning van sleutelwoorden en standaardantwoorden), maar verrassend genoeg dachten veel mensen dat ELIZA echt “begrip” en emoties had. Het succes van ELIZA opende de weg voor moderne chatbots en stelde vragen over de menselijke neiging om emoties toe te schrijven aan machines.

Tegelijkertijd verscheen de eerste intelligente robot. Van 1966 tot 1972 ontwikkelde het Stanford Research Institute (SRI) Shakey – de eerste mobiele robot met zelfbewustzijn en planningsvermogen, in plaats van alleen losse opdrachten uit te voeren. Shakey was uitgerust met sensoren en camera’s om autonoom te navigeren en taken te analyseren zoals het vinden van routes, het verplaatsen van obstakels en het beklimmen van hellingen. Dit was de eerste keer dat een systeem computervisie, natuurlijke taalverwerking en planning combineerde in een robot, en legde de basis voor robotica AI.

De American Association of Artificial Intelligence (AAAI) werd ook opgericht in deze periode (voorloper was de IJCAI-conferentie van 1969 en de AAAI-organisatie vanaf 1980) om AI-onderzoekers te verenigen, wat het groeiende AI-netwerk illustreerde.

Daarnaast kende het decennium ook de ontwikkeling van expert systemen en fundamentele algoritmen. In 1965 ontwikkelde Edward Feigenbaum met collega’s DENDRAL – het eerste expert systeem ter wereld. DENDRAL was ontworpen om chemici te ondersteunen bij het analyseren van moleculaire structuren uit experimentele data, door kennis en redenering van experts na te bootsen. Het succes van DENDRAL toonde aan dat computers complexe specialistische problemen konden helpen oplossen, en legde de basis voor de explosie van expert systemen in de jaren 1980.

Ook de programmeertaal Prolog (gericht op logische AI) werd in 1972 ontwikkeld aan de Universiteit van Marseille, wat een nieuwe benadering van AI op basis van logica en relationele regels opende. Een andere belangrijke mijlpaal was in 1969, toen Marvin Minsky en Seymour Papert het boek “Perceptrons” publiceerden. Dit boek toonde de wiskundige beperkingen van het eendelige perceptronmodel aan (het kon bijvoorbeeld het eenvoudige XOR-probleem niet oplossen), wat leidde tot ernstige twijfels over het neurale netwerkveld.

Veel investeerders verloren het vertrouwen in neurale netwerken, en het neurale netwerkonderzoek liep langzaam terug eind jaren 1960. Dit was het eerste teken van een “afkoeling” van de AI-hype na meer dan een decennium van optimisme.

AI in de jaren 1960

Jaren 1970: Uitdagingen en de eerste “AI-winter”

In de jaren 1970 kreeg AI te maken met realiteitsproblemen: veel verwachtingen uit het vorige decennium werden niet waargemaakt door beperkingen in rekenkracht, data en wetenschappelijke kennis. Dit leidde tot een sterke daling van vertrouwen en financiering halverwege de jaren 1970 – een periode die later bekend werd als de eerste “AI-winter”.

In 1973 gooide Sir James Lighthill olie op het vuur met een rapport getiteld “Artificial Intelligence: A General Survey”, waarin hij zeer kritisch was over de vooruitgang in AI-onderzoek. Het Lighthill-rapport concludeerde dat AI-onderzoekers “te veel beloofden maar te weinig leverden”, met name bekritiseerde het dat computers nog niet konden begrijpen of zien zoals verwacht.

Dit rapport leidde ertoe dat de Britse overheid bijna alle AI-budgetten stopzette. In de VS richtten financieringsinstanties zoals DARPA zich op meer praktische projecten. Als gevolg hiervan lag de AI-sector van midden jaren 1970 tot begin jaren 1980 vrijwel stil, met weinig doorbraken en een ernstig tekort aan financiering. Dit was de eerste AI-winter – een term die in 1984 werd geïntroduceerd om deze langdurige bevriezing van AI-onderzoek te beschrijven.

Ondanks de moeilijkheden kende de jaren 1970 ook enkele hoogtepunten in AI-onderzoek. Expert systemen werden verder ontwikkeld in de academische wereld, met name MYCIN (1974) – een medisch expert systeem ontwikkeld door Ted Shortliffe aan Stanford, dat infectieziekten in het bloed kon diagnosticeren. MYCIN gebruikte een set redeneerregels om behandeladviezen te geven met hoge nauwkeurigheid, en toonde zo de praktische waarde van expert systemen in specifieke domeinen.

Daarnaast werd de Prolog-programmeertaal (uitgebracht in 1972) toegepast op taalverwerking en logische problemen, en werd een belangrijk hulpmiddel voor logica-gebaseerde AI. In robotica ontwikkelde een team aan Stanford in 1979 met succes de Stanford Cart – de eerste robotauto die autonoom door een kamer met obstakels kon rijden zonder afstandsbediening. Deze prestatie legde de basis voor latere zelfrijdende voertuigen.

Over het algemeen raakte AI eind jaren 1970 in een periode van stagnatie. Veel AI-wetenschappers moesten zich heroriënteren naar aanverwante gebieden zoals statistisch leren, robotica en computervisie om hun werk voort te zetten.

AI was niet langer de “ster” van het vorige decennium, maar een nichegebied met weinig opvallende vooruitgang. Deze periode herinnerde onderzoekers eraan dat kunstmatige intelligentie veel complexer is dan verwacht, en dat er fundamenteel nieuwe benaderingen nodig waren in plaats van alleen redeneringsmodellen.

AI in de jaren 1970

Jaren 1980: Expert systemen – opkomst en neergang

Begin jaren 1980 beleefde AI een heropleving – soms aangeduid als de “AI renaissance”. Deze impuls kwam door het commercieel succes van expert systemen en hernieuwde investeringen van zowel overheden als bedrijven. Computers werden krachtiger en de gemeenschap geloofde dat AI-ideeën binnen afgebakende domeinen gerealiseerd konden worden.

Een belangrijke drijfveer waren commerciële expert systemen. In 1981 introduceerde Digital Equipment Corporation XCON (Expert Configuration) – een expert systeem dat hielp bij het configureren van computersystemen en het bedrijf miljoenen dollars bespaarde. Het succes van XCON leidde tot een golf van expert systemen in het bedrijfsleven ter ondersteuning van besluitvorming. Veel technologiebedrijven investeerden in expert systeem shells waarmee bedrijven hun eigen systemen konden bouwen.

De Lisp-programmeertaal kwam ook uit de experimentele fase met de introductie van Lisp-machines – hardware speciaal ontworpen voor AI-programma’s. Begin jaren 1980 ontstonden veel Lisp-startups (zoals Symbolics, Lisp Machines Inc.), wat leidde tot een investeringshype en het tijdperk van de “Lisp-machine” voor AI.

Grote overheden investeerden ook fors in AI. In 1982 startte Japan het Fifth Generation Computer Project met een budget van 850 miljoen dollar om intelligente computers te ontwikkelen met logica en Prolog. Ook de VS (DARPA) verhoogde de financiering van AI-onderzoek in de technologische concurrentie met Japan. Deze projecten richtten zich op expert systemen, natuurlijke taalverwerking en kennisbases, met de hoop superieure intelligente computers te creëren.

Tegelijkertijd maakte het veld van kunstmatige neurale netwerken een stille comeback. In 1986 publiceerde onderzoeker Geoffrey Hinton met collega’s het Backpropagation-algoritme – een effectieve methode om meerlaagse neurale netwerken te trainen, waarmee het belangrijkste bezwaar uit het boek Perceptrons (1969) werd opgelost.

Hoewel het principe van backpropagation al in 1970 was geschetst, werd het pas in de jaren 80 volledig benut dankzij sterkere computers. Het backpropagation-algoritme leidde tot een tweede golf van neurale netwerkonderzoek. Het geloof dat diepe neurale netwerken complexe modellen konden leren, groeide en vormde de basis voor het latere deep learning.

Jonge onderzoekers zoals Yann LeCun (Frankrijk) en Yoshua Bengio (Canada) sloten zich aan bij deze beweging en ontwikkelden succesvolle handschriftherkenningsmodellen aan het einde van het decennium.

Toch was de tweede AI-boom van korte duur. Eind jaren 1980 raakte AI opnieuw in een crisis door tegenvallende resultaten. Expert systemen waren nuttig in beperkte toepassingen, maar hadden beperkingen: ze waren star, moeilijk schaalbaar en vereisten handmatige kennisupdates.

Veel grote expert systeemprojecten mislukten, en de Lisp-markt stortte in door concurrentie van goedkopere personal computers. In 1987 ging de Lisp-industrie bijna failliet. De tweede AI-winter brak uit door sterke bezuinigingen op AI-investeringen eind jaren 1980, wat leidde tot een nieuwe periode van stagnatie. De term “AI winter” uit 1984 bleek treffend toen veel AI-bedrijven in 1987-1988 hun deuren sloten. AI ging opnieuw een neerwaartse cyclus in, waardoor onderzoekers hun verwachtingen en strategieën moesten bijstellen.

Samenvattend markeren de jaren 1980 een cyclus van opkomst en neergang van AI. Expert systemen brachten AI voor het eerst in de industriële praktijk, maar toonden ook de beperkingen van regelgebaseerde benaderingen. Desondanks leverde deze periode waardevolle ideeën en tools op: van neurale netwerkalgoritmen tot de eerste kennisbases. Belangrijke lessen over het vermijden van overoptimisme werden geleerd, wat de basis vormde voor een voorzichtiger aanpak in het volgende decennium.

AI in de jaren 1980

Jaren 1990: AI keert terug naar de praktijk

Na de AI-winter eind jaren 1980 herwon het vertrouwen in AI geleidelijk in de jaren 1990 dankzij een reeks praktische doorbraken. In plaats van te focussen op sterke AI (algemene kunstmatige intelligentie) met ambitieuze doelen, richtten onderzoekers zich op zwakke AI – het toepassen van AI-technieken op specifieke problemen waar indrukwekkende resultaten werden geboekt. Veel deelgebieden van AI uit eerdere periodes (zoals spraakherkenning, computervisie, zoekalgoritmen, kennisbases) ontwikkelden zich sterk en werden breed toegepast.

Een belangrijke mijlpaal was in mei 1997, toen IBM’s computer Deep Blue wereldkampioen schaken Garry Kasparov versloeg in een officiële wedstrijd. Dit was de eerste keer dat een AI-systeem een wereldkampioen versloeg in een complex intellectueel spel, wat wereldwijd veel aandacht trok.

De overwinning van Deep Blue – gebaseerd op brute-force zoekalgoritmen gecombineerd met een openingsdatabase – toonde de enorme rekenkracht en gespecialiseerde technieken die machines konden inzetten om mensen te overtreffen in specifieke taken. Dit markeerde de spectaculaire terugkeer van AI in de media en wekte nieuwe interesse in onderzoek na jaren van stilte.

AI boekte in de jaren 1990 ook vooruitgang op andere fronten. In gaming loste het programma Chinook in 1994 het damspel volledig op en werd onverslaanbaar, wat zelfs de wereldkampioen deed erkennen dat hij niet van de computer kon winnen.

Op het gebied van spraakherkenning verschenen commerciële systemen zoals Dragon Dictate (1990), en tegen het einde van het decennium werd spraakherkenningssoftware breed gebruikt op personal computers. Handschriftherkenning werd geïntegreerd in PDA’s (persoonlijke digitale assistenten) met steeds hogere nauwkeurigheid.

Toepassingen van computervisie werden geïmplementeerd in de industrie, van onderdeleninspectie tot beveiligingssystemen. Zelfs machinevertaling – een gebied waar AI in de jaren 60 faalde – boekte aanzienlijke vooruitgang met systemen zoals SYSTRAN die automatische vertalingen voor de Europese Unie ondersteunden.

Een andere belangrijke ontwikkeling was de toepassing van statistisch leren en neurale netwerken op grote datasets. De explosie van het internet aan het einde van de jaren 1990 bracht enorme hoeveelheden digitale data met zich mee. Technieken zoals data mining en machine learning-algoritmen zoals beslisbomen, neurale netwerken en verborgen Markov-modellen werden gebruikt om webdata te analyseren, zoekmachines te optimaliseren en content te personaliseren.

De term “data science” was nog niet wijdverbreid, maar AI was al ingebed in software systemen om prestaties te verbeteren door te leren van gebruikersdata (bijvoorbeeld spamfilters en productaanbevelingen in e-commerce). Deze kleine maar praktische successen hielpen AI om vertrouwen terug te winnen bij bedrijven en de maatschappij.

Men kan stellen dat de jaren 1990 een periode waren waarin AI stil maar gestaag in het dagelijks leven doordrong. In plaats van grote claims over menselijke intelligentie, richtten ontwikkelaars zich op specifieke problemen. Het resultaat was dat AI aanwezig was in veel technologieproducten aan het einde van de 20e eeuw zonder dat gebruikers zich dat altijd realiseerden – van games en software tot elektronische apparaten. Deze periode legde ook een belangrijke basis voor data en algoritmen die AI klaarstoomden voor een doorbraak in het volgende decennium.

AI in de jaren 1990

Jaren 2000: Machine learning en het tijdperk van big data

In de 21e eeuw maakte AI een krachtige transformatie door dankzij internet en het tijdperk van big data. De jaren 2000 zagen een explosie van personal computers, internetnetwerken en sensortechnologie, wat leidde tot enorme hoeveelheden data. Machine learning – vooral supervised learning – werd het belangrijkste instrument om deze “datamijn” te benutten.

De slogan “data is the new oil” werd populair, omdat meer data leidde tot nauwkeurigere AI-algoritmen. Grote technologiebedrijven bouwden systemen om gebruikersdata te verzamelen en te leren om hun producten te verbeteren: Google met slimme zoekmachines, Amazon met gepersonaliseerde aanbevelingen, Netflix met filmvoorstellen. AI werd het stille “brein” achter digitale platforms.

In 2006 markeerde een belangrijke gebeurtenis: Fei-Fei Li, professor aan Stanford University, startte het ImageNet-project – een enorme dataset met meer dan 14 miljoen afbeeldingen met gedetailleerde labels. Geïntroduceerd in 2009, werd ImageNet de standaard dataset voor training en evaluatie van computervisie-algoritmen, vooral voor objectherkenning in beelden.

ImageNet werd gezien als een “doping” die het onderzoek naar deep learning stimuleerde, omdat het voldoende data bood voor complexe diepe neurale netwerken. De jaarlijkse ImageNet Challenge vanaf 2010 werd een belangrijk strijdtoneel waar onderzoeksteams streden om de beste beeldherkenningsalgoritmen te ontwikkelen. Vanuit deze competitie zou in 2012 een historische doorbraak volgen (zie jaren 2010).

Ook in de jaren 2000 behaalde AI verschillende belangrijke toepassingsmijlpalen:

  • In 2005DARPA Grand Challenge – een 212 km lange woestijnrace voor autonome voertuigen. Stanley voltooide de route in 6 uur en 53 minuten, wat het begin markeerde van het tijdperk van zelfrijdende auto’s en grote investeringen van Google en Uber in de jaren daarna.
  • Virtuele assistenten op telefoons verschenen: in 2008 maakte de app Google Voice Search spraakgestuurde zoekopdrachten op de iPhone mogelijk; en het hoogtepunt was Apple Siri (lancering 2011) – een spraakgestuurde virtuele assistent geïntegreerd in de iPhone. Siri gebruikte spraakherkenning, natuurlijke taalverwerking en webservices om gebruikers te antwoorden, en markeerde de eerste grootschalige publieke adoptie van AI.
  • In 2011IBM Watson twee kampioenen in het Amerikaanse tv-spel Jeopardy!. Watson kon complexe Engelse vragen begrijpen en enorme hoeveelheden data doorzoeken om antwoorden te vinden, wat de kracht van AI in natuurlijke taalverwerking en informatieopzoeking aantoonde. Deze overwinning bewees dat computers “begrip” en slimme reacties konden vertonen in een breed kennisdomein.
  • Sociale netwerken en het web: Facebook introduceerde rond 2010 automatische gezichtsherkenning en tagging op foto’s, gebruikmakend van machine learning-algoritmen op gebruikersbeelden. YouTube en Google gebruikten AI om content te filteren en video’s aan te bevelen. Machine learning werkte stilletjes achter de schermen om gebruikerservaringen te optimaliseren, vaak zonder dat gebruikers het beseften.

Men kan zeggen dat de drijvende kracht van AI in de jaren 2000 data en toepassingen waren. Traditionele machine learning-algoritmen zoals regressie, SVM, beslisbomen werden op grote schaal toegepast en leverden praktische resultaten op.

AI verschoof van een onderzoeksgebied naar een industriële kracht: “AI voor bedrijven” werd een hot topic, met talloze bedrijven die AI-oplossingen aanboden voor management, financiën, marketing, enzovoort. In 2006 ontstond de term “enterprise AI”, die het gebruik van AI benadrukte om bedrijfsresultaten en besluitvorming te verbeteren.

Tegen het einde van het decennium ontstonden ook de eerste tekenen van de deep learning-revolutie. Onderzoek naar meerlaagse neurale netwerken bloeide op. In 2009 publiceerde het team van Andrew Ng aan Stanford het gebruik van GPU’s (grafische processors) om neurale netwerken tot 70 keer sneller te trainen dan met gewone CPU’s.

De parallelle rekenkracht van GPU’s bleek perfect geschikt voor matrixberekeningen in neurale netwerken, en maakte de training van grote deep learning-modellen in de jaren 2010 mogelijk. De laatste puzzelstukjes – grote datasets, krachtige hardware en verbeterde algoritmen – lagen klaar voor een nieuwe AI-revolutie.

AI in de jaren 2000

Jaren 2010: Deep learning-revolutie

Als er één periode is waarin AI echt “opvliegt”, dan is het het decennium van de jaren 2010. Met de basis van data en hardware uit het vorige decennium, betrad kunstmatige intelligentie het tijdperk van deep learning – meerlaagse neurale netwerken behaalden baanbrekende prestaties en verbraken alle records in diverse AI-taken. De droom van machines die “leren als het menselijk brein” werd deels werkelijkheid dankzij deep learning-algoritmen.

De historische doorbraak kwam in 2012, toen het team van Geoffrey Hinton en studenten (Alex Krizhevsky, Ilya Sutskever) deelnamen aan de ImageNet Challenge. Hun model – bekend als AlexNet – was een 8-laags convolutioneel neuraal netwerk getraind op GPU’s. AlexNet behaalde superieure nauwkeurigheid en halveerde de foutmarge in beeldherkenning vergeleken met de nummer twee.

Deze overweldigende overwinning schokte de computervisie-gemeenschap en luidde de “deep learning-hype” in AI in. In de jaren daarna werden bijna alle traditionele beeldherkenningsmethoden vervangen door deep learning-modellen.

Het succes van AlexNet bewees dat met voldoende data (ImageNet) en rekenkracht (GPU’s), diepe neurale netwerken andere AI-technieken kunnen overtreffen. Hinton en zijn team werden snel door Google aangetrokken, en deep learning werd het populairste onderzoeksgebied in AI.

Deep learning transformeerde niet alleen computervisie, maar verspreidde zich ook naar spraakverwerking, taalverwerking en vele andere domeinen. In 2012 maakte Google Brain (een project van Andrew Ng en Jeff Dean) indruk met een diep neuraal netwerk dat zelfstandig YouTube-video’s analyseerde en het concept “kat” ontdekte zonder voorafgaande labels.

Tussen 2011 en 2014 verschenen virtuele assistenten zoals Siri, Google Now (2012) en Microsoft Cortana (2014), die profiteerden van vooruitgang in spraakherkenning en natuurlijke taalverwerking. Zo bereikte Microsofts spraakherkenningssysteem in 2017 menselijke nauwkeurigheid, grotendeels dankzij diepe neurale netwerken voor geluidsmodellering. In vertaling schakelde Google Translate in 2016 over op neurale machinevertaling (NMT), wat de vertaalkwaliteit aanzienlijk verbeterde ten opzichte van statistische modellen.

Een andere belangrijke mijlpaal was de overwinning van AI in het bordspel Go – ooit als onhaalbaar beschouwd. In maart 2016 versloeg DeepMind’s programma AlphaGo de wereldkampioen Go Lee Sedol met 4-1. Go is veel complexer dan schaken, met zoveel mogelijke zetten dat brute-force zoeken onmogelijk is. AlphaGo combineerde deep learning en Monte Carlo Tree Search, leerde van miljoenen menselijke partijen en speelde ook tegen zichzelf.

Deze overwinning werd vergeleken met Deep Blue-Kasparov in 1997 en toonde aan dat AI mensen kan overtreffen in domeinen die intuïtie en ervaring vereisen. DeepMind ontwikkelde daarna AlphaGo Zero (2017), dat volledig zelfstandig Go leerde spelen zonder menselijke data, en het oude model met 100-0 versloeg. Dit toonde het potentieel van versterkend leren (reinforcement learning) gecombineerd met deep learning voor superieure prestaties.

In 2017 werd een baanbrekende uitvinding gedaan in natuurlijke taalverwerking: de Transformer-architectuur. Google-onderzoekers publiceerden het model in het artikel “Attention Is All You Need”, waarin ze een self-attention-mechanisme introduceerden dat het mogelijk maakt om relaties tussen woorden in een zin te modelleren zonder sequentiële verwerking.

Transformer maakte het trainen van grote taalmodellen (LLM) veel efficiënter dan eerdere sequentiële modellen (RNN/LSTM). Vanaf dat moment verschenen vele verbeterde taalmodellen gebaseerd op Transformer: BERT (Google, 2018) voor contextbegrip, en vooral GPT (Generative Pre-trained Transformer) van OpenAI, geïntroduceerd in 2018.

Deze modellen behaalden uitstekende resultaten in taalgerelateerde taken, van classificatie en vraagbeantwoording tot tekstgeneratie. Transformer legde de basis voor de race om steeds grotere taalmodellen in de jaren 2020.

Eind jaren 2010 verscheen ook generatieve AI – AI-modellen die zelf nieuwe inhoud kunnen creëren. In 2014 introduceerden Ian Goodfellow en collega’s het GAN (Generative Adversarial Network), bestaande uit twee tegenstrijdige neurale netwerken die realistische nepdata genereren.

GAN’s werden beroemd om hun vermogen om realistische nepportretten te maken (deepfakes). Tegelijkertijd werden variational autoencoders (VAE) en style transfer-netwerken ontwikkeld, waarmee afbeeldingen en video’s op nieuwe manieren konden worden gemanipuleerd.

In 2019 introduceerde OpenAI GPT-2 – een tekstgeneratiemodel met 1,5 miljard parameters dat vloeiende, mensachtige teksten kon produceren. Dit trok veel aandacht omdat het lange, coherente teksten kon schrijven. Het toonde duidelijk aan dat AI niet alleen kan classificeren en voorspellen, maar ook creatief inhoud kan genereren.

AI maakte in de jaren 2010 enorme sprongen vooruit. Taken die eerder als “onmogelijk” werden beschouwd voor computers, zoals beeldherkenning, spraakherkenning, vertaling en complexe spellen, werden nu op of boven menselijk niveau uitgevoerd.

Belangrijker nog, AI drong door in het dagelijks leven: van smartphonecamera’s met automatische gezichtsherkenning, virtuele assistenten in slimme speakers (Alexa, Google Home), tot contentaanbevelingen op sociale media. Dit was echt een AI-explosie, waardoor velen AI omschreven als “de nieuwe elektriciteit” – een fundamentele technologie die alle sectoren verandert.

AI in de jaren 2010

Jaren 2020: Explosie van generatieve AI en nieuwe trends

In slechts enkele jaren aan het begin van de jaren 2020 is AI in een ongekend tempo geëxplodeerd, vooral dankzij de opkomst van generatieve AI en grote taalmodellen (LLM). Deze systemen maken het mogelijk dat AI direct honderden miljoenen gebruikers bereikt, wat een golf van creatieve toepassingen en brede maatschappelijke discussies over de impact van AI op gang bracht.

In juni 2020 introduceerde OpenAI GPT-3 – een enorm taalmodel met 175 miljard parameters, tien keer groter dan het grootste model daarvoor. GPT-3 verbaasde door vloeiende teksten te schrijven, vragen te beantwoorden, poëzie te maken en code te schrijven die bijna menselijk leek, ondanks enkele feitelijke fouten. De schaal van GPT-3 en de enorme trainingsdata toonden aan dat grote modellen met veel data vloeiende taalvaardigheden kunnen ontwikkelen. Toepassingen gebaseerd op GPT-3 verschenen snel, van marketingteksten tot e-mailassistenten en programmeerhulp.

In november 2022 kwam AI echt in de publieke belangstelling met de lancering van ChatGPT – een interactieve chatbot ontwikkeld door OpenAI, gebaseerd op het GPT-3.5-model. Binnen 5 dagen bereikte ChatGPT 1 miljoen gebruikers, en binnen 2 maanden meer dan 100 miljoen gebruikers, waarmee het de snelst groeiende consumentenapp ooit werd.

ChatGPT kan vloeiend talloze vragen beantwoorden, van tekstschrijven tot wiskunde en advies, wat gebruikers verbaasde door de “intelligentie” en flexibiliteit. De populariteit van ChatGPT markeerde de eerste massale adoptie van AI als creatief hulpmiddel en luidde de AI-race tussen grote technologiebedrijven in.

Begin 2023 integreerde Microsoft GPT-4 (de opvolger van OpenAI) in de zoekmachine Bing, terwijl Google de chatbot Bard lanceerde, gebaseerd op hun eigen LaMDA-model. Deze concurrentie stimuleert dat generatieve AI steeds breder toegankelijk wordt en snel verbetert.

Naast tekst ontwikkelde generatieve AI zich ook sterk in beeld en geluid. In 2022 verschenen text-to-image-modellen zoals DALL-E 2 (OpenAI), Midjourney en Stable Diffusion, waarmee gebruikers tekstbeschrijvingen konden invoeren en AI realistische, creatieve afbeeldingen genereerde. De kwaliteit was zo indrukwekkend dat het een nieuw tijdperk van digitale contentcreatie inluidde.

Tegelijkertijd riep dit ook uitdagingen op rond auteursrechten en ethiek, omdat AI leerde van kunstenaars’ werk en vergelijkbare producten maakte. In audio kunnen nieuwe text-to-speech-modellen teksten omzetten in stemmen die bijna niet van echt te onderscheiden zijn, en zelfs beroemde stemmen imiteren, wat zorgen baart over deepfake-audio.

In 2023 vonden voor het eerst rechtszaken plaats over auteursrechten van trainingsdata – bijvoorbeeld Getty Images klaagde Stability AI (ontwikkelaar van Stable Diffusion) aan wegens het gebruik van miljoenen auteursrechtelijk beschermde afbeeldingen zonder toestemming. Dit toont de schaduwzijde van de AI-explosie: juridische, ethische en maatschappelijke kwesties komen op de voorgrond en vragen om serieuze aandacht.

Midden in de AI-hype uitten in 2023 experts bezorgdheid over de risico’s van sterke AI. Meer dan 1.000 technologen (waaronder Elon Musk, Steve Wozniak en AI-onderzoekers) ondertekenden een open brief waarin ze opriepen tot een zes maanden stop op het trainen van AI-modellen groter dan GPT-4, uit angst dat de ontwikkeling te snel gaat en buiten controle raakt.

In hetzelfde jaar waarschuwden pioniers zoals Geoffrey Hinton (een “vader” van deep learning) voor het risico dat AI buiten menselijke controle raakt. De Europese Commissie voltooide snel de AI-wet (EU AI Act) – de eerste uitgebreide regelgeving ter wereld voor kunstmatige intelligentie, die vanaf 2024 van kracht wordt. Deze wet verbiedt AI-systemen met onaanvaardbare risico’s (zoals massale surveillance en sociale scores) en eist transparantie voor algemene AI-modellen.

In de VS hebben verschillende staten ook wetten aangenomen die het gebruik van AI in gevoelige domeinen (zoals werving, financiën en verkiezingscampagnes) beperken. Het is duidelijk dat de wereld haast maakt met het vormgeven van juridische en ethische kaders voor AI, wat onvermijdelijk is nu de technologie diepgaande impact heeft.

Over het geheel genomen zien we in de jaren 2020 een explosie van AI op technisch en maatschappelijk vlak. Nieuwe AI-tools zoals ChatGPT, DALL-E, Midjourney, enzovoort zijn al vertrouwd en helpen miljoenen mensen creatief te zijn en efficiënter te werken op manieren die voorheen ondenkbaar waren.

Tegelijkertijd is er een levendige investeringsrace in AI: naar verwachting zullen de uitgaven van bedrijven aan generatieve AI de komende jaren meer dan 1 miljard dollar overschrijden. AI dringt ook steeds dieper door in sectoren als gezondheidszorg (beelddiagnose, medicijnontwikkeling), financiën (risicoanalyse, fraudeopsporing), onderwijs (virtuele docenten, gepersonaliseerde leerinhoud), vervoer (hoogwaardige zelfrijdende auto’s), defensie (tactische besluitvorming), enzovoort.

Men kan zeggen dat AI nu vergelijkbaar is met elektriciteit of internet – een technologische infrastructuur die elk bedrijf en elke overheid wil benutten. Veel experts zijn optimistisch dat AI zal blijven zorgen voor sprongen in productiviteit en levenskwaliteit, mits het op de juiste manier wordt ontwikkeld en beheerd.

AI in de jaren 2020


Vanaf de jaren 1950 tot nu heeft de geschiedenis van AI een indrukwekkende reis doorgemaakt – vol ambitie, teleurstelling en uiteindelijk bloei. Vanaf de kleine Dartmouth-conferentie in 1956 die de basis legde voor het veld, heeft AI twee keer een “winter” doorgemaakt door te hoge verwachtingen, maar kwam daarna steeds sterker terug dankzij wetenschappelijke en technologische doorbraken. Vooral in de afgelopen 15 jaar heeft AI enorme vooruitgang geboekt, is het echt uit het laboratorium getreden en heeft het diepe impact gemaakt.

Tegenwoordig is AI aanwezig in vrijwel alle sectoren en wordt het steeds slimmer en veelzijdiger. Toch ligt het doel van sterke AI (algemene kunstmatige intelligentie) – een machine met flexibele menselijke intelligentie – nog steeds in de toekomst.

De huidige AI-modellen zijn indrukwekkend, maar nog steeds gespecialiseerd in de taken waarvoor ze getraind zijn, en maken soms domme fouten (zoals dat ChatGPT “hallucinaties” van onjuiste informatie kan hebben met grote overtuiging). Veiligheids- en ethische uitdagingen vragen dringend om oplossingen: hoe kunnen we AI ontwikkelen die controleerbaar, transparant en in het belang van de mensheid is?

De volgende fase van AI belooft uiterst interessant te worden. Met de huidige vooruitgang kunnen we verwachten dat AI nog dieper doordringt in het dagelijks leven: van AI-artsen die mensen helpen bij gezondheidszorg, AI-juristen die wetsteksten doorzoeken, tot AI-vrienden die ondersteunen bij leren en persoonlijke gesprekken.

Technologieën zoals neuromorfe computing worden onderzocht om de architectuur van het menselijk brein na te bootsen, wat kan leiden tot nieuwe generaties AI die efficiënter en natuurlijker intelligent zijn. Hoewel het debat over AI die menselijke intelligentie overtreft voortduurt, is het duidelijk dat AI zal blijven evolueren en de toekomst van de mensheid diepgaand zal vormgeven.

Terugkijkend op de geschiedenis van AI zien we een verhaal van volharding en voortdurende creativiteit van de mens. Van de eerste simpele computers die alleen konden rekenen, hebben we machines geleerd om te schaken, auto’s te besturen, de wereld te herkennen en zelfs kunst te maken. Kunstmatige intelligentie is en blijft een bewijs van onze capaciteit om grenzen te verleggen.

Het belangrijkste is dat we leren van deze geschiedenis – verwachtingen realistisch houden en AI verantwoordelijk ontwikkelen – om te zorgen dat AI maximale voordelen voor de mensheid oplevert in de komende fasen.