De risico's van het gebruik van AI
Kunstmatige intelligentie (AI) brengt veel voordelen, maar brengt ook veel risico's met zich mee als het wordt misbruikt of zonder controle wordt gebruikt. Van problemen met gegevensbeveiliging, informatievervorming, schending van auteursrechten tot het risico van arbeidsvervanging, AI brengt uitdagingen met zich mee die effectief moeten worden geïdentificeerd en beheerd. Het begrijpen van de risico's van het gebruik van AI helpt individuen en bedrijven om de technologie veilig en duurzaam toe te passen.
Kunstmatige intelligentie (AI) is nu verweven in alles, van smartphone-assistenten en sociale media feeds tot gezondheidszorg en transport. Deze technologieën brengen ongekende voordelen, maar ze brengen ook aanzienlijke risico's en uitdagingen met zich mee.
In dit artikel verkennen we met INVIAI de risico's van het gebruik van AI in alle gebieden en typen AI – van chatbots en algoritmen tot robots – gebaseerd op inzichten van officiële en internationale bronnen.
- 1. Vooringenomenheid en discriminatie in AI-systemen
- 2. Gevaren van misinformatie en deepfakes
- 3. Bedreigingen voor privacy en massale surveillance
- 4. Veiligheidsfouten en onbedoelde schade
- 5. Baanverlies en economische ontwrichting
- 6. Crimineel misbruik, fraude en beveiligingsbedreigingen
- 7. Militarisering en autonome wapens
- 8. Gebrek aan transparantie en verantwoordelijkheid
- 9. Concentratie van macht en ongelijkheid
- 10. Milieu-impact van AI
- 11. Existentiële en langetermijnrisico's
- 12. Verantwoord navigeren in de toekomst van AI
Vooringenomenheid en discriminatie in AI-systemen
Een groot risico van AI is het verankeren van vooringenomenheid en oneerlijke discriminatie. AI-modellen leren van data die historische vooroordelen of ongelijkheden kunnen weerspiegelen; daardoor kan een AI-systeem mensen anders behandelen op basis van ras, geslacht of andere kenmerken op manieren die onrechtvaardigheid in stand houden.
Een slecht functionerende algemene AI kan schade veroorzaken door bevooroordeelde beslissingen met betrekking tot beschermde kenmerken zoals ras, geslacht, cultuur, leeftijd en handicap.
— Internationaal AI Veiligheidsrapport
Wereldwijde organisaties zoals UNESCO waarschuwen dat AI zonder eerlijkheidsmaatregelen het risico loopt "reële wereldvooroordelen en discriminatie te reproduceren, verdeeldheid te voeden en fundamentele mensenrechten en vrijheden te bedreigen". Het is essentieel dat AI-systemen worden getraind op diverse, representatieve data en worden gecontroleerd op vooringenomenheid om geautomatiseerde discriminatie te voorkomen.
Wervingsvooroordelen
AI-wervingshulpmiddelen kunnen discrimineren tegen bepaalde demografische groepen
Discriminatie bij leningen
Financiële algoritmen kunnen onterecht leningen weigeren op basis van beschermde kenmerken
Ongelijkheid in politietoezicht
Voorspellende politietoezicht kan bestaande vooroordelen in wetshandhaving versterken

Gevaren van misinformatie en deepfakes
De mogelijkheid van AI om hyperrealistische tekst, afbeeldingen en video's te genereren heeft angst gewekt voor een stortvloed aan misinformatie. Generatieve AI kan overtuigende nepnieuwsartikelen, valse afbeeldingen of deepfake-video's produceren die moeilijk van de werkelijkheid te onderscheiden zijn.
In feite vormen misinformatie en desinformatie, aangewakkerd door AI, een van "de grootste uitdagingen ooit voor het democratische proces" – vooral met miljarden mensen die binnenkort gaan stemmen. Synthetische media zoals deepfake-video's en AI-gekloneerde stemmen kunnen worden ingezet om propaganda te verspreiden, publieke figuren te imiteren of fraude te plegen.
Deepfake-video's
Stemklonen
Functionarissen waarschuwen dat kwaadwillenden AI kunnen inzetten voor grootschalige desinformatiecampagnes, waardoor het gemakkelijker wordt om sociale netwerken te overspoelen met nepinhoud en chaos te zaaien. Het risico is een cynische informatieomgeving waarin burgers niet kunnen vertrouwen wat ze zien of horen, wat het publieke debat en de democratie ondermijnt.

Bedreigingen voor privacy en massale surveillance
Het wijdverbreide gebruik van AI roept ernstige privacyzorgen op. AI-systemen vereisen vaak enorme hoeveelheden persoonlijke gegevens – van onze gezichten en stemmen tot onze winkelgewoonten en locatie – om effectief te functioneren. Zonder sterke waarborgen kunnen deze gegevens worden misbruikt of geëxploiteerd.
Bijvoorbeeld, gezichtsherkenning en voorspellende algoritmen kunnen alomtegenwoordige surveillance mogelijk maken, waarbij elke beweging van individuen wordt gevolgd of hun gedrag wordt beoordeeld zonder toestemming.
Gezichtsherkenning
Continue tracking van individuen in openbare ruimtes
- Identiteitstracking
- Gedragsanalyse
Voorspellende analyse
AI-analyse die intieme persoonlijke details onthult
- Gezondheidstoestand
- Politieke overtuigingen
Sociale scoring
Beoordeling van burgers op basis van gedragskenmerken
- Credit scoring
- Sociale naleving
Privacy is een recht dat essentieel is voor de bescherming van menselijke waardigheid, autonomie en handelingsbekwaamheid en moet worden gerespecteerd gedurende de hele levenscyclus van een AI-systeem.
— Gegevensbeschermingsinstanties
Als AI-ontwikkeling sneller gaat dan privacyregelgeving, kunnen individuen de controle over hun eigen informatie verliezen. De samenleving moet ervoor zorgen dat robuust databeheer, toestemmingsmechanismen en privacybeschermende technieken aanwezig zijn, zodat AI-technologieën niet veranderen in instrumenten van ongecontroleerde surveillance.

Veiligheidsfouten en onbedoelde schade
Hoewel AI beslissingen en fysieke taken met supermenselijke efficiëntie kan automatiseren, kan het ook op onvoorspelbare manieren falen, wat leidt tot schade in de echte wereld. We vertrouwen AI steeds meer met veiligheidskritieke verantwoordelijkheden – zoals het besturen van auto's, het diagnosticeren van patiënten of het beheren van elektriciteitsnetten – maar deze systemen zijn niet onfeilbaar.
Storingen, gebrekkige trainingsdata of onvoorziene situaties kunnen ertoe leiden dat een AI gevaarlijke fouten maakt. De AI van een zelfrijdende auto kan een voetganger verkeerd identificeren, of een medische AI kan de verkeerde behandeling aanbevelen, met mogelijk dodelijke gevolgen.
Autonome voertuigen
Medische AI
Beheer van elektriciteitsnet
Ongewenste schade (veiligheidsrisico's), evenals kwetsbaarheden voor aanvallen (beveiligingsrisico's), moeten worden vermeden en aangepakt gedurende de levenscyclus van AI-systemen om de veiligheid en beveiliging van mens, milieu en ecosystemen te waarborgen.
— Internationale AI-richtlijnen
Met andere woorden, AI-systemen moeten grondig worden getest, gemonitord en gebouwd met fail-safes om de kans op storingen te minimaliseren. Overmatige afhankelijkheid van AI kan ook riskant zijn – als mensen blindelings vertrouwen op geautomatiseerde beslissingen, kunnen ze te laat ingrijpen wanneer er iets misgaat.
Het waarborgen van menselijke controle is daarom essentieel. Bij toepassingen met hoge inzet (zoals gezondheidszorg of transport) moeten definitieve beslissingen onderhevig blijven aan menselijk oordeel. Het handhaven van veiligheid en betrouwbaarheid in AI is een voortdurende uitdaging die zorgvuldige ontwerp en een cultuur van verantwoordelijkheid van AI-ontwikkelaars vereist.

Baanverlies en economische ontwrichting
De transformerende impact van AI op de economie is een tweesnijdend zwaard. Enerzijds kan AI de productiviteit verhogen en geheel nieuwe industrieën creëren; anderzijds brengt het een risico met zich mee dat miljoenen werknemers worden vervangen door automatisering.
Veel banen – vooral die met routinematige, repetitieve taken of gemakkelijk te analyseren data – lopen het risico te worden overgenomen door AI-algoritmen en robots.
Traditionele banen
- Routinematige, repetitieve taken
- Data-analyse functies
- Handarbeid
- Basis klantenservice
Nieuwe vaardigheidseisen
- Samenwerking met AI
- Creatief probleemoplossen
- Technisch AI-beheer
- Mensgerichte diensten
Hoewel de economie ook nieuwe rollen kan creëren (mogelijk zelfs meer banen dan er verloren gaan op de lange termijn), zal de overgang voor velen pijnlijk zijn. De verworven banen vereisen vaak andere, meer geavanceerde vaardigheden of zijn geconcentreerd in bepaalde technologische centra, waardoor veel ontslagen werknemers moeite kunnen hebben om een nieuwe positie te vinden.
Deze mismatch tussen de vaardigheden die werknemers hebben en de vaardigheden die nieuwe AI-gedreven rollen vereisen kan leiden tot hogere werkloosheid en ongelijkheid als er geen maatregelen worden genomen. Beleidsmakers en onderzoekers waarschuwen inderdaad dat snelle AI-ontwikkeling kan leiden tot "ontwrichting van de arbeidsmarkt en economische machtsongelijkheden" op systemisch niveau.
Genderimpact
Hoger aandeel banen van vrouwen loopt risico op automatisering
Ontwikkelingslanden
Werknemers in ontwikkelingslanden lopen een hoger risico op automatisering
Zonder proactieve maatregelen (zoals omscholingsprogramma's, onderwijs in AI-vaardigheden en sociale vangnetten) kan AI de sociaaleconomische kloof vergroten, waardoor een AI-gedreven economie ontstaat waarin degenen die de technologie bezitten het meeste profiteren.
Het voorbereiden van de beroepsbevolking op de impact van AI is cruciaal om ervoor te zorgen dat de voordelen van automatisering breed worden gedeeld en om sociale onrust door massaal baanverlies te voorkomen.

Crimineel misbruik, fraude en beveiligingsbedreigingen
AI is een krachtig hulpmiddel dat net zo gemakkelijk voor slechte als voor goede doeleinden kan worden ingezet. Cybercriminelen en andere kwaadwillenden maken al gebruik van AI om hun aanvallen te verbeteren.
Zo kan AI zeer gepersonaliseerde phishing-e-mails of spraakberichten genereren (door iemands stem te klonen) om mensen te misleiden gevoelige informatie te onthullen of geld over te maken. Het kan ook worden gebruikt om hacken te automatiseren door softwarekwetsbaarheden op grote schaal te vinden of om malware te ontwikkelen die zich aanpast om detectie te ontwijken.
AI-gestuurde phishing
Geautomatiseerd hacken
Adaptieve malware
Kwaadwillenden kunnen AI gebruiken voor grootschalige desinformatie- en beïnvloedingsoperaties, fraude en oplichting.
— Rapport in opdracht van de Britse overheid
Het Center for AI Safety identificeert kwaadaardig gebruik van AI als een belangrijke zorg, met scenario's zoals AI-systemen die door criminelen worden gebruikt voor grootschalige fraude en cyberaanvallen.
De snelheid, schaal en verfijning die AI biedt, kunnen traditionele verdedigingen overweldigen – stel je duizenden AI-gegenereerde scamgesprekken of deepfake-video's voor die op één dag de beveiliging van een bedrijf aanvallen.
Nu AI-tools toegankelijker worden, daalt de drempel om deze kwaadaardige activiteiten uit te voeren, wat kan leiden tot een toename van door AI versterkte criminaliteit.
Dit vereist nieuwe benaderingen van cyberbeveiliging en wetshandhaving, zoals AI-systemen die deepfakes of afwijkend gedrag kunnen detecteren en bijgewerkte juridische kaders om daders aansprakelijk te stellen. In wezen moeten we anticiperen dat elke mogelijkheid die AI aan weldoeners biedt, evenzeer aan criminelen kan worden geboden – en ons daarop voorbereiden.

Militarisering en autonome wapens
Misschien wel het meest angstaanjagende risico van AI doet zich voor in de context van oorlogvoering en nationale veiligheid. AI wordt snel geïntegreerd in militaire systemen, wat het vooruitzicht van autonome wapens ("killer robots") en AI-gestuurde besluitvorming in gevechten vergroot.
Deze technologieën kunnen sneller reageren dan een mens, maar het wegnemen van menselijke controle over het gebruik van dodelijk geweld is vol gevaren. Er bestaat het risico dat een AI-gestuurd wapen het verkeerde doelwit kiest of conflicten op onvoorziene manieren escaleert.
Fouten bij doelwitselectie
AI-wapens kunnen burgers verkeerd identificeren als strijders
- Vals-positieve identificatie
- Slachtoffers onder burgers
Escalatie van conflicten
Autonome systemen kunnen situaties verder escaleren dan menselijke intentie
- Snelle reactiecylussen
- Ongecontroleerde escalatie
Als landen wedijveren om hun arsenaal uit te rusten met intelligente wapens, kan dit een destabiliserende wapenwedloop veroorzaken. Bovendien kan AI worden ingezet in cyberoorlogvoering om kritisch infrastructuur autonoom aan te vallen of propaganda te verspreiden, waardoor de grens tussen vrede en conflict vervaagt.
De ontwikkeling van AI in oorlogvoering, als deze geconcentreerd is in de handen van enkelen, kan aan mensen worden opgelegd zonder dat zij inspraak hebben in het gebruik ervan, wat de wereldwijde veiligheid en ethiek ondermijnt.
— Verenigde Naties
Autonome wapensystemen brengen ook juridische en morele dilemma's met zich mee – wie is aansprakelijk als een AI-drone per ongeluk burgers doodt? Hoe voldoen dergelijke systemen aan het internationale humanitaire recht?
Deze onbeantwoorde vragen hebben geleid tot oproepen voor verboden of strikte regulering van bepaalde AI-ondersteunde wapens. Het waarborgen van menselijke controle over elke AI die levensbedreigende beslissingen kan nemen, wordt algemeen als essentieel gezien. Zonder die controle is het risico niet alleen tragische fouten op het slagveld, maar ook het verval van menselijke verantwoordelijkheid in oorlog.

Gebrek aan transparantie en verantwoordelijkheid
De meeste geavanceerde AI-systemen functioneren tegenwoordig als "black boxes" – hun interne logica is vaak ondoorzichtig, zelfs voor hun makers. Dit gebrek aan transparantie creëert het risico dat AI-beslissingen niet kunnen worden uitgelegd of betwist, wat een ernstig probleem is in domeinen zoals rechtspraak, financiën of gezondheidszorg waar uitlegbaarheid een wettelijke of ethische vereiste kan zijn.
Als een AI iemand een lening weigert, een ziekte diagnosticeert of beslist wie voorwaardelijk vrijkomt uit de gevangenis, willen we natuurlijk weten waarom. Bij sommige AI-modellen (vooral complexe neurale netwerken) is het moeilijk om een duidelijke reden te geven.
Juridische beslissingen
Financiële diensten
Gezondheidszorg
Een gebrek aan transparantie kan ook de mogelijkheid ondermijnen om beslissingen op basis van AI-uitkomsten effectief aan te vechten, en kan daarmee het recht op een eerlijk proces en effectieve rechtsmiddelen schenden.
— UNESCO
Met andere woorden, als noch gebruikers noch toezichthouders kunnen begrijpen hoe AI beslissingen neemt, wordt het bijna onmogelijk om iemand verantwoordelijk te houden voor fouten of vooroordelen die ontstaan.
Om dit tegen te gaan pleiten experts voor uitlegbare AI-technieken, rigoureuze audits en wettelijke vereisten dat AI-beslissingen traceerbaar zijn naar menselijke autoriteit.
Wereldwijde ethische richtlijnen benadrukken dat het "altijd mogelijk moet zijn om ethische en juridische verantwoordelijkheid" voor het gedrag van AI-systemen toe te wijzen aan een persoon of organisatie. Mensen moeten uiteindelijk verantwoordelijk blijven, en AI moet menselijke oordeelsvorming ondersteunen in plaats van vervangen in gevoelige zaken. Anders riskeren we een wereld waarin belangrijke beslissingen worden genomen door ondoorgrondelijke machines, wat een recept is voor onrechtvaardigheid.

Concentratie van macht en ongelijkheid
De AI-revolutie vindt niet gelijkmatig over de wereld plaats – een klein aantal bedrijven en landen domineert de ontwikkeling van geavanceerde AI, wat zijn eigen risico's met zich meebrengt.
Geavanceerde AI-modellen vereisen enorme hoeveelheden data, talent en rekenkracht die momenteel alleen techgiganten (en goed gefinancierde overheden) bezitten.
Dit heeft geleid tot een sterk geconcentreerde, unieke, wereldwijd geïntegreerde toeleveringsketen die een paar bedrijven en landen bevoordeelt.
— World Economic Forum
Datamonopolies
Enorme datasets gecontroleerd door enkele entiteiten
Rekenkracht
Dure infrastructuur alleen toegankelijk voor techgiganten
Concentratie van talent
Top AI-onderzoekers geconcentreerd in enkele organisaties
Zo'n concentratie van AI-macht kan leiden tot monopolistische controle over AI-technologieën, wat concurrentie en consumentenkeuze beperkt. Het vergroot ook het gevaar dat de prioriteiten van die paar bedrijven of landen AI vormen op manieren die geen rekening houden met het bredere publieke belang.
Deze ongelijkheid kan wereldwijde verschillen verergeren: rijke landen en bedrijven lopen voorop door AI te benutten, terwijl armere gemeenschappen geen toegang hebben tot de nieuwste tools en banen verliezen zonder te profiteren van AI.
Bovendien kan een geconcentreerde AI-industrie innovatie verstikken (als nieuwkomers niet kunnen concurreren met de middelen van gevestigde partijen) en beveiligingsrisico's veroorzaken (als kritieke AI-infrastructuur door slechts enkele entiteiten wordt beheerd, wordt het een enkelvoudig falingspunt of manipuleerbaar).
Het aanpakken van dit risico vereist internationale samenwerking en mogelijk nieuwe regelgeving om AI-ontwikkeling te democratiseren – bijvoorbeeld door open onderzoek te ondersteunen, eerlijke toegang tot data en rekenkracht te waarborgen en beleid te ontwikkelen (zoals de voorgestelde AI-wet van de EU) om misbruik door "AI-poortwachters" te voorkomen. Een inclusievere AI-omgeving zou helpen om ervoor te zorgen dat de voordelen van AI wereldwijd worden gedeeld, in plaats van de kloof tussen tech-haves en have-nots te vergroten.

Milieu-impact van AI
Vaak over het hoofd gezien in discussies over de risico's van AI is de milieu-impact. AI-ontwikkeling, vooral het trainen van grote machine learning-modellen, verbruikt enorme hoeveelheden elektriciteit en rekenkracht.
Datacenters vol met duizenden energieverslindende servers zijn nodig om de enorme hoeveelheden data te verwerken waar AI-systemen van leren. Dit betekent dat AI indirect kan bijdragen aan koolstofemissies en klimaatverandering.
Met de groeiende investeringen in AI wordt verwacht dat de emissies van het draaien van AI-modellen sterk zullen stijgen – het rapport voorspelde dat de top AI-systemen gezamenlijk meer dan 100 miljoen ton CO₂ per jaar kunnen uitstoten, wat een aanzienlijke druk op de energie-infrastructuur legt.
Ter vergelijking: datacenters die AI aandrijven, zorgen voor een stijging van het elektriciteitsverbruik "vier keer sneller dan de algemene stijging van het elektriciteitsverbruik".
Energieverbruik
Waterverbruik
Elektronisch afval
Naast koolstofemissies kan AI ook veel water verbruiken voor koeling en elektronisch afval produceren doordat hardware snel wordt geüpgraded. Als dit niet wordt beheerst, kan de milieu-impact van AI de wereldwijde duurzaamheidsinspanningen ondermijnen.
Dit risico vraagt om het energiezuiniger maken van AI en het gebruik van schonere energiebronnen. Onderzoekers ontwikkelen groene AI-technieken om het energieverbruik te verminderen, en sommige bedrijven hebben beloofd de koolstofkosten van AI te compenseren. Desalniettemin blijft het een dringende zorg dat de haast naar AI een zware ecologische prijs kan hebben. Het balanceren van technologische vooruitgang met ecologische verantwoordelijkheid is een andere uitdaging waar de samenleving voor staat bij de integratie van AI overal.

Existentiële en langetermijnrisico's
Naast de directe risico's waarschuwen sommige experts voor meer speculatieve, langetermijnrisico's van AI – waaronder de mogelijkheid van een geavanceerde AI die buiten menselijke controle groeit. Hoewel de AI-systemen van vandaag beperkt zijn in hun capaciteiten, werken onderzoekers actief aan meer algemene AI die mogelijk mensen in veel domeinen kan overtreffen.
Dit roept complexe vragen op: als een AI veel intelligenter of autonomer wordt, zou het dan kunnen handelen op manieren die het bestaan van de mensheid bedreigen? Hoewel het klinkt als sciencefiction, hebben prominente figuren in de techgemeenschap hun bezorgdheid geuit over "rogue AI"-scenario's, en nemen overheden de discussie serieus.
Experts hebben verschillende opvattingen over het risico dat de mensheid de controle over AI verliest op een manier die catastrofale gevolgen kan hebben.
— Internationaal AI Veiligheidsrapport
De wetenschappelijke consensus is niet uniform – sommigen geloven dat superintelligente AI decennia weg is of kan worden afgestemd op menselijke waarden, terwijl anderen een kleine maar niet-nul kans op catastrofale uitkomsten zien.
Potentiële existentiële risicoscenario's
- AI die doelen nastreeft die niet in lijn zijn met menselijke waarden
- Snelle, ongecontroleerde vooruitgang in AI-capaciteiten
- Verlies van menselijke handelingsbekwaamheid in kritieke besluitvorming
- AI-systemen die optimaliseren voor schadelijke doelen
Langetermijn veiligheidsmaatregelen
- Onderzoek naar AI-afstemming om compatibele doelen te waarborgen
- Internationale overeenkomsten over AI-onderzoek met hoge inzet
- Handhaving van menselijke controle naarmate AI capabeler wordt
- Opzetten van wereldwijde AI-governancekaders
In wezen wordt erkend dat existentiële risico's van AI, hoe klein ook, niet volledig kunnen worden uitgesloten. Zo'n uitkomst kan inhouden dat een AI zijn doelen nastreeft ten koste van het welzijn van de mens (het klassieke voorbeeld is een AI die, als verkeerd geprogrammeerd, iets grootschaligs schadelijks doet omdat het gezond verstand of morele beperkingen mist).
Hoewel geen enkele AI vandaag de dag een dergelijke mate van handelingsbekwaamheid heeft, is het tempo van AI-ontwikkeling snel en onvoorspelbaar, wat op zichzelf een risicofactor is.
Voorbereiden op langetermijnrisico's betekent investeren in onderzoek naar AI-afstemming (zorgen dat AI-doelen compatibel blijven met menselijke waarden), het sluiten van internationale overeenkomsten over AI-onderzoek met hoge inzet (vergelijkbaar met verdragen over nucleaire of biologische wapens) en het handhaven van menselijke controle naarmate AI-systemen capabeler worden.
De toekomst van AI biedt enorme kansen, maar ook onzekerheid – en voorzichtigheid gebiedt ons om zelfs risico's met een lage waarschijnlijkheid en hoge impact mee te nemen in onze langetermijnplanning.

Verantwoord navigeren in de toekomst van AI
AI wordt vaak vergeleken met een krachtige motor die de mensheid vooruit kan stuwen – maar zonder remmen en stuur kan die motor van koers raken. Zoals we hebben gezien, zijn de risico's van het gebruik van AI veelomvattend: van directe problemen zoals bevooroordeelde algoritmen, nepnieuws, privacy-inbreuken en baanverlies, tot bredere maatschappelijke uitdagingen zoals beveiligingsbedreigingen, "black box"-besluitvorming, Big Tech-monopolies, milieudruk en zelfs het verre vooruitzicht van het verliezen van controle aan superintelligente AI.
Overheden, internationale organisaties, industrie leiders en onderzoekers werken steeds meer samen om deze zorgen aan te pakken – bijvoorbeeld via kaders zoals:
- Het Amerikaanse NIST AI Risk Management Framework (om het vertrouwen in AI te verbeteren)
- UNESCO's wereldwijde aanbeveling voor AI-ethiek
- De AI-wet van de Europese Unie
Dergelijke inspanningen zijn gericht op het maximaliseren van de voordelen van AI en het minimaliseren van de nadelen, zodat AI de mensheid dient en niet andersom.
Het begrijpen van de risico's van AI is de eerste stap om ze te beheersen. Door geïnformeerd te blijven en betrokken te zijn bij hoe AI wordt ontwikkeld en gebruikt, kunnen we helpen deze transformerende technologie veilig, eerlijk en voordelig voor iedereen te sturen.