Kunstmatige intelligentie (AI) is inmiddels verweven in alles, van smartphone-assistenten en sociale media feeds tot gezondheidszorg en transport. Deze technologieën bieden ongekende voordelen, maar brengen ook aanzienlijke risico’s en uitdagingen met zich mee.

Experts en internationale instellingen waarschuwen dat AI zonder de juiste ethische kaders reële vooroordelen en discriminatie kan reproduceren, kan bijdragen aan milieuschade, mensenrechten kan bedreigen en bestaande ongelijkheden kan versterken.

In dit artikel verkennen we samen met INVIAI de risico’s van het gebruik van AI in alle domeinen en typen AI – van chatbots en algoritmes tot robots – gebaseerd op inzichten uit officiële en internationale bronnen.

Vooringenomenheid en discriminatie in AI-systemen

Een belangrijk risico van AI is het verankeren van vooroordelen en oneerlijke discriminatie. AI-modellen leren van data die historische vooroordelen of ongelijkheden kunnen weerspiegelen; daardoor kan een AI-systeem mensen verschillend behandelen op basis van ras, geslacht of andere kenmerken, wat onrechtvaardigheid in stand houdt.

Zo kan, volgens een internationaal rapport over AI-veiligheid, “een slecht functionerende algemene AI schade veroorzaken door bevooroordeelde beslissingen met betrekking tot beschermde kenmerken zoals ras, geslacht, cultuur, leeftijd en handicap.”

Bevooroordeelde algoritmes die worden gebruikt bij werving, kredietverlening of politietoezicht hebben al geleid tot ongelijke uitkomsten die bepaalde groepen oneerlijk benadelen. Wereldwijde organisaties zoals UNESCO waarschuwen dat zonder maatregelen voor eerlijkheid AI het risico loopt “reële vooroordelen en discriminatie te reproduceren, verdeeldheid te versterken en fundamentele mensenrechten en vrijheden te bedreigen.” Het is essentieel dat AI-systemen worden getraind op diverse, representatieve data en worden gecontroleerd op vooringenomenheid om geautomatiseerde discriminatie te voorkomen.

Vooringenomenheid en discriminatie in AI-systemen

Gevaren van desinformatie en deepfakes

De mogelijkheid van AI om hyperrealistische teksten, beelden en video’s te genereren, heeft zorgen doen ontstaan over een stortvloed aan desinformatie. Generatieve AI kan overtuigende nepnieuwsartikelen, valse afbeeldingen of deepfake-video’s produceren die moeilijk van echt te onderscheiden zijn.

Het Global Risks Report 2024 van het World Economic Forum benoemt “gemanipuleerde en vervalste informatie” als het ernstigste wereldwijde risico op korte termijn en stelt dat AI “gemanipuleerde en vervormde informatie versterkt die samenlevingen kan destabiliseren.”

Desinformatie en misinformatie, aangedreven door AI, vormen een van “de grootste uitdagingen ooit voor het democratisch proces” – vooral nu miljarden mensen binnenkort gaan stemmen. Synthetische media zoals deepfake-video’s en AI-gekloonde stemmen kunnen worden ingezet om propaganda te verspreiden, publieke figuren te imiteren of fraude te plegen.

Beleidsmakers waarschuwen dat kwaadwillenden AI kunnen inzetten voor grootschalige desinformatiecampagnes, waardoor het eenvoudiger wordt om sociale netwerken te overspoelen met nepinhoud en chaos te zaaien. Het risico is een cynische informatiesfeer waarin burgers niet meer kunnen vertrouwen op wat ze zien of horen, wat het publieke debat en de democratie ondermijnt.

Gevaren van desinformatie en deepfakes in AI

Bedreigingen voor privacy en massale surveillance

Het brede gebruik van AI roept ernstige privacyzorgen op. AI-systemen hebben vaak enorme hoeveelheden persoonlijke data nodig – van gezichten en stemmen tot koopgedrag en locatie – om effectief te functioneren. Zonder sterke waarborgen kan deze data worden misbruikt of geëxploiteerd.

Gezichtsherkenning en voorspellende algoritmes kunnen bijvoorbeeld omvattende surveillance mogelijk maken, waarbij elke beweging van individuen wordt gevolgd of hun gedrag wordt beoordeeld zonder toestemming. UNESCO waarschuwt expliciet dat “AI-systemen niet mogen worden gebruikt voor sociale scores of massale surveillance.” Dergelijke toepassingen worden breed gezien als onacceptabele risico’s.

Daarnaast kan AI-gedreven analyse van persoonlijke data intieme details onthullen over ons leven, van gezondheid tot politieke overtuigingen, wat een bedreiging vormt voor het recht op privacy. Privacytoezichthouders benadrukken dat privacy “een essentieel recht is ter bescherming van menselijke waardigheid, autonomie en handelingsbekwaamheid” dat gedurende de hele levenscyclus van AI-systemen gerespecteerd moet worden.

Als AI-ontwikkeling sneller gaat dan privacyregelgeving, kunnen mensen de controle over hun eigen gegevens verliezen. De samenleving moet zorgen voor robuust databeheer, toestemmingsmechanismen en privacybeschermende technieken, zodat AI-technologieën niet veranderen in instrumenten van ongecontroleerde surveillance.

Bedreigingen voor privacy en massale surveillance

Veiligheidsfouten en onbedoelde schade

Hoewel AI beslissingen en fysieke taken met supermenselijke efficiëntie kan automatiseren, kan het ook onvoorspelbaar falen, wat kan leiden tot daadwerkelijke schade. We vertrouwen AI steeds meer veiligheidkritische taken toe – zoals het besturen van auto’s, het diagnosticeren van patiënten of het beheren van elektriciteitsnetten – maar deze systemen zijn niet onfeilbaar.

Storingen, gebrekkige trainingsdata of onvoorziene situaties kunnen ertoe leiden dat AI gevaarlijke fouten maakt. De AI van een zelfrijdende auto kan bijvoorbeeld een voetganger verkeerd identificeren, of een medische AI kan een verkeerde behandeling aanbevelen, met mogelijk dodelijke gevolgen.

Internationale richtlijnen benadrukken dat ongewenste schade en veiligheidsrisico’s van AI moeten worden voorzien en voorkomen: “Ongewenste schade (veiligheidsrisico’s), evenals kwetsbaarheden voor aanvallen (beveiligingsrisico’s), moeten gedurende de hele levenscyclus van AI-systemen worden vermeden en aangepakt om de veiligheid van mens, milieu en ecosystemen te waarborgen.”

Met andere woorden, AI-systemen moeten grondig worden getest, gemonitord en voorzien van noodvoorzieningen om de kans op storingen te minimaliseren. Overmatige afhankelijkheid van AI kan ook riskant zijn – als mensen blind vertrouwen op geautomatiseerde beslissingen, grijpen ze mogelijk niet tijdig in bij problemen.

Daarom is menselijke supervisie cruciaal. Bij toepassingen met hoge inzet (zoals gezondheidszorg of transport) moeten definitieve beslissingen onder menselijke beoordeling blijven, en zoals UNESCO opmerkt: “beslissingen over leven en dood mogen niet aan AI-systemen worden overgelaten.” Het waarborgen van veiligheid en betrouwbaarheid in AI is een voortdurende uitdaging die zorgvuldige ontwerpprincipes en een cultuur van verantwoordelijkheid van AI-ontwikkelaars vereist.

Veiligheidsfouten en onbedoelde schade in AI

Baanverlies en economische ontwrichting

De transformerende impact van AI op de economie is een tweesnijdend zwaard. Enerzijds kan AI de productiviteit verhogen en geheel nieuwe sectoren creëren; anderzijds brengt het het risico met zich mee dat miljoenen banen verdwijnen door automatisering.

Veel banen – vooral die met routinematige, repetitieve taken of gemakkelijk te analyseren data – lopen het risico te worden overgenomen door AI-algoritmes en robots. Wereldwijde prognoses zijn somber: het World Economic Forum verwacht bijvoorbeeld dat “tweeënnegentig miljoen banen tegen 2030 zullen verdwijnen” door AI en aanverwante technologieën.

Hoewel de economie ook nieuwe functies kan creëren (mogelijk zelfs meer dan er verloren gaan op de lange termijn), zal de overgang voor velen pijnlijk zijn. De nieuwe banen vereisen vaak andere, meer geavanceerde vaardigheden of zijn geconcentreerd in bepaalde technologische centra, waardoor veel werklozen moeite kunnen hebben om een nieuwe positie te vinden.

Deze kloof tussen de vaardigheden van werknemers en de eisen van nieuwe AI-gedreven functies kan leiden tot hogere werkloosheid en ongelijkheid als er geen maatregelen worden genomen. Beleidsmakers en onderzoekers waarschuwen dat snelle AI-ontwikkeling kan leiden tot “ontwrichting van de arbeidsmarkt en economische machtsongelijkheid” op systemisch niveau.

Bepaalde groepen worden mogelijk harder getroffen – bijvoorbeeld tonen sommige studies aan dat een groter aandeel van banen die door vrouwen of werknemers in ontwikkelingslanden worden vervuld, een hoog automatiseringsrisico loopt. Zonder proactieve maatregelen (zoals omscholingsprogramma’s, AI-vaardighedentraining en sociale vangnetten) kan AI de sociaaleconomische kloof vergroten, waardoor een AI-gedreven economie ontstaat waarin de eigenaren van de technologie het meeste profiteren.

Het voorbereiden van de beroepsbevolking op de impact van AI is cruciaal om ervoor te zorgen dat de voordelen van automatisering breed worden gedeeld en om sociale onrust door massaal baanverlies te voorkomen.

Baanverlies en economische ontwrichting door AI

Crimineel misbruik, fraude en veiligheidsbedreigingen

AI is een krachtig instrument dat net zo goed voor kwaadaardige als voor nobele doeleinden kan worden ingezet. Cybercriminelen en andere kwaadwillenden maken al gebruik van AI om hun aanvallen te verbeteren.

AI kan bijvoorbeeld zeer gepersonaliseerde phishing-e-mails of spraakberichten genereren (door iemands stem te klonen) om mensen te misleiden gevoelige informatie prijs te geven of geld over te maken. Het kan ook worden ingezet om hacken te automatiseren door softwarekwetsbaarheden op grote schaal te vinden of malware te ontwikkelen die zich aanpast om detectie te ontwijken.

Het Center for AI Safety noemt het kwaadaardig gebruik van AI als een belangrijke zorg en wijst op scenario’s waarin AI-systemen door criminelen worden ingezet voor grootschalige fraude en cyberaanvallen. Een door de Britse overheid besteld rapport waarschuwde expliciet dat “kwaadwillenden AI kunnen gebruiken voor grootschalige desinformatie- en beïnvloedingsoperaties, fraude en oplichting.”

De snelheid, schaal en verfijning die AI mogelijk maakt, kunnen traditionele verdedigingsmechanismen overweldigen – stel u duizenden AI-gegenereerde scamgesprekken of deepfake-video’s voor die op één dag de beveiliging van een bedrijf ondermijnen.

Naast financiële misdrijven bestaat ook het risico dat AI wordt gebruikt voor identiteitsdiefstal, intimidatie of het creëren van schadelijke content (zoals niet-consensuele deepfake-pornografie of propaganda voor extremistische groepen). Naarmate AI-tools toegankelijker worden, daalt de drempel om deze kwaadaardige activiteiten uit te voeren, wat kan leiden tot een toename van AI-ondersteunde criminaliteit.

Dit vraagt om nieuwe benaderingen van cyberbeveiliging en wetshandhaving, zoals AI-systemen die deepfakes of afwijkend gedrag kunnen detecteren en aangepaste juridische kaders om daders aansprakelijk te stellen. In essentie moeten we anticiperen dat elke mogelijkheid die AI biedt aan weldoeners, ook beschikbaar kan zijn voor criminelen – en ons daarop voorbereiden.

Crimineel misbruik, fraude en veiligheidsbedreigingen in AI

Militarisering en autonome wapens

Misschien wel het meest verontrustende risico van AI doet zich voor in de context van oorlogvoering en nationale veiligheid. AI wordt snel geïntegreerd in militaire systemen, wat de mogelijkheid opent van autonome wapens (“killer robots”) en AI-gestuurde besluitvorming in gevechten.

Deze technologieën kunnen sneller reageren dan mensen, maar het wegnemen van menselijke controle over het gebruik van dodelijk geweld brengt grote gevaren met zich mee. Er bestaat het risico dat een AI-gestuurd wapen het verkeerde doelwit kiest of conflicten op onvoorziene manieren escaleert. Internationale waarnemers waarschuwen dat de “wapenwedloop in AI voor militair gebruik” een groeiende bedreiging vormt.

Als landen elkaar beconcurreren om hun arsenaal te voorzien van intelligente wapens, kan dit een destabiliserende wapenwedloop veroorzaken. Bovendien kan AI worden ingezet in cyberoorlogvoering om autonoom kritieke infrastructuur aan te vallen of propaganda te verspreiden, waardoor de grens tussen vrede en conflict vervaagt.

De Verenigde Naties uiten hun bezorgdheid dat de ontwikkeling van AI in oorlogsvoering, als die geconcentreerd is in handen van enkelen, “aan mensen kan worden opgelegd zonder dat zij inspraak hebben in het gebruik ervan,” wat de wereldwijde veiligheid en ethiek ondermijnt.

Autonome wapensystemen roepen ook juridische en morele dilemma’s op – wie is verantwoordelijk als een AI-drone per ongeluk burgers doodt? Hoe voldoen zulke systemen aan het internationale humanitaire recht?

Deze onbeantwoorde vragen leiden tot oproepen voor verboden of strikte regulering van bepaalde AI-gestuurde wapens. Het waarborgen van menselijke supervisie over AI die beslissingen over leven en dood kan nemen, wordt breed gezien als essentieel. Zonder die supervisie is het risico niet alleen tragische fouten op het slagveld, maar ook het verdwijnen van menselijke verantwoordelijkheid in oorlog.

Militarisering en autonome wapens in AI

Gebrek aan transparantie en verantwoordelijkheid

De meeste geavanceerde AI-systemen functioneren tegenwoordig als “black boxes” – hun interne logica is vaak ondoorzichtig, zelfs voor hun makers. Dit gebrek aan transparantie creëert het risico dat AI-beslissingen niet kunnen worden verklaard of aangevochten, wat een ernstig probleem is in domeinen als rechtspraak, financiën of gezondheidszorg, waar uitlegbaarheid een wettelijke of ethische vereiste kan zijn.

Als een AI iemand een lening weigert, een ziekte diagnosticeert of beslist wie voorwaardelijk vrijkomt, willen we natuurlijk weten waarom. Bij sommige AI-modellen (vooral complexe neurale netwerken) is het moeilijk om een duidelijke reden te geven.

Een “gebrek aan transparantie” kan het vertrouwen ondermijnen en “kan ook de mogelijkheid om beslissingen op basis van AI-uitkomsten effectief aan te vechten ondermijnen,” aldus UNESCO, “en daarmee het recht op een eerlijk proces en effectieve rechtsmiddelen schenden.”

Met andere woorden, als noch gebruikers noch toezichthouders begrijpen hoe AI beslissingen neemt, wordt het vrijwel onmogelijk om iemand verantwoordelijk te houden voor fouten of vooroordelen die ontstaan.

Deze verantwoordingskloof is een groot risico: bedrijven kunnen verantwoordelijkheid ontlopen door “het algoritme” de schuld te geven, en getroffen personen blijven zonder rechtsmiddel achter. Om dit tegen te gaan pleiten experts voor uitlegbare AI, grondige audits en regelgeving die vereist dat AI-beslissingen herleidbaar zijn tot menselijke autoriteit.

Wereldwijde ethische richtlijnen benadrukken dat het “altijd mogelijk moet zijn om ethische en juridische verantwoordelijkheid” voor het gedrag van AI-systemen aan een persoon of organisatie toe te schrijven. Mensen moeten uiteindelijk verantwoordelijk blijven, en AI moet menselijke oordeelsvorming ondersteunen in plaats van vervangen bij gevoelige kwesties. Anders riskeren we een wereld waarin belangrijke beslissingen worden genomen door ondoorgrondelijke machines, wat onrechtvaardigheid in de hand werkt.

Gebrek aan transparantie en verantwoordelijkheid bij het gebruik van AI op de werkvloer

Concentratie van macht en ongelijkheid

De AI-revolutie vindt niet gelijkmatig over de wereld plaats – een klein aantal bedrijven en landen domineert de ontwikkeling van geavanceerde AI, wat eigen risico’s met zich meebrengt.

Geavanceerde AI-modellen vereisen enorme hoeveelheden data, talent en rekenkracht die momenteel alleen techreuzen (en goed gefinancierde overheden) bezitten. Dit heeft geleid tot een “zeer geconcentreerde, unieke, wereldwijd geïntegreerde toeleveringsketen die een paar bedrijven en landen bevoordeelt,” aldus het World Economic Forum.

Zo’n concentratie van AI-macht kan leiden tot monopolistische controle over AI-technologieën, wat concurrentie en consumentenkeuze beperkt. Het vergroot ook het gevaar dat de prioriteiten van die paar bedrijven of landen AI vormen op een manier die geen rekening houdt met het bredere publieke belang.

De Verenigde Naties hebben gewezen op het “gevaar dat [AI]-technologie aan mensen kan worden opgelegd zonder dat zij inspraak hebben in het gebruik ervan,” wanneer ontwikkeling beperkt blijft tot een machtige minderheid.

Deze ongelijkheid kan wereldwijde verschillen versterken: rijke landen en bedrijven lopen voorop door AI te benutten, terwijl armere gemeenschappen geen toegang hebben tot de nieuwste tools en banen verliezen zonder te profiteren van AI. Daarnaast kan een geconcentreerde AI-industrie innovatie belemmeren (als nieuwkomers niet kunnen concurreren met de middelen van gevestigde partijen) en veiligheidsrisico’s veroorzaken (als kritieke AI-infrastructuur in handen is van slechts enkele partijen, vormt dat een enkelvoudig falingspunt of manipulatiegevaar).

Het aanpakken van dit risico vereist internationale samenwerking en mogelijk nieuwe regelgeving om AI-ontwikkeling te democratiseren – bijvoorbeeld door open onderzoek te ondersteunen, eerlijke toegang tot data en rekenkracht te waarborgen en beleid te ontwikkelen (zoals de voorgestelde AI-wet van de EU) om misbruik door “AI-poortwachters” te voorkomen. Een inclusievere AI-omgeving helpt ervoor te zorgen dat de voordelen van AI wereldwijd worden gedeeld, in plaats van de kloof tussen tech-rijken en -armen te vergroten.

Concentratie van macht en ongelijkheid

Milieu-impact van AI

Vaak over het hoofd gezien in discussies over AI-risico’s is de milieu-impact. De ontwikkeling van AI, vooral het trainen van grote machine learning-modellen, verbruikt enorme hoeveelheden elektriciteit en rekenkracht.

Datacenters vol met duizenden energie-intensieve servers zijn nodig om de enorme hoeveelheden data te verwerken waar AI-systemen van leren. Dit betekent dat AI indirect bijdraagt aan CO₂-uitstoot en klimaatverandering.

Een recent rapport van een VN-agentschap constateerde dat de indirecte CO₂-uitstoot van vier toonaangevende AI-gerichte technologiebedrijven met gemiddeld 150% is gestegen tussen 2020 en 2023, grotendeels door de energiebehoefte van AI-datacenters.

Naarmate de investeringen in AI toenemen, wordt verwacht dat de uitstoot door het draaien van AI-modellen sterk zal stijgen – het rapport voorspelde dat de grootste AI-systemen gezamenlijk meer dan 100 miljoen ton CO₂ per jaar kunnen uitstoten, wat een aanzienlijke druk op de energie-infrastructuur legt.

Ter vergelijking: datacenters die AI aandrijven zorgen voor een stijging van het elektriciteitsverbruik die “vier keer sneller gaat dan de algemene stijging van het elektriciteitsverbruik.”

Naast CO₂-uitstoot verbruikt AI ook veel water voor koeling en produceert het elektronisch afval doordat hardware snel wordt vernieuwd. Als hier niets aan wordt gedaan, kan de milieu-impact van AI de wereldwijde duurzaamheidsinspanningen ondermijnen.

Dit risico vraagt om het energiezuiniger maken van AI en het gebruik van schonere energiebronnen. Onderzoekers ontwikkelen groene AI-technieken om het energieverbruik te verminderen, en sommige bedrijven hebben beloofd de CO₂-kosten van AI te compenseren. Toch blijft het een urgente zorg dat de snelle opmars van AI een forse ecologische prijs kan hebben. Het balanceren van technologische vooruitgang met ecologische verantwoordelijkheid is een uitdaging waar de samenleving voor staat bij de integratie van AI.

Milieu-impact van AI

Existentiële en langetermijnrisico’s

Naast de directe risico’s waarschuwen sommige experts voor meer speculatieve langetermijnrisico’s van AI – waaronder de mogelijkheid van een geavanceerde AI die buiten menselijke controle groeit. Hoewel de huidige AI-systemen beperkt zijn in hun capaciteiten, werken onderzoekers actief aan meer algemene AI die mogelijk mensen in veel domeinen kan overtreffen.

Dit roept complexe vragen op: als een AI veel intelligenter of autonomer wordt, zou die dan kunnen handelen op manieren die het voortbestaan van de mensheid bedreigen? Hoewel het als sciencefiction klinkt, hebben prominente techfiguren hun zorgen geuit over “rogue AI”-scenario’s, en nemen overheden deze discussie serieus.

In 2023 organiseerde het VK een wereldwijde AI Safety Summit om risico’s van grensverleggende AI te bespreken. De wetenschappelijke consensus is niet uniform – sommigen denken dat superintelligente AI nog decennia weg is of beheersbaar blijft, terwijl anderen een kleine maar niet-nul kans op catastrofale uitkomsten zien.

Een recent internationaal AI-veiligheidsrapport benadrukte dat “experts verschillende meningen hebben over het risico dat de mensheid de controle over AI verliest op een manier die tot catastrofale gevolgen kan leiden.”

Kortom, er is erkenning dat existentiële risico’s van AI, hoe klein ook, niet volledig kunnen worden uitgesloten. Zo’n scenario zou kunnen inhouden dat een AI zijn doelen nastreeft ten koste van menselijk welzijn (bijvoorbeeld een AI die, als die verkeerd geprogrammeerd is, op grote schaal schadelijke acties onderneemt omdat het ontbreekt aan gezond verstand of morele grenzen).

Hoewel geen enkele AI vandaag de dag zo’n mate van zelfstandigheid heeft, is het tempo van AI-ontwikkeling snel en onvoorspelbaar, wat op zichzelf een risicofactor is. Voorbereiden op langetermijnrisico’s betekent investeren in AI-alignmentonderzoek (zorgen dat AI-doelen in lijn blijven met menselijke waarden), internationale afspraken maken over risicovolle AI-onderzoeken (vergelijkbaar met verdragen over nucleaire of biologische wapens) en menselijke supervisie behouden naarmate AI-systemen capabeler worden.

De toekomst van AI biedt enorme kansen, maar ook onzekerheden – en voorzichtigheid gebiedt ons ook laag-waarschijnlijke, hoog-impact risico’s mee te nemen in onze langetermijnplanning.

>>> Klik hier voor meer informatie: Voordelen van AI voor Individuen en Bedrijven

Existentiële en langetermijnrisico’s van AI


AI wordt vaak vergeleken met een krachtige motor die de mensheid vooruit kan stuwen – maar zonder remmen en stuur kan die motor van koers raken. Zoals we hebben gezien, zijn de risico’s van AI veelomvattend: van directe problemen zoals bevooroordeelde algoritmes, nepnieuws, privacy-inbreuken en baanverlies, tot bredere maatschappelijke uitdagingen zoals veiligheidsbedreigingen, “black box”-besluitvorming, Big Tech-monopolies, milieudruk en zelfs het verre vooruitzicht van het verliezen van controle aan superintelligente AI.

Deze risico’s betekenen niet dat we de ontwikkeling van AI moeten stoppen; ze benadrukken juist de dringende noodzaak van verantwoorde AI-governance en ethische praktijken.

Overheden, internationale organisaties, bedrijfsleiders en onderzoekers werken steeds meer samen om deze zorgen aan te pakken – bijvoorbeeld via kaders zoals het Amerikaanse NIST AI Risk Management Framework (voor het verbeteren van het vertrouwen in AI), UNESCO’s wereldwijde AI-ethiek aanbeveling en de Europese Unie’s AI-wet.

Deze inspanningen zijn gericht op het maximaliseren van de voordelen van AI en het minimaliseren van de nadelen, zodat AI de mensheid dient en niet andersom. Uiteindelijk is inzicht in de risico’s van AI de eerste stap om ze te beheersen. Door geïnformeerd en betrokken te blijven bij de ontwikkeling en het gebruik van AI, kunnen we deze transformerende technologie veilig, eerlijk en nuttig sturen voor iedereen.