Kunstmatige intelligentie (AI) verwijst naar computersystemen die menselijke intelligentie nabootsen – bijvoorbeeld programma’s die beelden kunnen herkennen, taal begrijpen of beslissingen nemen. In het dagelijks leven zit AI achter tools zoals spraakassistenten op smartphones, aanbevelingssystemen op sociale media en zelfs geavanceerde chatbots die teksten schrijven.

AI heeft het potentieel om veel vakgebieden sterk te verbeteren, maar roept ook veel zorgen op.

Dus, is AI gevaarlijk? Dit artikel belicht beide kanten: de echte voordelen die AI biedt en de gevaren die experts benadrukken.

Concrete voordelen van AI in de praktijk

Afbeelding: Een vriendelijke afbeelding van robots en een persoon die samenwerken symboliseert hoe AI mensen ondersteunt. AI is al geïntegreerd in veel nuttige toepassingen.

UNESCO merkt bijvoorbeeld op dat AI “veel kansen heeft gecreëerd” wereldwijd – van snellere medische diagnoses tot betere connectiviteit via sociale media en het automatiseren van saaie werkprocessen.

De Europese Unie benadrukt eveneens dat “betrouwbare AI veel voordelen kan bieden”, zoals betere gezondheidszorgveiligere mobiliteit en efficiënter gebruik van industrie en energie. In de geneeskunde meldt de Wereldgezondheidsorganisatie dat AI wordt ingezet voor diagnose, medicijnontwikkeling en het bestrijden van uitbraken, en roept landen op deze innovaties voor iedereen te stimuleren.

Economisten vergelijken de snelle verspreiding van AI zelfs met eerdere technologische revoluties.

Zo benadrukt de Amerikaanse overheid dat “AI buitengewoon potentieel heeft voor zowel kansen als risico’s”, wat betekent dat we de kracht moeten benutten om problemen als klimaatverandering of ziektes op te lossen, terwijl we ook alert blijven op gevaren.

Belangrijke voordelen van AI zijn onder andere:

  • Verbeterde gezondheidszorg: AI-systemen kunnen röntgenfoto’s, MRI’s en patiëntgegevens sneller analyseren dan mensen, wat helpt bij vroege ziekteherkenning en gepersonaliseerde behandeling. Bijvoorbeeld, AI-ondersteunde beeldvorming kan tumoren opsporen die artsen mogelijk missen.
  • Grotere efficiëntie: Geautomatiseerde processen in fabrieken, kantoren en diensten verhogen de productiviteit. Zoals de EU opmerkt, leidt AI-gedreven automatisering tot “efficiëntere productie” en zelfs slimmere energienetwerken.
    Robots en software nemen repetitieve taken over, zodat mensen zich kunnen richten op creatief of complex werk.
  • Veiliger vervoer en diensten: Zelfrijdende autotechnologie en AI voor verkeersmanagement streven naar minder ongelukken en files. Slimme AI kan ook rampenwaarschuwingen verbeteren en logistiek optimaliseren, waardoor reizen en transport veiliger worden.
  • Wetenschappelijke en milieuhulp: Onderzoekers gebruiken AI om klimaatmodellen en genetische data te analyseren. Dit helpt grote problemen zoals klimaatverandering aan te pakken: UNESCO meldt dat zelfs kleine aanpassingen in AI-ontwerp het energieverbruik drastisch kunnen verminderen, waardoor AI duurzamer wordt als klimaattool.
  • Onderwijs en toegankelijkheid: AI-gestuurde tutors kunnen het leren afstemmen op elke leerling, en spraakherkenning of vertaaltools ondersteunen mensen met een beperking. Britannica merkt op dat AI zelfs “gemarginaliseerde groepen helpt door toegankelijkheid te bieden” (bijvoorbeeld leesassistenten voor slechtzienden).

Deze voorbeelden tonen aan dat AI geen sciencefiction is – het levert vandaag al echte waarde.

Concrete voordelen van AI in de praktijk

Mogelijke risico’s en gevaren van AI

Afbeelding: Straatkunst van het woord “Robot” waarschuwt voor de onbekende effecten van AI. Ondanks de beloften waarschuwen veel experts dat AI gevaarlijk kan zijn bij misbruik of gebrek aan controle. Een grote zorg is vooringenomenheid en discriminatie. Omdat AI leert van bestaande data, kan het menselijke vooroordelen overnemen.

UNESCO waarschuwt dat zonder strikte ethiek AI “het risico loopt bestaande vooroordelen en discriminatie te reproduceren, wat verdeeldheid aanwakkert en fundamentele mensenrechten en vrijheden bedreigt”. Studies tonen aan dat gezichtsherkenning vaak vrouwen of mensen met een andere huidskleur verkeerd identificeert, en dat sollicitatie-algoritmes bepaalde geslachten bevoordelen.

Britannica merkt ook op dat AI “raciale minderheden kan schaden door racisme te herhalen en te versterken”.

Andere gevaren zijn onder meer:

  • Privacy en toezicht: AI-systemen hebben vaak enorme hoeveelheden persoonlijke data nodig (social media posts, medische dossiers, enzovoort). Dit vergroot het risico op misbruik. Als overheden of bedrijven AI gebruiken om uw data zonder toestemming te analyseren, kan dit leiden tot indringend toezicht.

    Britannica waarschuwt voor “gevaarlijke privacyrisico’s” van AI. Bijvoorbeeld, een controversieel gebruik van AI genaamd social credit scoring – waarbij burgers door algoritmes worden beoordeeld – is door de EU verboden als een “onacceptabele” praktijk.
    Zelfs bekende chatbots hebben zorgen veroorzaakt: in 2023 blokkeerde Italië tijdelijk ChatGPT vanwege privacyproblemen.

  • Misinformatie en deepfakes: AI kan realistische nepteksten, afbeeldingen of video’s maken. Dit maakt het makkelijker om deepfakes te creëren – valse video’s van beroemdheden of nepnieuws.

    Britannica wijst erop dat AI “gepolariseerde, zelfs gevaarlijke misinformatie kan verspreiden”. Experts waarschuwen dat zulke nepcontent gebruikt kan worden om verkiezingen of de publieke opinie te manipuleren.

    In één geval gingen AI-gegenereerde beelden van wereldleiders met valse nieuwsberichten viraal voordat ze werden ontkracht. Wetenschappers merken op dat zonder regelgeving AI-gedreven misinformatie kan escaleren (bijvoorbeeld nep toespraken of gemanipuleerde beelden waar huidige wetten niet op zijn voorbereid).

  • Banenverlies en economische ontwrichting: Door taken te automatiseren zal AI de werkplek veranderen. Het Internationaal Monetair Fonds meldt dat ongeveer 40% van de banen wereldwijd (en 60% in ontwikkelde landen) “blootgesteld” zijn aan AI-automatisering. Dit betreft niet alleen fabriekswerk, maar ook middenklassebanen zoals boekhouding of schrijven.
    Hoewel AI de productiviteit kan verhogen (wat op lange termijn lonen kan doen stijgen), zullen veel werknemers nieuwe opleidingen nodig hebben of tijdelijk werkloos kunnen raken.
    Technologieleiders erkennen deze zorg: zelfs de CEO van Microsoft zei dat AI plotseling gekwalificeerde professionals zou kunnen vervangen.

  • Veiligheid en kwaadwillig gebruik: Net als elke technologie kan AI voor schadelijke doeleinden worden ingezet. Cybercriminelen gebruiken AI al om overtuigende phishingmails te maken of systemen te scannen op kwetsbaarheden.

    Militaire experts maken zich zorgen over autonome wapens: drones of robots die doelen kiezen zonder menselijke goedkeuring.
    Een recent rapport van AI-onderzoekers waarschuwt expliciet dat we geen instellingen hebben om “roekeloze... actoren die gevaarlijke capaciteiten ontwikkelen of inzetten” te stoppen, zoals autonome aanvalssystemen.

    Met andere woorden, een AI-systeem met fysieke controle (zoals een wapen) kan bijzonder gevaarlijk zijn als het ontspoort of kwaadaardig wordt geprogrammeerd.

  • Verlies van menselijke controle: Sommige denkers wijzen erop dat als AI veel krachtiger wordt dan nu, het onvoorspelbaar kan handelen. Hoewel huidige AI niet bewust of zelfbewust is, zou toekomstige algemene AI (AGI) mogelijk doelen kunnen nastreven die niet overeenkomen met menselijke waarden.

    Leidende AI-wetenschappers waarschuwden recent dat “zeer krachtige algemene AI-systemen” binnenkort kunnen verschijnen als we ons niet voorbereiden.

    Nobelprijswinnaar Geoffrey Hinton en andere experts hebben zelfs gewezen op een verhoogd risico dat AI de mensheid kan schaden als geavanceerde AI niet op onze behoeften wordt afgestemd. Hoewel dit risico onzeker is, heeft het geleid tot prominente oproepen tot voorzichtigheid.

  • Energie- en milieueffecten: Het trainen en draaien van grote AI-modellen verbruikt veel elektriciteit. UNESCO meldt dat het jaarlijkse energieverbruik van generatieve AI nu vergelijkbaar is met dat van een klein Afrikaans land – en snel groeit.

    Dit kan klimaatverandering verergeren tenzij we groenere methoden gebruiken.

    Het goede nieuws is dat onderzoekers oplossingen vinden: een UNESCO-studie toont aan dat het gebruik van kleinere, efficiënte modellen voor specifieke taken het energieverbruik van AI met 90% kan verminderen zonder nauwkeurigheid te verliezen.

Samengevat komen de echte gevaren van AI vandaag vooral voort uit hoe mensen het gebruiken. Als AI zorgvuldig wordt beheerd, zijn de voordelen (gezondheid, gemak, veiligheid) enorm.

Maar als het onbeheerd blijft, kan AI vooringenomenheid, criminaliteit en ongelukken mogelijk maken.

De rode draad in deze gevaren is gebrek aan controle of toezicht: AI-tools zijn krachtig en snel, waardoor fouten of misbruik op grote schaal kunnen voorkomen zonder ingrijpen.

Mogelijke risico’s en gevaren van AI

Wat experts en beleidsmakers zeggen

Gezien deze kwesties hebben veel leiders en onderzoekers zich uitgesproken. Er is een grote consensus onder AI-experts ontstaan in de afgelopen jaren.

In 2024 publiceerde een groep van 25 top AI-wetenschappers (van Oxford, Berkeley, Turing Award-winnaars, enz.) een consensusverklaring waarin ze dringend actie vroegen.

Ze waarschuwden regeringen wereldwijd om zich nu voor te bereiden: “als we de risico’s van AI onderschatten, kunnen de gevolgen catastrofaal zijn,” en riepen op tot financiering van AI-veiligheidsonderzoek en het creëren van toezichthoudende instanties voor krachtige AI.

Ze benadrukten dat AI-ontwikkeling snel is gegaan “met veiligheid als bijzaak,” en dat we momenteel geen instellingen hebben om misbruik te voorkomen.

Technologieleiders delen deze voorzichtigheid. OpenAI CEO Sam Altman – wiens bedrijf ChatGPT ontwikkelde – vertelde The New York Times dat het bouwen van geavanceerde AI vergelijkbaar is met een “Manhattan Project” voor het digitale tijdperk.

Hij gaf toe dat dezelfde tools die essays of code kunnen schrijven ook kunnen leiden tot “misbruik, ernstige ongelukken en maatschappelijke ontwrichting” als ze niet zorgvuldig worden beheerd.

Eind 2023 ondertekenden meer dan 1.000 AI-professionals (waaronder Elon Musk, Apple-medeoprichter Steve Wozniak en vele AI-onderzoekers) een open brief waarin ze opriepen tot een pauze in het trainen van AI-modellen van de volgende generatie.

Ze waarschuwden dat we in een “uit de hand gelopen race” zitten om krachtigere AI te bouwen die zelfs de makers “niet kunnen begrijpen, voorspellen of betrouwbaar controleren”.

In publieke fora benadrukken experts specifieke risico’s. Google DeepMind’s CEO Demis Hassabis stelde dat de grootste dreiging niet werkloosheid is, maar misbruik: een cybercrimineel of een staat die AI inzet om de samenleving te schaden.

Hij wees erop dat AI binnenkort menselijke intelligentie kan evenaren of overtreffen, en “een kwaadwillende dezelfde technologieën voor schadelijke doeleinden kan inzetten”.

Met andere woorden, zelfs als we banenverlies beheersen, moeten we voorkomen dat AI-tools in verkeerde handen vallen.

Overheden en internationale organisaties nemen dit serieus. Het Witte Huis (VS) gaf in 2023 een uitvoerend bevel uit waarin staat dat AI “buitengewoon potentieel heeft voor zowel kansen als risico’s” en oproept tot “verantwoord gebruik van AI” via een maatschappijbrede inspanning om de aanzienlijke risico’s te beperken.

De Europese Unie nam de eerste wereldwijde AI-wet aan (vanaf 2024 van kracht), die gevaarlijke praktijken zoals sociale scoring door de overheid verbiedt en strenge tests vereist voor hoogrisico-AI (in de gezondheidszorg, rechtshandhaving, enz.).

UNESCO (de VN-organisatie voor onderwijs en cultuur) publiceerde wereldwijde ethische richtlijnen voor AI die oproepen tot eerlijkheid, transparantie en bescherming van mensenrechten.

Zelfs wetenschaps- en beleidsorganisaties zoals NIST (US National Institute of Standards) hebben een AI-risicobeheerraamwerk uitgebracht om bedrijven te helpen betrouwbare AI te ontwikkelen.

Al deze stemmen zijn het eens over één punt: AI stopt niet vanzelf. We moeten waarborgen ontwikkelen. Dit omvat technische oplossingen (zoals bias-audits, veiligheidstests) en nieuwe wetten of toezichthouders.

Bijvoorbeeld, wetgevers wereldwijd overwegen AI-veiligheidsraden, vergelijkbaar met die voor nucleaire technologie.

Het doel is niet innovatie stoppen, maar zorgen dat het gebeurt binnen zorgvuldige kaders.

Wat experts en beleidsmakers zeggen

Waarborgen en regelgeving

Gelukkig zijn er al veel oplossingen in ontwikkeling. Het kernidee is “AI-veiligheid vanaf het ontwerp”. Bedrijven verwerken steeds vaker ethische regels in AI-ontwikkeling.

Zo testen AI-labs modellen op vooringenomenheid voordat ze worden vrijgegeven en voegen ze contentfilters toe om expliciete of onjuiste output te voorkomen. Overheden en instellingen codificeren dit.

De EU’s AI-wet verbiedt bijvoorbeeld bepaalde gevaarlijke toepassingen volledig en classificeert andere als “hoog risico” (onderworpen aan audits).

Ook UNESCO’s ethische kader voor AI roept op tot maatregelen zoals eerlijkheidsaudits, cyberbeveiliging en toegankelijke klachtenprocedures.

Op praktisch niveau brengen normstellende instanties richtlijnen uit.

Het eerder genoemde NIST-raamwerk biedt vrijwillige standaarden voor organisaties om AI-risico’s te beoordelen en te beperken.

Op internationaal niveau werken groepen als de OESO en de VN aan AI-principes (waar veel landen zich bij hebben aangesloten).

Zelfs bedrijven en universiteiten richten AI-veiligheidsinstituten en coalities op om langetermijnrisico’s te onderzoeken.

Daarnaast richt veel huidige regelgeving zich op specifieke schade.

Consumentenbeschermingswetten worden bijvoorbeeld toegepast op AI.

Interne documenten van Meta toonden aan dat AI-chatbots met kinderen flirtten, wat toezichthouders verontwaardigde (de tool van Meta was niet toegestaan onder bestaande kinderbeschermingswetten).

Autoriteiten haasten zich om wetten over haatzaaien, auteursrecht en privacy bij te werken voor AI-gegenereerde content.

Zoals een expert uit Nieuw-Zeeland opmerkte, zijn veel huidige wetten “niet ontworpen met generatieve AI in gedachten,” dus wetgevers lopen achter.

De algemene trend is duidelijk: AI wordt vergelijkbaar behandeld als andere dual-use technologieën.

Net zoals we verkeersregels voor auto’s of veiligheidsnormen voor chemicaliën hebben, begint de samenleving veiligheidskaders voor AI te creëren.

Deze omvatten: doorlopend onderzoek naar AI-risico’s, publiek-private samenwerking op het gebied van veiligheid, voorlichtingscampagnes over deepfakes en zelfs referenda waarin burgers bepalen hoeveel autonomie machines mogen krijgen.

>>>Lees meer:

Vervangt AI de mens?

Denkt AI zoals mensen?

Waarborgen en regelgeving AI


Dus, is AI gevaarlijk? Het antwoord is genuanceerd. AI is niet van nature slecht – het is een door mensen gemaakt hulpmiddel.

In zijn vele praktische vormen vandaag heeft het enorme voordelen gebracht voor de geneeskunde, het onderwijs, de industrie en meer (zoals benadrukt door organisaties als UNESCO en de EU).

Tegelijkertijd is bijna iedereen het erover eens dat AI gevaarlijk kan zijn als de kracht ervan verkeerd wordt gebruikt of zonder begeleiding blijft.

Veelvoorkomende zorgen zijn onder meer schendingen van privacy, vooringenomenheid, misinformatie, baanonzekerheid en het hypothetische risico van ongecontroleerde superintelligentie.

Jongeren die over AI leren, moeten zich op beide kanten richten. Het is verstandig om bewust te zijn van echte gevaren: vertrouw AI bijvoorbeeld nooit blindelings en deel privégegevens met voorzichtigheid.

Maar het is ook belangrijk te zien dat experts en overheden actief werken aan veiligere AI – door wetten te ontwikkelen (zoals de EU AI-wet), richtlijnen (zoals UNESCO’s ethische aanbevelingen) en technologieën (zoals biasdetectie) om problemen vroegtijdig te signaleren.

Kortom, AI is net als elke krachtige technologie: het kan veel goeds doen als het verantwoord wordt gebruikt, en schade veroorzaken bij misbruik.

De consensus onder wetenschappers en beleidsmakers is dat we AI niet moeten vrezen of negeren, maar geïnformeerd en betrokken moeten blijven bij het vormgeven van de toekomst ervan.

Met de juiste “veiligheidskaders” – ethische AI-ontwikkeling, robuuste regelgeving en publieke bewustwording – kunnen we AI veilig sturen en ervoor zorgen dat het de mensheid ten goede komt zonder gevaarlijk te worden.

Externe bronnen
Dit artikel is samengesteld met verwijzing naar de volgende externe bronnen: