Inteligența Artificială (IA) este acum integrată în tot, de la asistenții de pe smartphone-uri și fluxurile de social media până la domeniile sănătății și transporturilor. Aceste tehnologii aduc beneficii fără precedent, dar vin și cu riscuri și provocări semnificative.

Experții și instituțiile globale avertizează că, fără reguli etice adecvate, IA poate reproduce prejudecăți și discriminări din lumea reală, contribui la deteriorarea mediului, amenința drepturile omului și amplifica inegalitățile existente.

În acest articol, să explorăm împreună cu INVIAI riscurile utilizării IA în toate domeniile și tipurile de IA – de la chatboți și algoritmi până la roboți – bazându-ne pe informații din surse oficiale și internaționale.

Prejudecăți și discriminare în sistemele IA

Un risc major al IA este consolidarea prejudecăților și discriminărilor nedrepte. Modelele IA învață din date care pot reflecta prejudecăți sau inegalități istorice; ca urmare, un sistem IA poate trata oamenii diferit în funcție de rasă, gen sau alte caracteristici, perpetuând astfel nedreptățile.

De exemplu, „IA generală defectuoasă poate provoca daune prin decizii părtinitoare legate de caracteristici protejate precum rasa, genul, cultura, vârsta și dizabilitatea”, conform unui raport internațional privind siguranța IA.

Algoritmii părtinitori folosiți în recrutare, acordarea de credite sau polițienească au dus deja la rezultate inegale care dezavantajează nedrept anumite grupuri. Organizații globale precum UNESCO avertizează că, fără măsuri de echitate, IA riscă „să reproducă prejudecăți și discriminări din lumea reală, să alimenteze diviziunile și să amenințe drepturile și libertățile fundamentale ale omului”. Asigurarea că sistemele IA sunt antrenate pe date diverse, reprezentative și auditate pentru prejudecăți este esențială pentru prevenirea discriminării automate.

Prejudecăți și discriminare în sistemele IA

Pericolele dezinformării și deepfake-urilor

Capacitatea IA de a genera texte, imagini și videoclipuri hiper-realiste a stârnit temeri privind o avalanșă de dezinformare. IA generativă poate produce articole false convingătoare, imagini trucate sau videoclipuri deepfake greu de distins de realitate.

Raportul Global Risks Report 2024 al Forumului Economic Mondial identifică „informațiile manipulate și falsificate” drept cel mai sever risc global pe termen scurt, subliniind că IA „amplifică informațiile manipulate și distorsionate care pot destabiliza societățile”.

De fapt, dezinformarea și dezinformarea alimentate de IA reprezintă una dintre „cele mai mari provocări din istorie pentru procesul democratic” – mai ales că miliarde de oameni urmează să voteze la alegerile viitoare. Media sintetică, precum videoclipurile deepfake și vocile clonate de IA, pot fi folosite ca arme pentru a răspândi propagandă, a imita figuri publice sau a comite fraude.

Oficialii avertizează că actorii rău intenționați pot folosi IA pentru campanii masive de dezinformare, facilitând inundarea rețelelor sociale cu conținut fals și creând haos. Riscul este un mediu informațional cinic în care cetățenii nu mai pot avea încredere în ceea ce văd sau aud, subminând discursul public și democrația.

Pericolele dezinformării și deepfake-urilor în IA

Amenințări la adresa vieții private și supravegherea în masă

Utilizarea pe scară largă a IA ridică serioase probleme de confidențialitate. Sistemele IA necesită adesea cantități enorme de date personale – de la fețele și vocile noastre până la obiceiurile de cumpărături și locație – pentru a funcționa eficient. Fără protecții solide, aceste date pot fi abuzate sau exploatate.

De exemplu, recunoașterea facială și algoritmii predictivi pot permite supravegherea omniprezentă, urmărind fiecare mișcare a indivizilor sau evaluând comportamentul lor fără consimțământ. Recomandarea globală UNESCO privind etica IA avertizează explicit că „sistemele IA nu trebuie folosite pentru scorare socială sau supraveghere în masă”. Astfel de utilizări sunt considerate riscuri inacceptabile.

Mai mult, analiza IA a datelor personale poate dezvălui detalii intime despre viața noastră, de la starea de sănătate la convingeri politice, punând în pericol dreptul la viață privată. Agențiile de protecție a datelor subliniază că intimitatea este „un drept esențial pentru protejarea demnității umane, autonomiei și libertății de decizie” care trebuie respectat pe tot parcursul ciclului de viață al unui sistem IA.

Dacă dezvoltarea IA va depăși reglementările privind confidențialitatea, indivizii ar putea pierde controlul asupra propriilor informații. Societatea trebuie să asigure guvernanță solidă a datelor, mecanisme de consimțământ și tehnici de protejare a intimității pentru ca tehnologiile IA să nu devină instrumente de supraveghere necontrolată.

Amenințări la adresa vieții private și supravegherea în masă

Eșecuri de siguranță și daune neintenționate

Deși IA poate automatiza decizii și sarcini fizice cu o eficiență supraumană, ea poate eșua în moduri imprevizibile, cauzând daune reale. Încredințăm IA responsabilități din ce în ce mai critice pentru siguranță – cum ar fi conducerea mașinilor, diagnosticarea pacienților sau gestionarea rețelelor electrice – dar aceste sisteme nu sunt infailibile.

Defecțiunile, datele de antrenament eronate sau situațiile neașteptate pot determina IA să ia decizii periculoase. De exemplu, IA unei mașini autonome poate identifica greșit un pieton, iar un sistem medical IA poate recomanda un tratament greșit, cu consecințe potențial fatale.

Recunoscând acest lucru, ghidurile internaționale subliniază că daunele nedorite și riscurile de siguranță generate de IA trebuie anticipate și prevenite: „Daunele nedorite (riscuri de siguranță), precum și vulnerabilitățile la atacuri (riscuri de securitate) trebuie evitate și gestionate pe tot parcursul ciclului de viață al sistemelor IA pentru a asigura siguranța și securitatea oamenilor, mediului și ecosistemelor.”

Cu alte cuvinte, sistemele IA trebuie testate riguros, monitorizate și construite cu mecanisme de siguranță pentru a minimiza riscul de defecțiuni. Încrederea excesivă în IA poate fi, de asemenea, riscantă – dacă oamenii acceptă deciziile automate fără să intervină la timp când ceva nu merge bine.

Asigurarea supravegherii umane este, prin urmare, crucială. În domenii cu miză mare (precum sănătatea sau transporturile), deciziile finale trebuie să rămână sub controlul judecății umane, iar, după cum notează UNESCO, „deciziile de viață și moarte nu trebuie cedate sistemelor IA.” Menținerea siguranței și fiabilității IA este o provocare continuă, care necesită o proiectare atentă și o cultură a responsabilității din partea dezvoltatorilor.

Eșecuri de siguranță și daune neintenționate în IA

Înlocuirea locurilor de muncă și perturbarea economică

Impactul transformator al IA asupra economiei este o sabie cu două tăișuri. Pe de o parte, IA poate crește productivitatea și crea industrii complet noi; pe de altă parte, prezintă riscul de a înlocui milioane de angajați prin automatizare.

Multe locuri de muncă – în special cele care implică sarcini repetitive, de rutină sau date ușor de analizat – sunt vulnerabile la preluarea lor de către algoritmi și roboți IA. Previziunile globale sunt îngrijorătoare: de exemplu, Forumul Economic Mondial estimează că „92 de milioane de locuri de muncă vor fi înlocuite până în 2030” din cauza IA și tehnologiilor conexe.

Deși economia poate crea și roluri noi (posibil chiar mai multe decât cele pierdute pe termen lung), tranziția va fi dificilă pentru mulți. Locurile de muncă câștigate necesită adesea competențe diferite, mai avansate sau sunt concentrate în anumite centre tehnologice, ceea ce înseamnă că mulți lucrători înlocuiți se pot confrunta cu dificultăți în a-și găsi un nou loc de muncă.

Această nepotrivire între competențele actuale ale angajaților și cerințele noilor roluri generate de IA ar putea duce la creșterea șomajului și a inegalităților dacă nu este gestionată. De fapt, factorii de decizie și cercetătorii avertizează că avansul rapid al IA poate genera „perturbări pe piața muncii și inegalități economice” la scară sistemică.

Anumite grupuri pot fi afectate mai puternic – de exemplu, unele studii indică faptul că o proporție mai mare a locurilor de muncă ocupate de femei sau de lucrători din țările în curs de dezvoltare sunt expuse unui risc ridicat de automatizare. Fără măsuri proactive (precum programe de recalificare, educație în competențe IA și rețele de siguranță socială), IA ar putea adânci decalajele socioeconomice, creând o economie dominată de IA în care beneficiarii principali sunt proprietarii tehnologiei.

Pregătirea forței de muncă pentru impactul IA este esențială pentru a asigura o distribuție echitabilă a beneficiilor automatizării și pentru a preveni tulburările sociale cauzate de pierderea masivă a locurilor de muncă.

Înlocuirea locurilor de muncă și perturbarea economică în IA

Utilizarea criminală, fraudele și amenințările de securitate

IA este un instrument puternic care poate fi folosit la fel de ușor în scopuri nelegitime, cât și în scopuri nobile. Infractorii cibernetici și alți actori rău intenționați exploatează deja IA pentru a-și amplifica atacurile.

De exemplu, IA poate genera e-mailuri sau mesaje vocale de tip phishing extrem de personalizate (prin clonarea vocii cuiva) pentru a păcăli oamenii să dezvăluie informații sensibile sau să trimită bani. De asemenea, poate automatiza hackingul, identificând vulnerabilități software la scară largă sau dezvoltând malware adaptabil pentru a evita detectarea.

Center for AI Safety identifică utilizarea rău intenționată a IA ca o preocupare majoră, menționând scenarii în care sistemele IA sunt folosite de infractori pentru fraude și atacuri cibernetice la scară largă. De fapt, un raport comandat de guvernul britanic avertizează explicit că „actorii rău intenționați pot folosi IA pentru campanii masive de dezinformare, influențare, fraude și escrocherii”.

Viteza, amploarea și sofisticarea pe care le oferă IA pot copleși apărarea tradițională – imaginați-vă mii de apeluri frauduloase generate de IA sau videoclipuri deepfake care vizează securitatea unei companii într-o singură zi.

Dincolo de infracțiunile financiare, există și riscul ca IA să fie folosită pentru furt de identitate, hărțuire sau crearea de conținut dăunător (cum ar fi pornografia deepfake neconsimțită sau propaganda grupurilor extremiste). Pe măsură ce instrumentele IA devin mai accesibile, bariera pentru comiterea acestor activități rău intenționate scade, ceea ce poate duce la o creștere a criminalității augmentate de IA.

Aceasta impune noi abordări în domeniul securității cibernetice și al aplicării legii, cum ar fi sisteme IA capabile să detecteze deepfake-uri sau comportamente anormale și cadre juridice actualizate pentru a trage la răspundere infractorii. În esență, trebuie să anticipăm că orice capacitate oferită de IA beneficiarilor poate fi folosită la fel de bine de infractori – și să ne pregătim în consecință.

Utilizarea criminală, fraudele și amenințările de securitate în IA

Militarizarea și armele autonome

Poate cel mai înfricoșător risc al IA apare în contextul războiului și securității naționale. IA este integrată rapid în sistemele militare, ridicând perspectiva armelor autonome („roboți ucigași”) și a luării deciziilor în luptă bazate pe IA.

Aceste tehnologii pot reacționa mai rapid decât orice om, dar eliminarea controlului uman asupra folosirii forței letale este plină de pericole. Există riscul ca o armă controlată de IA să aleagă ținta greșită sau să escaladeze conflictele în moduri neașteptate. Observatorii internaționali avertizează că „armarea IA pentru uz militar” este o amenințare în creștere.

Dacă națiunile se vor grăbi să-și echipeze arsenalul cu arme inteligente, acest lucru ar putea declanșa o cursă destabilizatoare a înarmării. Mai mult, IA ar putea fi folosită în războiul cibernetic pentru a ataca autonom infrastructuri critice sau a răspândi propagandă, estompând granița dintre pace și conflict.

Națiunile Unite și-au exprimat îngrijorarea că dezvoltarea IA în război, dacă este concentrată în mâinile câtorva, „ar putea fi impusă oamenilor fără ca aceștia să aibă un cuvânt de spus în modul în care este folosită”, subminând securitatea și etica globală.

Sistemele autonome de arme ridică, de asemenea, dileme legale și morale – cine răspunde dacă o dronă IA ucide din greșeală civili? Cum se conformează astfel de sisteme dreptului internațional umanitar?

Aceste întrebări fără răspuns au dus la apeluri pentru interzicerea sau reglementarea strictă a anumitor arme bazate pe IA. Asigurarea supravegherii umane asupra oricărei IA care poate lua decizii de viață și moarte este considerată esențială. Fără aceasta, riscul nu este doar al unor greșeli tragice pe câmpul de luptă, ci și al erodării responsabilității umane în război.

Militarizarea și armele autonome în IA

Lipsa transparenței și responsabilității

Majoritatea sistemelor IA avansate funcționează astăzi ca „cutii negre” – logica lor internă este adesea opacă chiar și pentru creatorii lor. Această lipsă de transparență creează riscul ca deciziile IA să nu poată fi explicate sau contestate, ceea ce reprezintă o problemă serioasă în domenii precum justiția, finanțele sau sănătatea, unde explicabilitatea poate fi o cerință legală sau etică.

Dacă o IA refuză unui solicitant un împrumut, diagnostichează o boală sau decide cine poate fi eliberat condiționat, natural vrem să știm de ce. Pentru unele modele IA (în special rețelele neuronale complexe), oferirea unei justificări clare este dificilă.

O „lipsă de transparență” poate submina încrederea și „poate de asemenea să împiedice contestarea eficientă a deciziilor bazate pe rezultatele produse de sistemele IA”, notează UNESCO, „și astfel poate încălca dreptul la un proces echitabil și la o cale de atac eficientă.”

Cu alte cuvinte, dacă nici utilizatorii, nici autoritățile nu pot înțelege cum IA ia decizii, devine aproape imposibil să se tragă pe cineva la răspundere pentru greșelile sau prejudecățile apărute.

Acest deficit de responsabilitate este un risc major: companiile ar putea evita răspunderea dând vina pe „algoritm”, iar persoanele afectate ar putea rămâne fără nicio cale de atac. Pentru a combate acest lucru, experții susțin tehnici de IA explicabilă, audituri riguroase și cerințe de reglementare care să asigure că deciziile IA pot fi urmărite până la o autoritate umană.

De fapt, ghidurile etice globale insistă că trebuie „să fie întotdeauna posibilă atribuirea responsabilității etice și legale” pentru comportamentul sistemelor IA unei persoane sau organizații. Oamenii trebuie să rămână în cele din urmă responsabili, iar IA să asiste, nu să înlocuiască judecata umană în chestiuni sensibile. Altfel, riscăm să creăm o lume în care deciziile importante sunt luate de mașini de neînțeles, ceea ce este o rețetă pentru nedreptate.

Lipsa transparenței și responsabilității în utilizarea IA la locul de muncă

Concentrarea puterii și inegalitatea

Revoluția IA nu se desfășoară uniform la nivel global – un număr mic de corporații și țări domină dezvoltarea IA avansate, ceea ce implică riscuri proprii.

Modelele IA de ultimă generație necesită resurse enorme de date, talente și putere de calcul pe care doar giganții tehnologici (și guvernele bine finanțate) le dețin în prezent. Acest lucru a condus la o „lanț de aprovizionare extrem de concentrat, singular și integrat la nivel global, care favorizează câteva companii și țări”, conform Forumului Economic Mondial.

O astfel de concentrare a puterii IA ar putea duce la control monopolist asupra tehnologiilor IA, limitând concurența și opțiunile consumatorilor. De asemenea, ridică pericolul ca prioritățile acelor câteva companii sau națiuni să modeleze IA în moduri care nu țin cont de interesul public larg.

Națiunile Unite au remarcat „pericolul ca tehnologia [IA] să fie impusă oamenilor fără ca aceștia să aibă un cuvânt de spus în modul în care este folosită”, atunci când dezvoltarea este concentrată în mâinile unui grup restrâns.

Acest dezechilibru ar putea agrava inegalitățile globale: națiunile și firmele bogate avansează rapid folosind IA, în timp ce comunitățile mai sărace nu au acces la cele mai noi instrumente și suferă pierderi de locuri de muncă fără a beneficia de avantajele IA. În plus, o industrie IA concentrată ar putea sufoca inovația (dacă noii veniți nu pot concura cu resursele celor existenți) și ar putea genera riscuri de securitate (dacă infrastructura critică IA este controlată de puține entități, devenind un punct unic de eșec sau manipulare).

Abordarea acestui risc necesită cooperare internațională și, posibil, noi reglementări pentru democratizarea dezvoltării IA – de exemplu, sprijinirea cercetării deschise, asigurarea accesului echitabil la date și putere de calcul și elaborarea de politici (precum propunerea de lege a UE privind IA) pentru a preveni practicile abuzive ale „gardienilor IA”. Un peisaj IA mai incluziv ar ajuta la asigurarea faptului că beneficiile IA sunt împărțite la nivel global, în loc să adâncească prăpastia dintre cei care au și cei care nu au tehnologie.

Concentrarea puterii și inegalitatea

Impactul asupra mediului al IA

Adesea trecut cu vederea în discuțiile despre riscurile IA este amprenta sa asupra mediului. Dezvoltarea IA, în special antrenarea modelelor mari de învățare automată, consumă cantități uriașe de electricitate și putere de calcul.

Centrele de date pline cu mii de servere consumatoare de energie sunt necesare pentru a procesa volumele uriașe de date din care învață sistemele IA. Aceasta înseamnă că IA poate contribui indirect la emisiile de carbon și schimbările climatice.

Un raport recent al unei agenții ONU a constatat că emisiile indirecte de carbon ale celor patru companii tehnologice de top axate pe IA au crescut în medie cu 150% între 2020 și 2023, în mare parte din cauza cererii energetice a centrelor de date IA.

Pe măsură ce investițiile în IA cresc, se așteaptă ca emisiile generate de funcționarea modelelor IA să crească abrupt – raportul a estimat că cele mai importante sisteme IA ar putea emite împreună peste 100 de milioane de tone de CO₂ pe an, punând o presiune semnificativă asupra infrastructurii energetice.

Ca să ne facem o idee, centrele de date care alimentează IA cresc consumul de electricitate „de patru ori mai rapid decât creșterea generală a consumului de electricitate”.

Pe lângă emisiile de carbon, IA poate consuma și cantități mari de apă pentru răcire și produce deșeuri electronice pe măsură ce hardware-ul este actualizat rapid. Dacă nu este controlat, impactul IA asupra mediului ar putea submina eforturile globale de sustenabilitate.

Acest risc impune ca IA să devină mai eficientă energetic și să utilizeze surse de energie mai curate. Cercetătorii dezvoltă tehnici de IA verde pentru a reduce consumul de energie, iar unele companii s-au angajat să compenseze costurile de carbon ale IA. Cu toate acestea, rămâne o preocupare urgentă că goana după IA ar putea avea un cost ecologic ridicat. Echilibrarea progresului tehnologic cu responsabilitatea ecologică este o altă provocare pe care societatea trebuie să o gestioneze pe măsură ce integrăm IA peste tot.

Impactul asupra mediului al IA

Riscuri existențiale și pe termen lung

Dincolo de riscurile imediate, unii experți avertizează asupra unor riscuri speculative, pe termen lung generate de IA – inclusiv posibilitatea apariției unei IA avansate care să scape de sub controlul uman. Deși sistemele IA actuale sunt limitate ca abilități, cercetătorii lucrează activ la dezvoltarea unei IA generale care ar putea depăși oamenii în multe domenii.

Aceasta ridică întrebări complexe: dacă o IA devine mult mai inteligentă sau autonomă, ar putea acționa în moduri care amenință existența umanității? Deși pare science-fiction, figuri proeminente din comunitatea tehnologică și-au exprimat îngrijorarea față de scenarii de „IA rebelă”, iar guvernele tratează discuția cu seriozitate.

În 2023, Regatul Unit a găzduit un Summit global privind siguranța IA pentru a aborda riscurile frontierelor IA. Consensul științific nu este uniform – unii cred că IA super-inteligentă este la decenii distanță sau poate fi menținută aliniată cu valorile umane, în timp ce alții văd o șansă mică, dar reală, de rezultate catastrofale.

Raportul internațional recent privind siguranța IA a subliniat că „experții au opinii diferite privind riscul ca umanitatea să piardă controlul asupra IA într-un mod care ar putea duce la consecințe catastrofale.”

În esență, există recunoașterea faptului că riscul existențial generat de IA, oricât de îndepărtat, nu poate fi complet exclus. Un astfel de scenariu ar putea implica o IA care urmărește propriile obiective în detrimentul bunăstării umane (exemplul clasic fiind o IA care, dacă este programată greșit, decide să facă ceva dăunător la scară largă din lipsă de bun simț sau constrângeri morale).

Deși nicio IA de astăzi nu are o astfel de autonomie, ritmul rapid și imprevizibil al progresului IA este în sine un factor de risc. Pregătirea pentru riscurile pe termen lung înseamnă investiții în cercetarea alinierii IA (asigurarea că obiectivele IA rămân compatibile cu valorile umane), stabilirea unor acorduri internaționale privind cercetarea IA cu miză mare (asemănător tratatelor privind armele nucleare sau biologice) și menținerea supravegherii umane pe măsură ce sistemele IA devin mai capabile.

Viitorul IA oferă promisiuni imense, dar și incertitudini – iar prudența ne impune să luăm în calcul chiar și riscurile cu probabilitate scăzută, dar cu impact major, în planificarea noastră pe termen lung.

>>> Faceți clic pentru a afla mai multe: Beneficiile inteligenței artificiale pentru persoane și companii

Riscuri existențiale și pe termen lung în IA


IA este adesea comparată cu un motor puternic care poate propulsa omenirea înainte – dar fără frâne și direcție, acest motor poate devia de la traseu. După cum am văzut, riscurile utilizării IA sunt multiple: de la probleme imediate precum algoritmi părtinitori, știri false, invadarea intimității și perturbări ale locurilor de muncă, până la provocări sociale mai largi precum amenințările la securitate, deciziile „cutie neagră”, monopolurile Big Tech, presiunea asupra mediului și chiar spectrul îndepărtat al pierderii controlului în fața unei IA super-inteligente.

Aceste riscuri nu înseamnă că trebuie să oprim dezvoltarea IA; mai degrabă, ele evidențiază necesitatea urgentă a guvernanței responsabile a IA și a practicilor etice.

Guvernele, organizațiile internaționale, liderii din industrie și cercetătorii colaborează tot mai mult pentru a aborda aceste preocupări – de exemplu, prin cadre precum AI Risk Management Framework al NIST din SUA (pentru a îmbunătăți încrederea în IA), Recomandarea globală UNESCO privind etica IA și Legea IA a Uniunii Europene.

Astfel de eforturi urmăresc să maximizeze beneficiile IA, minimizând în același timp efectele negative, asigurând că IA servește umanitatea și nu invers. În final, înțelegerea riscurilor IA este primul pas pentru a le gestiona. Prin informare și implicare în modul în care IA este dezvoltată și utilizată, putem contribui la orientarea acestei tehnologii transformative într-o direcție sigură, echitabilă și benefică pentru toți.