Inteligența Artificială (AI) se referă la sisteme informatice care imită inteligența umană – de exemplu, programe care pot recunoaște imagini, înțelege limbajul sau lua decizii. În viața de zi cu zi, AI alimentează instrumente precum asistenții vocali de pe smartphone-uri, sistemele de recomandare pe rețelele sociale și chiar chatboți avansați care redactează texte.

AI are potențialul de a îmbunătăți semnificativ multe domenii, dar ridică și numeroase îngrijorări.

Așadar, este AI periculoasă? Acest articol va explora ambele perspective: beneficiile reale pe care le aduce AI și pericolele semnalate de experți.

Beneficiile reale ale AI în lumea reală

Imagine: O reprezentare prietenoasă a roboților și a unei persoane care lucrează împreună simbolizează asistența AI pentru oameni. AI este deja integrată în multe aplicații utile.

De exemplu, UNESCO menționează că AI „a creat numeroase oportunități” la nivel global – de la diagnostic medical mai rapid până la o conectivitate mai bună prin rețele sociale și automatizarea sarcinilor plictisitoare de muncă.

Uniunea Europeană subliniază, de asemenea, că „AI de încredere poate aduce multe beneficii”, cum ar fi îngrijire medicală îmbunătățitătransport mai sigur și industrie și utilizare a energiei mai eficiente. În medicină, Organizația Mondială a Sănătății raportează că AI este folosită pentru diagnostic, dezvoltarea medicamentelor și răspunsul la epidemii, îndemnând țările să promoveze aceste inovații pentru toți.

Economiștii compară chiar răspândirea rapidă a AI cu revoluțiile tehnologice din trecut.

De exemplu, guvernul SUA subliniază că „AI deține un potențial extraordinar atât pentru promisiuni, cât și pentru pericole”, ceea ce înseamnă că ar trebui să valorificăm puterea sa pentru a rezolva probleme precum schimbările climatice sau bolile, fiind totodată conștienți de riscuri.

Principalele beneficii ale AI includ:

  • Îmbunătățirea îngrijirii medicale: Sistemele AI pot analiza radiografii, RMN-uri și datele pacienților mai rapid decât oamenii, ajutând la detectarea timpurie a bolilor și la tratamente personalizate. De exemplu, imagistica asistată de AI poate identifica tumori pe care medicii le-ar putea omite.
  • Eficiență sporită: Procesele automatizate în fabrici, birouri și servicii cresc productivitatea. După cum menționează UE, automatizarea bazată pe AI conduce la „producție mai eficientă” și chiar la rețele energetice mai inteligente.
    Roboții și software-ul preiau sarcinile repetitive, astfel încât oamenii să se poată concentra pe activități creative sau complexe.
  • Transport și servicii mai sigure: Tehnologia mașinilor autonome și AI pentru gestionarea traficului urmăresc reducerea accidentelor și a aglomerației. AI inteligent poate îmbunătăți și sistemele de avertizare în caz de dezastre și optimiza logistica, făcând călătoriile și transportul mai sigure.
  • Sprijin științific și de mediu: Cercetătorii folosesc AI pentru a analiza modele climatice și date genetice. Acest lucru ajută la abordarea problemelor majore precum schimbările climatice: UNESCO raportează că chiar și mici modificări în proiectarea AI pot reduce dramatic consumul de energie, făcând-o mai sustenabilă ca instrument climatic.
  • Educație și accesibilitate: Tutorii alimentați de AI pot personaliza învățarea pentru fiecare elev, iar instrumentele de recunoaștere vocală sau traducere ajută persoanele cu dizabilități. Britannica notează că AI chiar „sprijină grupurile marginalizate prin oferirea accesibilității” (de exemplu, asistenți de citire pentru persoanele cu deficiențe de vedere).

Aceste exemple arată că AI nu este doar science-fiction – oferă deja valoare reală astăzi.

Beneficiile reale ale AI

Riscuri și pericole potențiale ale AI

Imagine: Artă stradală cu cuvântul „Robot” avertizează asupra efectelor necunoscute ale AI. În ciuda promisiunilor sale, mulți experți avertizează că AI poate fi periculoasă dacă este folosită necorespunzător sau lăsată nesupravegheată. O preocupare majoră este prejudecata și discriminarea. Deoarece AI învață din date existente, poate prelua prejudecățile umane.

UNESCO avertizează că fără o etică strictă, AI „riscă să reproducă prejudecăți și discriminări din lumea reală, alimentând diviziuni și amenințând drepturile și libertățile fundamentale ale omului”. Studiile au arătat că recunoașterea facială identifică greșit adesea femeile sau persoanele de culoare, iar algoritmii de recrutare pot favoriza anumite genuri.

Britannica notează, de asemenea, că AI poate „dăuna minorităților rasiale prin repetarea și amplificarea rasismului”.

Alte pericole includ:

  • Confidențialitate și supraveghere: Sistemele AI necesită adesea cantități mari de date personale (postări pe rețele sociale, dosare medicale etc.). Acest lucru crește riscul de abuz. Dacă guvernele sau companiile folosesc AI pentru a analiza datele dvs. fără consimțământ, poate duce la supraveghere invazivă.

    Britannica avertizează asupra „riscurilor grave pentru confidențialitate” generate de AI. De exemplu, o utilizare controversată a AI numită scor social – unde cetățenii sunt evaluați de algoritmi – a fost interzisă de UE ca practică „inacceptabilă”.
    Chiar și chatboții cunoscuți au stârnit îngrijorări: în 2023, Italia a blocat temporar ChatGPT din motive de protecție a datelor.

  • Dezinformare și deepfake-uri: AI poate genera texte, imagini sau videoclipuri false, dar realiste. Acest lucru facilitează crearea de deepfake-uri – videoclipuri false cu celebrități sau știri fabricate.

    Britannica subliniază că AI poate răspândi „dezinformare politizată, chiar periculoasă”. Experții au avertizat că astfel de falsuri ar putea fi folosite pentru manipularea alegerilor sau a opiniei publice.

    Într-un incident, imagini generate de AI cu lideri mondiali care răspândesc titluri false au devenit virale înainte de a fi demontate. Oamenii de știință notează că fără reglementare, dezinformarea generată de AI ar putea escalada (de exemplu, discursuri false sau imagini trucate pe care nicio lege actuală nu le poate controla).

  • Pierderi de locuri de muncă și perturbări economice: Prin automatizarea sarcinilor, AI va transforma locurile de muncă. Fondul Monetar Internațional raportează că aproximativ 40% din locurile de muncă la nivel global (și 60% în țările dezvoltate) sunt „expuse” automatizării AI. Aceasta include nu doar munca din fabrici, ci și joburi din clasa mijlocie, precum contabilitatea sau redactarea.
    Deși AI ar putea crește productivitatea (și implicit salariile pe termen lung), mulți angajați vor avea nevoie de recalificare sau ar putea suferi șomaj pe termen scurt.
    Liderii din tehnologie recunosc această îngrijorare: chiar CEO-ul Microsoft a spus că AI ar putea înlocui brusc profesioniști calificați.

  • Securitate și utilizare malițioasă: Ca orice tehnologie, AI poate fi folosită pentru rău. Infractorii cibernetici folosesc deja AI pentru a crea emailuri de phishing convingătoare sau pentru a scana sisteme în căutare de vulnerabilități.

    Experții militari sunt îngrijorați de armele autonome: drone sau roboți care aleg ținte fără aprobarea umană.
    Un raport recent al cercetătorilor AI avertizează explicit că nu avem instituții care să oprească „actorii iresponsabili care ar putea folosi sau dezvolta capabilități periculoase”, cum ar fi sistemele autonome de atac.

    Cu alte cuvinte, un sistem AI cu control fizic (precum o armă) ar putea fi deosebit de periculos dacă scapă de sub control sau este programat rău intenționat.

  • Pierderea controlului uman: Unii gânditori susțin că, dacă AI devine mult mai puternică decât în prezent, ar putea acționa în moduri imprevizibile. Deși AI actuală nu este conștientă sau auto-reflectivă, viitoarea inteligență artificială generală (AGI) ar putea urmări obiective nealiniate cu valorile umane.

    Cei mai importanți oameni de știință în AI au avertizat recent că „sisteme generaliste de AI foarte puternice” ar putea apărea în viitorul apropiat dacă nu ne pregătim.

    Laureatul Nobel Geoffrey Hinton și alți experți au descris chiar un risc crescut ca AI să dăuneze umanității dacă AI avansată nu este aliniată nevoilor noastre. Deși acest risc este incert, a generat apeluri publice pentru prudență.

  • Impactul energetic și asupra mediului: Antrenarea și rularea modelelor mari de AI consumă multă energie electrică. UNESCO raportează că consumul anual de energie al AI generative rivalizează acum cu cel al unei țări mici din Africa – și crește rapid.

    Acest lucru ar putea agrava schimbările climatice dacă nu folosim metode mai ecologice.

    Vestea bună este că cercetătorii găsesc soluții: un studiu UNESCO arată că utilizarea unor modele mai mici și eficiente pentru sarcini specifice poate reduce consumul de energie al AI cu 90% fără a pierde din acuratețe.

În concluzie, pericolele reale ale AI astăzi provin în mare parte din modul în care oamenii o folosesc. Dacă AI este gestionată cu grijă, beneficiile sale (sănătate, confort, siguranță) sunt imense.

Dar dacă este lăsată nesupravegheată, AI poate facilita prejudecăți, infracțiuni și accidente.

Firul comun al acestor pericole este lipsa controlului sau supravegherii: instrumentele AI sunt puternice și rapide, astfel încât erorile sau abuzurile pot avea amploare mare dacă nu intervenim.

Riscuri și pericole potențiale ale AI

Ce spun experții și oficialii

Având în vedere aceste probleme, mulți lideri și cercetători s-au exprimat public. S-a format un mare consens al experților în AI în ultimii ani.

În 2024, un grup de 25 de top cercetători în AI (de la Oxford, Berkeley, laureați ai premiului Turing etc.) a publicat o declarație de consens care solicită acțiune urgentă.

Ei au avertizat guvernele lumii să se pregătească acum: „dacă subestimăm riscurile AI, consecințele pot fi catastrofale” și au cerut finanțarea cercetării pentru siguranța AI și crearea unor organisme de reglementare pentru supravegherea AI puternice.

Ei au subliniat că dezvoltarea AI a avansat „cu siguranța ca gând secundar” și că în prezent lipsesc instituțiile care să prevină aplicațiile necontrolate.

Liderii din tehnologie repetă această prudență. CEO-ul OpenAI, Sam Altman – compania care a creat ChatGPT – a declarat pentru The New York Times că dezvoltarea AI avansate este ca un „Proiect Manhattan” pentru era digitală.

El a recunoscut că aceleași instrumente care pot scrie eseuri sau cod pot de asemenea provoca „abuzuri, accidente grave și perturbări sociale” dacă nu sunt gestionate cu atenție.

La sfârșitul anului 2023, peste 1.000 de profesioniști în AI (inclusiv Elon Musk, cofondatorul Apple Steve Wozniak și mulți cercetători AI) au semnat o scrisoare deschisă prin care solicită o pauză în antrenarea modelelor AI de generație următoare.

Ei au avertizat că suntem într-o „cursă scăpată de sub control” pentru a construi AI mai puternică, pe care nici măcar creatorii săi „nu o pot înțelege, prezice sau controla în mod fiabil”.

În forumuri publice, experții au subliniat riscuri specifice. CEO-ul Google DeepMind, Demis Hassabis, a susținut că cea mai mare amenințare nu este șomajul, ci abuzul: un infractor cibernetic sau un stat paria care folosește AI pentru a dăuna societății.

El a punctat că foarte curând AI ar putea egala sau depăși inteligența umană, iar „un actor rău intenționat ar putea redirecționa aceleași tehnologii spre scopuri dăunătoare”.

Cu alte cuvinte, chiar dacă gestionăm pierderile de locuri de muncă, trebuie să prevenim ca instrumentele AI să ajungă în mâini greșite.

Guvernele și organismele internaționale iau măsuri. Casa Albă (SUA) a emis în 2023 un ordin executiv care afirmă că AI „deține un potențial extraordinar atât pentru promisiuni, cât și pentru pericole” și solicită „utilizarea responsabilă a AI” printr-un efort la nivel societal pentru a reduce riscurile semnificative.

Uniunea Europeană a adoptat primul Act privind AI din lume (în vigoare din 2024), interzicând practicile periculoase precum scorarea socială guvernamentală și impunând teste stricte pentru AI cu risc ridicat (în sănătate, aplicarea legii etc.).

UNESCO (agenția ONU pentru educație și cultură) a publicat recomandări globale de etică AI care cer echitate, transparență și protecția drepturilor omului în AI.

Chiar și organizații științifico-politice precum NIST (Institutul Național de Standarde din SUA) au lansat un Cadru de gestionare a riscurilor AI pentru a ghida companiile în construirea unei AI de încredere.

Toate aceste voci sunt de acord asupra unui punct: AI nu se va opri de la sine. Trebuie să dezvoltăm măsuri de siguranță. Aceasta implică soluții tehnice (audituri de prejudecăți, teste de securitate) și noi legi sau organisme de supraveghere.

De exemplu, legislatori din întreaga lume iau în considerare crearea unor consilii pentru siguranța AI, similare celor pentru tehnologia nucleară.

Scopul nu este să oprim inovația, ci să ne asigurăm că se desfășoară sub reguli stricte.

Ce spun experții și oficialii

Măsuri de siguranță și reglementare

Din fericire, multe soluții sunt deja în curs de implementare. Ideea principală este „siguranța AI prin design”. Companiile integrează tot mai mult reguli etice în dezvoltarea AI.

De exemplu, laboratoarele AI testează modelele pentru prejudecăți înainte de lansare și adaugă filtre de conținut pentru a preveni rezultate explicite sau false. Guvernele și instituțiile codifică aceste practici.

Actul UE privind AI, de exemplu, interzice anumite utilizări periculoase și clasifică altele ca „cu risc ridicat” (subiecte audituri).

În mod similar, cadrul etic al UNESCO pentru AI solicită măsuri precum audituri de echitate, protecții cibernetice și proceduri accesibile de soluționare a plângerilor.

La nivel practic, organismele de standardizare emit ghiduri.

Cadru NIST din SUA oferă standarde voluntare pentru organizații în evaluarea și reducerea riscurilor AI.

La nivel internațional, grupuri precum OECD și ONU lucrează la principii AI (multe țări le-au semnat).

Chiar și companii și universități formează institute și coaliții pentru siguranța AI, cercetând riscurile pe termen lung.

În plus, multe reglementări actuale vizează daune specifice.

De exemplu, legile de protecție a consumatorilor sunt aplicate și AI.

Documente interne Meta au dezvăluit chatboți AI care flirtează cu copii, ceea ce a stârnit indignare în rândul autorităților (instrumentul Meta nu era permis conform legilor existente de protecție a copiilor).

Autoritățile se grăbesc să actualizeze legile privind discursul instigator la ură, drepturile de autor și confidențialitatea pentru a include conținutul generat de AI.

Un expert din Noua Zeelandă a remarcat că multe legi actuale „nu au fost concepute având în vedere AI generativă”, astfel că legislatorii recuperează terenul.

Tendința generală este clară: AI este tratată similar cu alte tehnologii cu utilizare duală.

Așa cum avem legi de circulație pentru mașini sau standarde de siguranță pentru substanțe chimice, societatea începe să creeze garduri de protecție pentru AI.

Acestea includ: cercetare continuă asupra riscurilor AI, cooperare public-privat pentru securitate, campanii educaționale despre deepfake-uri și chiar consultări publice privind câtă autonomie să primească mașinile.

>>>Aflați mai multe:

AI poate înlocui oamenii?

Inteligența artificială gândește ca oamenii?

Măsuri de siguranță și reglementare AI


Așadar, este AI periculoasă? Răspunsul este nuanțat. AI nu este în mod inerent malefică – este un instrument creat de oameni.

În numeroasele sale forme practice de astăzi, a adus beneficii uriașe în medicină, educație, industrie și altele (așa cum subliniază organizații precum UNESCO și UE).

În același timp, aproape toată lumea este de acord că AI poate fi periculoasă dacă puterea sa este folosită necorespunzător sau lăsată nesupravegheată.

Îngrijorările comune includ încălcări ale confidențialității, prejudecăți, dezinformare, perturbări ale locurilor de muncă și riscul ipotetic al unei superinteligențe scăpate de sub control.

Tinerii care învață despre AI ar trebui să se concentreze pe ambele aspecte. Este înțelept să fim conștienți de pericolele reale: de exemplu, să nu avem încredere oarbă în AI sau să nu împărtășim date private fără precauție.

Dar este la fel de important să vedem că experții și guvernele lucrează activ pentru a face AI mai sigură – prin dezvoltarea de legi (precum Actul UE privind AI), ghiduri (precum recomandările etice UNESCO) și tehnologii (precum detectarea prejudecăților) pentru a identifica problemele din timp.

Pe scurt, AI este ca orice tehnologie puternică: poate face mult bine dacă este folosită responsabil și poate cauza rău dacă este utilizată necorespunzător.

Consensul între oamenii de știință și factorii de decizie este că nu trebuie să ne temem exagerat, dar nici să ignorăm AI, ci să fim informați și implicați în modelarea viitorului său.

Cu „gardurile de protecție” potrivite – dezvoltare etică a AI, reglementare robustă și conștientizare publică – putem direcționa AI spre siguranță și ne putem asigura că aduce beneficii umanității fără a deveni periculoasă.

Referințe externe
Acest articol a fost compilat cu referire la următoarele surse externe: