Inteligența artificială (AI) a devenit astăzi o parte familiară a vieții moderne, fiind prezentă în toate domeniile, de la afaceri la sănătate. Totuși, puțini și-ar fi imaginat că istoria dezvoltării AI a început la mijlocul secolului XX și a trecut prin numeroase suișuri și coborâșuri înainte de a atinge realizările spectaculoase de astăzi.

Acest articol INVIAI oferă o perspectivă detaliată asupra istoriei formării și dezvoltării AI, de la ideile inițiale rudimentare, prin etapele „iarna AI” pline de dificultăți, până la revoluția învățării profunde și valul exploziv al AI generative din anii 2020.

Anul 1950: Începuturile inteligenței artificiale

Anii 1950 sunt considerați punctul de plecare oficial al domeniului AI. În 1950, matematicianul Alan Turing a publicat articolul „Computing Machinery and Intelligence”, în care a propus un test celebru pentru evaluarea capacității de gândire a mașinilor – ulterior cunoscut sub numele de testul Turing. Acesta a reprezentat un reper ce a deschis ideea că calculatoarele pot „gândi” asemenea oamenilor, punând bazele teoretice ale AI.

În 1956, termenul „Artificial Intelligence” (inteligență artificială) a fost oficial introdus. Vara acelui an, informaticianul John McCarthy (Universitatea Dartmouth) împreună cu colegi precum Marvin Minsky, Nathaniel Rochester (IBM) și Claude Shannon au organizat un atelier istoric la Universitatea Dartmouth.

McCarthy a propus termenul „inteligență artificială” (AI) pentru acest atelier, iar evenimentul Dartmouth 1956 este adesea considerat nașterea domeniului AI. Aici, oamenii de știință curajoși au declarat că „toate aspectele învățării sau inteligenței pot fi simulate de mașini”, stabilind un obiectiv ambițios pentru acest domeniu nou.

Sfârșitul anilor 1950 a adus multe prime realizări în AI. În 1951, primele programe AI au fost scrise pentru a rula pe calculatorul Ferranti Mark I – remarcabil fiind programul de dame al lui Christopher Strachey și cel de șah al lui Dietrich Prinz, marcând prima dată când un calculator a jucat un joc intelectual.

În 1955, Arthur Samuel de la IBM a dezvoltat un program de dame capabil să învețe din experiență, devenind primul sistem de machine learning (învățare automată) rudimentar. Tot în această perioadă, Allen Newell, Herbert Simon și colaboratorii au creat programul Logic Theorist (1956) – capabil să demonstreze automat teoreme matematice, demonstrând că mașinile pot efectua raționamente logice.

Pe lângă algoritmi, instrumente și limbaje de programare specializate pentru AI au apărut în anii 1950. În 1958, John McCarthy a inventat limbajul Lisp – un limbaj de programare conceput special pentru AI, care a devenit rapid popular în comunitatea dezvoltatorilor AI. În același an, psihologul Frank Rosenblatt a introdus Perceptron – primul model de rețea neuronală artificială capabil să învețe din date. Perceptronul este considerat fundamentul primelor rețele neurale moderne.

În 1959, Arthur Samuel a folosit pentru prima dată termenul „machine learning” (învățare automată) într-un articol revoluționar, descriind modul în care un calculator poate fi programat să învețe și să-și îmbunătățească performanța la jocul de dame, depășind chiar programatorul. Aceste evoluții au generat un optimism puternic: pionierii credeau că în câteva decenii mașinile vor atinge inteligența umană.

Anii 1950 - Începuturile inteligenței artificiale

Anul 1960: Primele progrese

În anii 1960, AI a continuat să se dezvolte prin numeroase proiecte și invenții notabile. Laboratoare AI au fost înființate în universități prestigioase (MIT, Stanford, Carnegie Mellon etc.), atrăgând interes și finanțare pentru cercetare. Calculatoarele au devenit mai puternice, permițând testarea unor idei AI mai complexe decât în deceniul precedent.

Un progres remarcabil a fost apariția primului program chatbot. În 1966, Joseph Weizenbaum de la MIT a creat ELIZA, un program care simula un dialog cu utilizatorul în stilul unui psihoterapeut. ELIZA era programată simplu (bazat pe recunoașterea cuvintelor cheie și răspunsuri predefinite), dar a surprins prin faptul că mulți utilizatori au crezut că ELIZA „înțelege” și are emoții. Succesul ELIZA a deschis calea pentru chatbot-urile moderne și a ridicat întrebări despre tendința oamenilor de a atribui sentimente mașinilor.

Totodată, primul robot inteligent a apărut. Între 1966 și 1972, Institutul de Cercetare Stanford (SRI) a dezvoltat Shakeyprimul robot mobil capabil de auto-conștientizare și planificare a acțiunilor, nu doar executarea comenzilor simple. Shakey era echipat cu senzori și camere pentru a se deplasa autonom în mediu și putea analiza sarcini în pași de bază precum găsirea traseului, împingerea obstacolelor, urcarea pantelor etc. Acesta a fost primul sistem care a integrat complet viziunea computerizată, procesarea limbajului natural și planificarea într-un robot, punând bazele domeniului roboticii AI.

American Association of Artificial Intelligence (AAAI) a fost fondată în această perioadă (predecesorul fiind conferința IJCAI 1969 și organizația AAAI din 1980), reunind cercetători AI și demonstrând că comunitatea AI crește puternic.

De asemenea, anii 1960 au marcat dezvoltarea sistemelor expert și a algoritmilor fundamentali. În 1965, Edward Feigenbaum și colegii săi au dezvoltat DENDRAL – considerat primul sistem expert din lume. DENDRAL a fost conceput pentru a ajuta chimiștii să analizeze structura moleculară pe baza datelor experimentale, simulând cunoștințele și raționamentul unui expert chimist. Succesul DENDRAL a demonstrat că calculatoarele pot sprijini rezolvarea problemelor complexe specializate, punând bazele sistemelor expert care vor exploda în anii 1980.

În plus, limbajul de programare Prolog (specializat pentru AI logică) a fost dezvoltat în 1972 la Universitatea din Marseille, deschizând o abordare AI bazată pe logică și reguli relaționale. Un alt reper important a fost în 1969, când Marvin Minsky și Seymour Papert au publicat cartea „Perceptrons”. Aceasta a evidențiat limitele matematice ale modelului perceptron cu un singur strat (incapabil să rezolve problema XOR simplă), ceea ce a generat îndoieli serioase asupra rețelelor neuronale.

Mulți finanțatori și-au pierdut încrederea în capacitatea rețelelor neuronale de a învăța, iar cercetarea în domeniul rețelelor neuronale a intrat în declin la sfârșitul anilor 1960. Acesta a fost primul semn al unei „răciri” a entuziasmului AI după mai bine de un deceniu de optimism.

AI în anii 1960

Anul 1970: Provocări și prima „iarna AI”

În anii 1970, domeniul AI s-a confruntat cu provocări reale: multe așteptări mari din deceniul anterior nu au fost îndeplinite din cauza limitărilor puterii de calcul, a datelor și a cunoștințelor științifice. Drept urmare, încrederea și finanțarea AI au început să scadă puternic la mijlocul anilor 1970 – o perioadă cunoscută ulterior ca prima „iarna AI”.

În 1973, Sir James Lighthill a adăugat combustibil la foc prin publicarea unui raport intitulat „Artificial Intelligence: A General Survey”, care a evaluat negativ progresul cercetării AI. Raportul Lighthill a concluzionat că cercetătorii AI „promit prea mult, dar realizează prea puțin”, criticând în special incapacitatea calculatoarelor de a înțelege limbajul sau viziunea așa cum se aștepta.

Acest raport a determinat Guvernul britanic să reducă majoritatea finanțărilor pentru AI. În SUA, agenții de finanțare precum DARPA și-au redirecționat investițiile către proiecte mai practice. Ca urmare, între mijlocul anilor 1970 și începutul anilor 1980, domeniul AI a fost aproape înghețat, cu puține realizări majore și finanțare insuficientă. Aceasta a fost prima „iarna AI” – termen introdus în 1984 pentru a descrie această perioadă prelungită de stagnare.

Cu toate dificultățile, anii 1970 au adus și câteva lumini în cercetarea AI. Sistemele expert au continuat să se dezvolte în mediul academic, exemplul notabil fiind MYCIN (1974) – un sistem expert medical creat de Ted Shortliffe la Stanford, care ajuta la diagnosticarea infecțiilor sanguine. MYCIN folosea un set de reguli de inferență pentru a oferi recomandări de tratament cu o precizie ridicată, demonstrând valoarea practică a sistemelor expert în domenii restrânse.

De asemenea, limbajul Prolog (lansat în 1972) a început să fie folosit pentru probleme de procesare a limbajului și logică, devenind un instrument important pentru AI bazată pe logică. În domeniul roboticii, în 1979, o echipă de la Stanford a dezvoltat cu succes Stanford Cart – primul vehicul robot care se putea deplasa autonom printr-o cameră plină de obstacole, fără control de la distanță. Această realizare, deși modestă, a pus bazele cercetărilor ulterioare în vehicule autonome.

Per ansamblu, la sfârșitul anilor 1970, cercetarea AI a intrat într-o fază de stagnare. Mulți cercetători AI au fost nevoiți să se reorienteze către domenii conexe precum învățarea automată statistică, robotică și viziune computerizată pentru a-și continua activitatea.

AI nu mai era „steaua strălucitoare” a deceniului anterior, devenind un domeniu restrâns cu puține progrese notabile. Această perioadă a reamintit comunității că inteligența artificială este mult mai complexă decât se anticipa, necesitând abordări fundamentale noi, nu doar simulări ale raționamentului.

AI în anii 1970

Anul 1980: Sistemele expert – ascensiune și declin

La începutul anilor 1980, AI a intrat într-o fază de renaștere – uneori numită „renașterea AI”. Această relansare a fost impulsionată de succesul comercial al sistemelor expert și de interesul reînnoit al guvernelor și companiilor. Calculatoarele deveneau mai puternice, iar comunitatea credea că poate realiza treptat ideile AI în domenii restrânse.

Un motor important a fost sistemele expert comerciale. În 1981, compania Digital Equipment Corporation a lansat XCON (Expert Configuration) – un sistem expert care ajuta la configurarea sistemelor de calcul, economisind companiei zeci de milioane de dolari. Succesul XCON a stimulat o explozie a sistemelor expert în afaceri pentru sprijinirea deciziilor. Multe companii tehnologice au investit în crearea de „shell-uri” pentru sisteme expert, permițând firmelor să-și personalizeze propriile sisteme.

Limbajul Lisp a ieșit din laborator odată cu apariția mașinilor Lisp – hardware specializat optimizat pentru rularea programelor AI. La începutul anilor 1980, au apărut numeroase startup-uri de mașini Lisp (Symbolics, Lisp Machines Inc.), generând un val de investiții și fiind numit „epoca mașinilor Lisp” pentru AI.

Guvernele majore au investit masiv în AI în această perioadă. În 1982, Japonia a lansat Proiectul Calculatoarelor de Generația a 5-a cu un buget de 850 milioane USD, pentru a dezvolta calculatoare inteligente folosind logică și Prolog. Similar, SUA (DARPA) a crescut finanțarea cercetării AI în contextul competiției tehnologice cu Japonia. Proiectele finanțate s-au concentrat pe sisteme expert, procesarea limbajului natural și baze de cunoștințe, cu speranța de a crea calculatoare inteligente superioare.

În mijlocul acestui val de optimism, domeniul rețelelor neuronale artificiale a început să renască discret. În 1986, cercetătorul Geoffrey Hinton și colaboratorii au publicat algoritmul Backpropagation (propagarea înapoi) – o metodă eficientă de antrenare a rețelelor neuronale cu mai multe straturi, rezolvând limitările semnalate în cartea Perceptrons (1969).

De fapt, principiul propagării înapoi fusese schițat încă din 1970, dar abia în anii ’80 a fost exploatat pe deplin datorită creșterii puterii de calcul. Algoritmul backpropagation a declanșat un al doilea val de cercetare în rețele neuronale. În acest moment, încrederea că rețelele neuronale profunde pot învăța modele complexe a început să crească, pregătind terenul pentru învățarea profundă (deep learning) ulterioară.

Cercetători tineri precum Yann LeCun (Franța) și Yoshua Bengio (Canada) s-au alăturat mișcării rețelelor neuronale, dezvoltând modele de recunoaștere a scrisului de mână cu succes spre sfârșitul deceniului.

Totuși, al doilea val de prosperitate AI a fost scurt. La sfârșitul anilor 1980, domeniul AI a intrat din nou în criză din cauza rezultatelor care nu au corespuns așteptărilor. Sistemele expert, deși utile în aplicații restrânse, au arătat limitări: erau rigide, greu de extins și necesitau actualizări manuale constante ale cunoștințelor.

Multe proiecte mari de sisteme expert au eșuat, iar piața mașinilor Lisp s-a prăbușit din cauza concurenței calculatoarelor personale mai ieftine. În 1987, industria mașinilor Lisp a fost aproape falimentară. Investițiile în AI au fost reduse drastic la sfârșitul anilor 1980, declanșând o a doua „iarna AI”. Termenul „AI winter”, introdus în 1984, s-a confirmat odată cu închiderea multor companii AI în 1987–1988. Din nou, domeniul AI a intrat într-un ciclu de declin, forțând cercetătorii să-și ajusteze așteptările și strategiile.

Pe scurt, anii 1980 au marcat un ciclu de explozie și declin al AI. Sistemele expert au ajutat AI să pătrundă în industria reală pentru prima dată, dar au evidențiat limitele abordărilor bazate pe reguli fixe. Totuși, această perioadă a generat idei și instrumente valoroase: de la algoritmi neuronali la primele baze de cunoștințe. Au fost învățate lecții importante despre evitarea supraestimării, pregătind terenul pentru o abordare mai prudentă în deceniul următor.

AI în anii 1980

Anul 1990: AI revine în practică

După iarna AI de la sfârșitul anilor 1980, încrederea în AI a început să revină în anii 1990 datorită unor progrese practice. În loc să se concentreze pe AI puternică (inteligență artificială generală) ambițioasă, cercetătorii s-au orientat spre AI slabă – aplicarea tehnicilor AI în probleme specifice, unde au început să apară rezultate impresionante. Multe domenii derivate din AI (recunoașterea vocală, viziunea computerizată, algoritmi de căutare, baze de cunoștințe etc.) s-au dezvoltat independent și au fost aplicate pe scară largă.

Un reper important pentru succesele practice a fost în mai 1997, când calculatorul Deep Blue al IBM a învins campionul mondial la șah Garry Kasparov într-un meci oficial. Aceasta a fost prima dată când un sistem AI a învins un campion mondial într-un joc intelectual complex, stârnind un val de interes public.

Victoria Deep Blue – bazată pe algoritmi de căutare brute-force combinați cu baze de date de deschideri – a demonstrat puterea uriașă de calcul și tehnicile specializate care pot depăși oamenii în sarcini bine definite. Evenimentul a marcat revenirea spectaculoasă a AI în atenția mass-media, stimulând interesul pentru cercetare după o perioadă de stagnare.

AI din anii 1990 a înregistrat progrese pe multe alte fronturi. În domeniul jocurilor, în 1994 programul Chinook a rezolvat complet jocul de dame (draughts) la nivel invincibil, forțând campionul mondial să recunoască că nu poate învinge calculatorul.

În recunoașterea vocală, au apărut sisteme comerciale precum Dragon Dictate (1990), iar spre sfârșitul deceniului, software-ul de recunoaștere vocală a fost folosit pe scară largă pe calculatoare personale. Recunoașterea scrisului de mână a fost integrată în dispozitive PDA (asistenți personali digitali) cu o precizie în creștere.

Aplicațiile de viziune computerizată au început să fie implementate în industrie, de la inspectarea componentelor la sisteme de securitate. Chiar și traducerea automată – un domeniu care a descurajat AI în anii 1960 – a înregistrat progrese notabile cu sistemul SYSTRAN, care a susținut traducerea automată multilingvă pentru Uniunea Europeană.

Un alt domeniu important a fost învățarea automată statistică și rețelele neuronale aplicate pentru exploatarea datelor la scară largă. Spre sfârșitul anilor 1990, explozia Internetului a generat volume uriașe de date digitale. Tehnici precum data mining și algoritmi de machine learning (arbori de decizie, rețele neuronale, modele Markov ascunse etc.) au fost folosite pentru analiza datelor web, optimizarea motoarelor de căutare și personalizarea conținutului.

Termenul „știința datelor” nu era încă popular, dar în practică AI a pătruns în sistemele software pentru a îmbunătăți performanța prin învățarea din datele utilizatorilor (de exemplu, filtrele anti-spam pentru email, recomandările de produse în comerțul electronic). Aceste succese mici, dar concrete, au ajutat AI să recâștige încrederea în ochii companiilor și societății.

Se poate spune că anii 1990 au fost o perioadă în care AI a „început să pătrundă discret, dar solid în viața cotidiană”. În loc de declarații grandioase despre inteligență asemănătoare omului, dezvoltatorii s-au concentrat pe rezolvarea problemelor specializate. Ca rezultat, AI a devenit prezentă în multe produse tehnologice de la sfârșitul secolului XX, adesea fără ca utilizatorii să-și dea seama – de la jocuri și software până la dispozitive electronice. Această perioadă a pus și bazele importante privind datele și algoritmii, pregătind AI pentru explozia din deceniul următor.

AI în anii 1990

Anul 2000: Învățarea automată și era datelor mari

Intrând în secolul XXI, AI a făcut un salt puternic datorită Internetului și erei datelor mari. Anii 2000 au fost martorii exploziei calculatoarelor personale, rețelelor Internet și dispozitivelor cu senzori, generând volume uriașe de date. Învățarea automată (machine learning) – în special metodele supravegheate – a devenit instrumentul principal pentru exploatarea acestui „zăcământ de date”.

Deviza „data is the new oil” (datele sunt noul petrol) a devenit populară, deoarece cu cât sunt mai multe date, cu atât algoritmii AI învață mai precis. Mari companii tehnologice au început să construiască sisteme de colectare și învățare din datele utilizatorilor pentru a-și îmbunătăți produsele: Google cu motorul său de căutare inteligent, Amazon cu recomandările de cumpărături bazate pe comportament, Netflix cu algoritmii de sugestii de filme. AI a devenit „creierul” invizibil din spatele platformelor digitale.

În 2006 a avut loc un eveniment important: Fei-Fei Li, profesor la Universitatea Stanford, a inițiat proiectul ImageNet – o bază de date uriașă cu peste 14 milioane de imagini etichetate detaliat. Lansat în 2009, ImageNet a devenit standardul pentru antrenarea și evaluarea algoritmilor de viziune computerizată, în special pentru recunoașterea obiectelor în imagini.

ImageNet a fost comparat cu un „dopaj” care a impulsionat cercetarea deep learning ulterior, oferind suficiente date pentru antrenarea modelelor profunde complexe. Competiția anuală ImageNet Challenge, începută din 2010, a devenit o arenă importantă unde echipele de cercetare concurează pentru cele mai bune algoritmi de recunoaștere a imaginilor. Din această competiție a rezultat o cotitură istorică în 2012 (vezi secțiunea anilor 2010).

Tot în anii 2000, AI a atins numeroase repere notabile în aplicații:

  • În 2005, vehiculul autonom Stanford (poreclit „Stanley”) a câștigat DARPA Grand Challenge – o cursă de 212 km prin deșert. Stanley a parcurs traseul în 6 ore și 53 de minute, deschizând o nouă eră pentru vehiculele autonome și atrăgând investiții majore de la Google și Uber în anii următori.
  • Asistenții virtuali pe telefon au apărut: în 2008, aplicația Google Voice Search a permis căutarea vocală pe iPhone; iar punctul culminant a fost Apple Siri (lansat în 2011) – un asistent vocal integrat în iPhone. Siri folosește tehnologii de recunoaștere vocală, înțelegere a limbajului natural și conectare la servicii web, marcând prima accesibilitate largă a AI către publicul larg.
  • În 2011, supercomputerul IBM Watson a învins doi campioni la jocul de cuvinte Jeopardy! în SUA. Watson putea înțelege întrebări complexe în limba engleză și accesa volume uriașe de date pentru a găsi răspunsuri, demonstrând puterea AI în procesarea limbajului natural și căutarea informațiilor. Această victorie a arătat că calculatoarele pot „înțelege” și reacționa inteligent într-un domeniu larg de cunoștințe.
  • Rețelele sociale și web: Facebook a introdus funcția de recunoaștere automată a fețelor pentru etichetarea fotografiilor (în jurul anului 2010), folosind algoritmi de machine learning pe datele foto ale utilizatorilor. YouTube și Google folosesc AI pentru filtrarea conținutului și recomandarea videoclipurilor. Tehnicile de machine learning funcționează discret în platforme, ajutând la optimizarea experienței utilizatorilor, adesea fără ca aceștia să știe.

Se poate spune că motorul principal al AI în anii 2000 a fost reprezentat de date și aplicații. Algoritmi tradiționali de machine learning precum regresia, SVM, arborii de decizie au fost implementați la scară largă, aducând beneficii practice.

AI a trecut de la un subiect de cercetare la o forță în industrie: „AI pentru afaceri” a devenit un subiect fierbinte, cu numeroase companii oferind soluții AI pentru management, finanțe, marketing etc. În 2006, termenul „inteligență artificială pentru întreprinderi” (enterprise AI) a apărut, subliniind aplicarea AI pentru creșterea eficienței și sprijinirea deciziilor de afaceri.

La sfârșitul anilor 2000 a început și revoluția învățării profunde. Cercetările asupra rețelelor neuronale cu mai multe straturi au continuat să dea roade. În 2009, echipa lui Andrew Ng de la Stanford a anunțat utilizarea GPU-urilor (unități de procesare grafică) pentru antrenarea rețelelor neuronale, accelerând procesul de 70 de ori față de CPU-urile obișnuite.

Puterea de calcul paralelă a GPU-urilor s-a dovedit ideală pentru calculele matriciale ale rețelelor neuronale, deschizând calea pentru antrenarea modelelor deep learning mari în anii 2010. Ultimele elemente esențiale – date mari, hardware puternic, algoritmi îmbunătățiți – erau pregătite, așteptând momentul pentru o nouă explozie AI.

AI în anii 2000

Anul 2010: Revoluția învățării profunde (Deep Learning)

Dacă ar fi să alegem o perioadă în care AI a „decolat” cu adevărat, aceasta este anii 2010. Cu fundația de date și hardware din deceniul anterior, inteligența artificială a intrat în era învățării profunde (deep learning) – modele neuronale cu multe straturi care au obținut progrese remarcabile, distrugând toate recordurile în numeroase sarcini AI. Visul mașinilor care „învață ca creierul uman” a început să prindă contur prin algoritmii deep learning.

Punctul de cotitură a fost în 2012, când echipa lui Geoffrey Hinton și studenții săi (Alex Krizhevsky, Ilya Sutskever) au participat la ImageNet Challenge. Modelul lor – cunoscut ca AlexNet – era o rețea neuronală convoluțională cu 8 straturi, antrenată pe GPU. Rezultatul a fost o precizie excepțională, reducând la jumătate rata de eroare față de locul doi.

Această victorie covârșitoare a șocat comunitatea de viziune computerizată și a marcat începutul „febrei deep learning” în AI. În următorii ani, majoritatea metodelor tradiționale de recunoaștere a imaginilor au fost înlocuite de modele deep learning.

Succesul AlexNet a confirmat că, cu suficiente date (ImageNet) și putere de calcul (GPU), rețelele neuronale profunde pot depăși alte tehnici AI. Hinton și colaboratorii săi au fost rapid recrutați de Google, iar deep learning a devenit cel mai fierbinte subiect în cercetarea AI.

Deep learning a revoluționat nu doar viziunea computerizată, ci și procesarea vocală, limbajul natural și multe alte domenii. În 2012, Google Brain (proiect al lui Andrew Ng și Jeff Dean) a făcut valuri prin anunțarea unei rețele neuronale profunde care a învățat să recunoască conceptul de „pisică” în videoclipuri YouTube fără etichete prealabile.

Între 2011 și 2014, au apărut asistenți virtuali precum Siri, Google Now (2012) și Microsoft Cortana (2014), folosind progresele în recunoașterea vocală și înțelegerea limbajului natural. De exemplu, sistemul de recunoaștere vocală Microsoft a atins o precizie comparabilă cu cea umană în 2017, datorită utilizării rețelelor neuronale profunde pentru modelarea sunetului. În traducere, în 2016 Google Translate a trecut la arhitectura traducerii automate neuronale (NMT), îmbunătățind semnificativ calitatea traducerilor față de modelele statistice anterioare.

Un alt eveniment important a fost victoria AI în jocul de Go – un reper considerat mult timp de neatins. În martie 2016, programul AlphaGo al DeepMind (Google) a învins campionul mondial de Go Lee Sedol cu scorul 4-1. Go este mult mai complex decât șahul, cu un număr imens de mutări posibile, imposibil de abordat prin brute-force. AlphaGo a combinat deep learning și algoritmul Monte Carlo Tree Search, învățând să joace prin milioane de partide umane și auto-joc.

Această victorie a fost comparată cu meciul Deep Blue-Kasparov din 1997, confirmând că AI poate depăși oamenii în domenii ce necesită intuiție și experiență. După AlphaGo, DeepMind a dezvoltat AlphaGo Zero (2017), care a învățat să joace Go de la zero, fără date umane, și a învins versiunea anterioară cu scorul 100-0. Acest lucru a evidențiat potențialul învățării prin întărire (reinforcement learning) combinată cu deep learning pentru performanțe superioare.

Tot în 2017, o inovație revoluționară a apărut în procesarea limbajului natural: arhitectura Transformer. Cercetătorii Google au publicat modelul Transformer în articolul „Attention Is All You Need”, propunând mecanismul de self-attention care permite modelelor să învețe relațiile dintre cuvinte dintr-o propoziție fără a parcurge secvența în ordine.

Transformer a permis antrenarea mult mai eficientă a modelor mari de limbaj (LLM) comparativ cu arhitecturile secvențiale anterioare (RNN/LSTM). De aici au apărut numeroase modele de limbaj bazate pe Transformer: BERT (Google, 2018) pentru înțelegerea contextului și, mai ales, GPT (Generative Pre-trained Transformer) de la OpenAI, lansat în 2018.

Aceste modele au obținut rezultate remarcabile în sarcini lingvistice, de la clasificare și răspuns la întrebări până la generarea de texte. Transformer a pus bazele cursei pentru modele lingvistice uriașe din anii 2020.

La sfârșitul anilor 2010 a apărut și AI generativă (generative AI) – modele AI capabile să creeze conținut nou. În 2014, Ian Goodfellow și colegii săi au inventat modelul GAN (Generative Adversarial Network), format din două rețele neuronale care se „înfruntă” pentru a genera date sintetice foarte realiste.

GAN a devenit rapid faimos pentru capacitatea de a crea portrete umane false extrem de realiste (deepfake). În paralel, modelele autoencoder variational (VAE) și transferul de stil au fost dezvoltate pentru a transforma imagini și videoclipuri în stiluri noi.

În 2019, OpenAI a lansat GPT-2 – un model generativ de text cu 1,5 miliarde de parametri, remarcat pentru capacitatea de a genera texte lungi și fluente asemănătoare celor umane. Clar, AI nu mai este doar pentru clasificare sau predicție, ci poate crea conținut convingător.

AI din anii 2010 a făcut progrese spectaculoase peste așteptări. Multe sarcini considerate anterior „imposibile” pentru calculatoare au fost realizate sau depășite de AI: recunoașterea imaginilor, recunoașterea vocală, traducerea, jocurile complexe etc.

Mai important, AI a început să pătrundă în viața de zi cu zi: de la camerele smartphone care recunosc automat fețele, asistenții vocali în boxele inteligente (Alexa, Google Home), până la recomandările de conținut pe rețelele sociale, toate gestionate de AI. Aceasta a fost cu adevărat epoca exploziei AI, mulți comparând AI cu „noua electricitate” – o tehnologie fundamentală care schimbă toate industriile.

AI în anii 2010

Anul 2020: Explozia AI generative și noi tendințe

În doar câțiva ani din anii 2020, AI a explodat cu o viteză fără precedent, în special datorită ascensiunii AI generative (Generative AI) și a modelor mari de limbaj (LLM). Aceste sisteme au permis AI să ajungă direct la sute de milioane de utilizatori, generând un val de aplicații creative și declanșând numeroase dezbateri sociale ample privind impactul AI.

În iunie 2020, OpenAI a lansat GPT-3 – un model lingvistic uriaș cu 175 miliarde de parametri, de zece ori mai mare decât cel mai mare model anterior. GPT-3 a uimit prin capacitatea de a scrie texte, răspunde la întrebări, compune poezii, scrie cod aproape ca un om, deși încă făcea erori factuale. Puterea GPT-3 a demonstrat că scara modelului combinată cu volumul uriaș de date de antrenament poate genera o fluiditate lingvistică fără precedent. Aplicațiile bazate pe GPT-3 au apărut rapid, de la conținut de marketing și asistență pentru email până la suport pentru programare.

În noiembrie 2022, AI a pășit cu adevărat în lumina reflectoarelor publice odată cu lansarea ChatGPT – un chatbot interactiv dezvoltat de OpenAI, bazat pe modelul GPT-3.5. În doar 5 zile, ChatGPT a atins 1 milion de utilizatori, iar în aproximativ 2 luni a depășit 100 de milioane de utilizatori, devenind cea mai rapidă aplicație de consum din istorie.

ChatGPT poate răspunde fluent la o gamă largă de întrebări, de la redactare de texte, rezolvare de probleme matematice, consultanță etc., uimind utilizatorii prin „inteligența” și flexibilitatea sa. Popularitatea ChatGPT marchează prima utilizare pe scară largă a AI ca instrument creativ și deschide cursa AI între „giganții” tehnologici.

La începutul lui 2023, Microsoft a integrat GPT-4 (modelul următor OpenAI) în motorul de căutare Bing, în timp ce Google a lansat chatbot-ul Bard bazat pe propriul model LaMDA. Această competiție a accelerat dezvoltarea tehnologiilor AI generative, făcându-le tot mai accesibile și performante.

Pe lângă text, AI generativă în domeniul imaginii și sunetului a făcut progrese remarcabile. În 2022, modele text-to-image precum DALL-E 2 (OpenAI), Midjourney și Stable Diffusion au permis utilizatorilor să introducă descrieri textuale și să primească imagini generate de AI. Calitatea imaginilor este atât de realistă și creativă încât a deschis o nouă eră pentru crearea de conținut digital.

Totuși, aceste progrese au ridicat provocări legate de drepturile de autor și etică, deoarece AI învață din operele artiștilor și generează produse similare. În domeniul audio, modelele text-to-speech de ultimă generație pot transforma textul în voci aproape identice cu cele umane, ba chiar pot imita voci celebre, generând îngrijorări legate de deepfake-uri vocale.

În 2023, au apărut primele procese legale privind drepturile de autor pentru datele de antrenament AI – de exemplu, Getty Images a dat în judecată Stability AI (dezvoltatorul Stable Diffusion) pentru utilizarea a milioane de imagini protejate fără permisiune. Acest lucru evidențiază partea întunecată a exploziei AI: probleme legale, etice și sociale care necesită atenție serioasă.

În mijlocul acestei efervescențe AI, în 2023 comunitatea de experți a exprimat îngrijorări privind riscurile AI puternice. Peste 1.000 de personalități din domeniul tehnologiei (inclusiv Elon Musk, Steve Wozniak, cercetători AI etc.) au semnat o scrisoare deschisă prin care solicită înghețarea timp de 6 luni a antrenării modelelor AI mai mari decât GPT-4, temându-se că dezvoltarea rapidă ar putea scăpa de sub control.

Tot în 2023, pionieri precum Geoffrey Hinton (considerat „părintele” deep learning) au avertizat asupra riscurilor AI care scapă de sub controlul uman. Comisia Europeană a finalizat rapid Legea AI (EU AI Act) – primul cadru legislativ cuprinzător pentru inteligența artificială la nivel mondial, preconizat să intre în vigoare în 2024. Această lege interzice sistemele AI considerate „riscuri inacceptabile” (de exemplu, supravegherea în masă, scorurile sociale) și impune transparență pentru modelele AI generale.

În SUA, mai multe state au adoptat legi care limitează utilizarea AI în domenii sensibile (recrutare, finanțe, campanii electorale etc.). Este clar că lumea se grăbește să stabilească cadrul legal și etic pentru AI, un pas inevitabil pe măsură ce tehnologia are un impact tot mai profund.

Per ansamblu, anii 2020 marchează explozia AI atât tehnologică, cât și în popularitate. Noile instrumente AI precum ChatGPT, DALL-E, Midjourney etc. au devenit familiare, ajutând milioane de oameni să creeze și să lucreze mai eficient în moduri fără precedent.

Totodată, cursa investițiilor în AI este intensă: se estimează că cheltuielile companiilor pentru AI generativ vor depăși 1 miliard de dolari în următorii ani. AI pătrunde tot mai adânc în sectoare precum sănătate (sprijin pentru diagnostic imagistic, descoperire de medicamente), finanțe (analiza riscurilor, detectarea fraudelor), educație (asistenți virtuali, conținut personalizat), transport (vehicule autonome avansate), apărare (decizii tactice) și altele.

Se poate spune că AI este acum comparabilă cu electricitatea sau Internetul – o infrastructură tehnologică pe care toate companiile și guvernele doresc să o valorifice. Mulți experți sunt optimiști că AI va continua să aducă salturi majore în productivitate și calitatea vieții dacă este dezvoltată și gestionată responsabil.

AI în anii 2020


De la anii 1950 până în prezent, istoria dezvoltării AI a parcurs un drum uimitor – plin de ambiție, dezamăgiri și apoi înflorire. De la mica conferință Dartmouth din 1956 care a pus bazele domeniului, AI a trecut de două ori prin „iarnă” din cauza așteptărilor exagerate, dar după fiecare dată a renăscut puternic datorită descoperirilor științifice și tehnologice. În special în ultimii 15 ani, AI a făcut progrese remarcabile, ieșind din laboratoare în lumea reală și având un impact profund.

În prezent, AI este prezentă în aproape toate domeniile și devine tot mai inteligentă și versatilă. Totuși, obiectivul AI puternice (inteligență artificială generală) – o mașină cu inteligență flexibilă asemănătoare omului – rămâne încă un țel de atins.

Modelele AI actuale sunt impresionante, dar încă specializate pe sarcinile pentru care au fost antrenate și uneori fac greșeli absurde (de exemplu, ChatGPT poate „imagina” informații false cu mare încredere). Provocările legate de siguranță și etică impun cerințe urgente: cum să dezvoltăm AI controlată, transparentă și în beneficiul umanității.

Următorul capitol al AI promite să fie extrem de interesant. Cu ritmul actual, putem anticipa că AI va pătrunde și mai adânc în viața noastră: de la medici AI care sprijină îngrijirea sănătății, avocați AI care consultă legislația, până la prieteni AI care ne însoțesc în învățare și confidențe.

Tehnologia calculatoarelor neuromorfice este în cercetare pentru a imita arhitectura creierului uman, putând genera o nouă generație de AI eficiente și mai apropiate de inteligența naturală. Deși perspectiva AI care depășește inteligența umană este încă controversată, este clar că AI va continua să evolueze și să modeleze viitorul umanității într-un mod profund.

Privind înapoi la istoria formării și dezvoltării AI, vedem o poveste despre perseverența și creativitatea neîntreruptă a omenirii. De la calculatoarele rudimentare care știau doar să calculeze, oamenii au învățat mașinile să joace șah, să conducă, să recunoască lumea și chiar să creeze artă. Inteligența artificială este, și va rămâne, o dovadă a capacității noastre de a depăși limitele.

Cel mai important este că am învățat din lecțiile istoriei – să avem așteptări realiste și să dezvoltăm AI responsabil – pentru a asigura că AI aduce beneficii maxime umanității în următoarele etape.