L’intelligenza artificiale (IA) oggi è diventata una parte familiare della vita moderna, presente in ogni settore, dal business alla sanità. Tuttavia, pochi immaginano che la storia dello sviluppo dell’IA sia iniziata a metà del XX secolo e abbia attraversato molte difficoltà prima di raggiungere i risultati esplosivi attuali.
Questo articolo di INVIAI offrirà una visione dettagliata della storia della formazione e dello sviluppo dell’IA, dalle idee iniziali, passando per le fasi del “inverno dell’IA” difficili, fino alla rivoluzione del deep learning e all’esplosione dell’onda dell’IA generativa negli anni 2020.
Anni ’50: L’inizio dell’intelligenza artificiale
Gli anni ’50 sono considerati il vero inizio del settore IA. Nel 1950, il matematico Alan Turing pubblicò l’articolo “Computing Machinery and Intelligence”, in cui propose un famoso test per valutare la capacità di pensiero delle macchine – noto poi come test di Turing. Questo rappresentò una pietra miliare che introdusse l’idea che i computer potessero “pensare” come gli esseri umani, ponendo le basi teoriche per l’IA.
Nel 1956, il termine “Artificial Intelligence” (intelligenza artificiale) fu ufficialmente coniato. Nell’estate di quell’anno, il ricercatore informatico John McCarthy (Università di Dartmouth), insieme a colleghi come Marvin Minsky, Nathaniel Rochester (IBM) e Claude Shannon, organizzò un seminario storico presso l’Università di Dartmouth.
McCarthy propose il termine “intelligenza artificiale” (IA) per questo seminario, e l’evento di Dartmouth 1956 è spesso considerato la nascita del campo dell’IA. Qui, gli audaci scienziati dichiararono che “ogni aspetto dell’apprendimento o dell’intelligenza può essere simulato da una macchina”, fissando un ambizioso obiettivo per questo nuovo settore.
Gli ultimi anni degli anni ’50 videro molte prime conquiste nell’IA. Nel 1951, i primi programmi IA furono scritti per girare sul computer Ferranti Mark I – degni di nota sono il programma per giocare a dama di Christopher Strachey e quello per gli scacchi di Dietrich Prinz, segnando la prima volta in cui un computer sapeva giocare a un gioco di strategia.
Nel 1955, Arthur Samuel di IBM sviluppò un programma per giocare a dama capace di apprendere dall’esperienza, diventando uno dei primi sistemi di machine learning. Nello stesso periodo, Allen Newell, Herbert Simon e colleghi scrissero il programma Logic Theorist (1956) – capace di dimostrare automaticamente teoremi matematici, dimostrando che le macchine potevano eseguire ragionamenti logici.
Oltre agli algoritmi, strumenti e linguaggi di programmazione dedicati all’IA nacquero negli anni ’50. Nel 1958, John McCarthy inventò il linguaggio Lisp – progettato specificamente per l’IA, che divenne rapidamente popolare nella comunità degli sviluppatori IA. Nello stesso anno, lo psicologo Frank Rosenblatt presentò il Perceptron – il primo modello di rete neurale artificiale capace di apprendere dai dati. Il Perceptron è considerato la base primordiale delle moderne reti neurali.
Nel 1959, Arthur Samuel usò per la prima volta il termine “machine learning” (apprendimento automatico) in un articolo fondamentale, descrivendo come un computer potesse essere programmato per imparare e migliorare la propria capacità di giocare a dama superando persino il programmatore. Questi sviluppi mostrarono un forte ottimismo: i pionieri credevano che in pochi decenni le macchine avrebbero potuto raggiungere un’intelligenza simile a quella umana.
Anni ’60: I primi progressi
Negli anni ’60, l’IA continuò a svilupparsi con numerosi progetti e invenzioni significative. Laboratori di IA furono istituiti in prestigiose università (MIT, Stanford, Carnegie Mellon...), attirando interesse e finanziamenti per la ricerca. I computer divennero più potenti, permettendo di sperimentare idee IA più complesse rispetto al decennio precedente.
Un risultato importante fu la nascita del primo programma chatbot. Nel 1966, Joseph Weizenbaum al MIT creò ELIZA, un programma che simulava un dialogo con l’utente nello stile di uno psicoterapeuta. ELIZA era programmata in modo semplice (basata sul riconoscimento di parole chiave e risposte predefinite), ma sorprendentemente molte persone credevano che ELIZA “comprendesse” davvero e avesse emozioni. Il successo di ELIZA aprì la strada ai chatbot moderni e sollevò questioni sull’attribuzione di emozioni alle macchine.
Parallelamente, apparvero i primi robot intelligenti. Tra il 1966 e il 1972, l’Istituto di Ricerca di Stanford (SRI) sviluppò Shakey – il primo robot mobile capace di autocoscienza e pianificazione delle azioni invece di eseguire semplici comandi. Shakey era dotato di sensori e telecamere per muoversi autonomamente nell’ambiente e poteva analizzare compiti complessi come trovare percorsi, spostare ostacoli, salire rampe... Fu la prima volta che un sistema integrava completamente visione artificiale, elaborazione del linguaggio naturale e pianificazione in un robot, ponendo le basi per la robotica IA.
L’American Association of Artificial Intelligence (AAAI) fu fondata in questo periodo (con antenati come la conferenza IJCAI 1969 e l’organizzazione AAAI dal 1980) per riunire i ricercatori IA, dimostrando che la comunità IA cresceva rapidamente.
Inoltre, gli anni ’60 videro lo sviluppo di sistemi esperti e algoritmi fondamentali. Nel 1965, Edward Feigenbaum e colleghi svilupparono DENDRAL – considerato il primo sistema esperto al mondo. DENDRAL era progettato per aiutare i chimici ad analizzare la struttura molecolare dai dati sperimentali, simulando la conoscenza e il ragionamento di un esperto chimico. Il successo di DENDRAL dimostrò che i computer potevano supportare la risoluzione di problemi specialistici complessi, ponendo le basi per la esplosione dei sistemi esperti negli anni ’80.
Inoltre, il linguaggio di programmazione Prolog (specializzato per l’intelligenza artificiale logica) fu sviluppato nel 1972 all’Università di Marsiglia, aprendo la strada ad approcci IA basati su logica e regole relazionali. Un altro traguardo importante fu nel 1969, quando Marvin Minsky e Seymour Papert pubblicarono il libro “Perceptrons”. Questo testo evidenziava i limiti matematici del modello perceptron a singolo strato (incapace di risolvere problemi semplici come XOR), causando un forte scetticismo verso il campo delle reti neurali.
Molti finanziatori persero fiducia nelle capacità di apprendimento delle reti neurali, e la ricerca sulle reti neurali declinò verso la fine degli anni ’60. Questo fu il primo segnale di un “raffreddamento” dell’entusiasmo per l’IA dopo oltre un decennio di ottimismo.
Anni ’70: Sfide e primo “inverno dell’IA”
Negli anni ’70, il campo dell’IA affrontò sfide concrete: molte grandi aspettative degli anni precedenti non furono raggiunte a causa di limitazioni nella potenza di calcolo, nei dati e nella conoscenza scientifica. Di conseguenza, la fiducia e i finanziamenti per l’IA iniziarono a calare drasticamente a metà degli anni ’70 – un periodo poi noto come il primo “inverno dell’IA”.
Nel 1973, Sir James Lighthill gettò benzina sul fuoco pubblicando un rapporto intitolato “Artificial Intelligence: A General Survey” che valutava negativamente i progressi della ricerca IA. Il rapporto Lighthill concluse che i ricercatori IA “promettevano troppo ma ottenevano troppo poco”, criticando in particolare l’incapacità dei computer di comprendere il linguaggio o la visione come previsto.
Questo rapporto portò il governo britannico a tagliare quasi tutti i finanziamenti per l’IA. Negli Stati Uniti, enti finanziatori come DARPA dirottarono gli investimenti verso progetti più pratici. Di conseguenza, dal metà degli anni ’70 fino all’inizio degli anni ’80, il settore IA fu quasi congelato, con pochi progressi e scarsità di fondi. Questo fu il “inverno dell’IA” – termine coniato nel 1984 per indicare questa lunga fase di stagnazione.
Nonostante le difficoltà, gli anni ’70 videro alcuni punti luminosi nella ricerca IA. I sistemi esperti continuarono a svilupparsi in ambito accademico, con esempi come MYCIN (1974) – un sistema esperto per la consulenza medica sviluppato da Ted Shortliffe a Stanford, che aiutava nella diagnosi di infezioni del sangue. MYCIN utilizzava un insieme di regole inferenziali per fornire raccomandazioni terapeutiche con alta precisione, dimostrando il valore pratico dei sistemi esperti in ambiti specifici.
Inoltre, il linguaggio Prolog (lanciato nel 1972) iniziò ad essere applicato a problemi di elaborazione del linguaggio e logica, diventando uno strumento importante per l’IA basata su logica. Nel campo della robotica, nel 1979 un team di Stanford sviluppò con successo il Stanford Cart – il primo veicolo robotico capace di muoversi autonomamente in una stanza piena di ostacoli senza controllo remoto. Questo piccolo successo pose le basi per le future ricerche sui veicoli autonomi.
Nel complesso, alla fine degli anni ’70, la ricerca IA cadde in uno stato di stasi. Molti ricercatori dovettero spostarsi verso campi correlati come machine learning statistico, robotica e visione artificiale per continuare il loro lavoro.
L’IA non era più la “stella brillante” degli anni precedenti, ma un campo di nicchia con pochi progressi significativi. Questo periodo ricordò ai ricercatori che l’intelligenza artificiale è molto più complessa del previsto, richiedendo approcci più fondamentali invece di basarsi solo su simulazioni di ragionamento.
Anni ’80: Sistemi esperti – Ascesa e declino
All’inizio degli anni ’80, l’IA entrò nuovamente in una fase di rinascita – talvolta chiamata “rinascimento dell’IA”. Questa spinta derivò dal successo commerciale dei sistemi esperti e dal rinnovato interesse di governi e imprese. I computer divennero più potenti e la comunità credeva di poter realizzare gradualmente le idee IA in ambiti specifici.
Un grande motore furono i sistemi esperti commerciali. Nel 1981, la Digital Equipment Corporation lanciò XCON (Expert Configuration) – un sistema esperto che aiutava a configurare sistemi informatici, risparmiando all’azienda decine di milioni di dollari. Il successo di XCON spinse un’ondata di sviluppo di sistemi esperti nelle imprese per supportare le decisioni. Molte aziende tecnologiche investirono nello sviluppo di “shell” per sistemi esperti, permettendo alle imprese di personalizzare i propri sistemi.
Il linguaggio Lisp uscì dai laboratori con l’introduzione delle macchine Lisp – hardware specializzato per eseguire programmi IA. All’inizio degli anni ’80, nacquero numerose startup di macchine Lisp (Symbolics, Lisp Machines Inc.), creando un boom di investimenti e dando origine all’era delle “macchine Lisp” per l’IA.
I governi maggiori investirono pesantemente nell’IA in questo periodo. Nel 1982, il Giappone avviò il Progetto Computer di Quinta Generazione con un budget di 850 milioni di dollari per sviluppare computer intelligenti basati su logica e Prolog. Analogamente, gli USA (DARPA) aumentarono i finanziamenti per la ricerca IA in competizione tecnologica con il Giappone. I progetti finanziati si concentrarono su sistemi esperti, elaborazione del linguaggio naturale e basi di conoscenza, con l’obiettivo di creare computer intelligenti avanzati.
In mezzo a questa nuova ondata di ottimismo, le reti neurali artificiali iniziarono a rinascere silenziosamente. Nel 1986, il ricercatore Geoffrey Hinton e colleghi pubblicarono l’algoritmo di backpropagation (retropropagazione) – un metodo efficace per addestrare reti neurali multilivello, superando i limiti evidenziati nel libro Perceptrons (1969).
In realtà, il principio della retropropagazione era stato abbozzato già nel 1970, ma fu solo a metà degli anni ’80 che fu sfruttato appieno grazie alla maggiore potenza di calcolo. L’algoritmo di backpropagation diede rapidamente origine a una seconda ondata di ricerca sulle reti neurali. In questo periodo, la fiducia che le reti neurali profonde potessero apprendere modelli complessi iniziò a emergere, segnando la premessa per il deep learning futuro.
Giovani ricercatori come Yann LeCun (Francia) e Yoshua Bengio (Canada) si unirono al movimento delle reti neurali, sviluppando modelli di riconoscimento della scrittura a mano con successo verso la fine del decennio.
Tuttavia, il secondo boom dell’IA durò poco. Alla fine degli anni ’80, il settore IA cadde nuovamente in crisi a causa di risultati deludenti rispetto alle aspettative. I sistemi esperti, pur utili in alcune applicazioni specifiche, mostrarono limiti: erano rigidi, difficili da scalare e richiedevano aggiornamenti manuali continui delle conoscenze.
Molti grandi progetti di sistemi esperti fallirono, e il mercato delle macchine Lisp crollò a causa della concorrenza dei computer personali più economici. Nel 1987, l’industria Lisp fu quasi completamente distrutta. Gli investimenti nell’IA furono drasticamente ridotti alla fine degli anni ’80, dando origine a un secondo “inverno dell’IA”. Il termine “AI winter”, coniato nel 1984, si applicò nuovamente quando molte aziende IA chiusero tra il 1987 e il 1988. Ancora una volta, il settore IA entrò in una fase di declino, costringendo i ricercatori a rivedere aspettative e strategie.
In sintesi, gli anni ’80 segnarono un ciclo di boom e declino dell’IA. I sistemi esperti permisero all’IA di entrare per la prima volta nel mondo industriale, ma mostrarono anche i limiti degli approcci basati su regole fisse. Tuttavia, questo periodo produsse molte idee e strumenti preziosi: dagli algoritmi neurali alle prime basi di conoscenza. Furono anche lezioni importanti sull’evitare aspettative eccessive, ponendo le basi per un approccio più prudente nel decennio successivo.
Anni ’90: Il ritorno dell’IA nella pratica
Dopo il secondo inverno dell’IA alla fine degli anni ’80, la fiducia nell’IA iniziò a riprendersi negli anni ’90 grazie a una serie di progressi pratici. Invece di concentrarsi sull’IA forte (intelligenza artificiale generale) ambiziosa, i ricercatori si focalizzarono sull’IA debole – applicando tecniche IA a problemi specifici con risultati impressionanti. Molti settori derivati dall’IA (come riconoscimento vocale, visione artificiale, algoritmi di ricerca, basi di conoscenza...) si svilupparono indipendentemente e furono ampiamente applicati.
Un traguardo importante che segnò l’inizio dei successi pratici fu nel maggio 1997, quando il computer Deep Blue di IBM sconfisse il campione mondiale di scacchi Garry Kasparov in una partita ufficiale. Fu la prima volta che un sistema IA vinse contro il campione mondiale in un gioco di strategia complesso, suscitando grande scalpore.
La vittoria di Deep Blue – basata su algoritmi di ricerca brute-force combinati con database di aperture – dimostrò la potenza di calcolo enorme e le tecniche specializzate che potevano superare l’uomo in compiti definiti. Questo evento segnò il grande ritorno dell’IA nei media, riaccendendo l’interesse per la ricerca dopo anni di stagnazione.
Non solo negli scacchi, l’IA degli anni ’90 fece progressi su molti fronti. Nel campo dei giochi, nel 1994 il programma Chinook risolse completamente il gioco della dama (checkers) a livello imbattibile, costringendo il campione mondiale a riconoscere l’impossibilità di battere il computer.
Nel riconoscimento vocale, iniziarono a comparire sistemi commerciali come Dragon Dictate (1990), e alla fine del decennio il software di riconoscimento vocale era ampiamente usato su computer personali. Il riconoscimento della scrittura fu integrato in dispositivi PDA (assistenti digitali personali) con precisione crescente.
Le applicazioni di visione artificiale iniziarono a essere implementate nell’industria, dal controllo qualità dei componenti ai sistemi di sicurezza. Anche la traduzione automatica – un campo che aveva deluso negli anni ’60 – fece progressi significativi con sistemi come SYSTRAN, che supportava la traduzione automatica multilingue per l’Unione Europea.
Un altro importante filone fu il machine learning statistico e le reti neurali applicate all’analisi di grandi quantità di dati. Alla fine degli anni ’90, l’esplosione di Internet portò a enormi quantità di dati digitali. Tecniche di data mining e machine learning come alberi decisionali, reti neurali, modelli di Markov nascosti furono usate per analizzare dati web, ottimizzare motori di ricerca e personalizzare contenuti.
Il termine “data science” non era ancora diffuso, ma in realtà l’IA si era già infiltrata nei sistemi software per migliorare le prestazioni basandosi sull’apprendimento dai dati degli utenti (ad esempio: filtri antispam per email, suggerimenti di prodotti nell’e-commerce). Questi piccoli ma concreti successi aiutarono l’IA a riguadagnare credibilità presso imprese e società.
Si può dire che gli anni ’90 furono un periodo in cui l’IA “silenziosamente” ma solidamente entrò nella vita quotidiana. Invece di grandi proclami di intelligenza simile a quella umana, gli sviluppatori si concentrarono su problemi specifici. Di conseguenza, l’IA era presente in molti prodotti tecnologici alla fine del XX secolo senza che gli utenti se ne rendessero conto – dai giochi ai software fino ai dispositivi elettronici. Questo periodo preparò anche basi importanti su dati e algoritmi, rendendo l’IA pronta a esplodere nel decennio successivo.
Anni 2000: Machine learning e l’era dei big data
Entrando nel XXI secolo, l’IA si trasformò radicalmente grazie a Internet e all’era dei big data. Gli anni 2000 videro l’esplosione di computer personali, reti Internet e dispositivi sensoriali, generando enormi quantità di dati. Il machine learning – in particolare le tecniche di apprendimento supervisionato – divenne lo strumento principale per sfruttare questo “oro nero” dei dati.
Lo slogan “data is the new oil” (i dati sono il nuovo petrolio) divenne popolare, poiché più dati si hanno, più gli algoritmi IA diventano precisi. Le grandi aziende tecnologiche iniziarono a costruire sistemi per raccogliere e apprendere dai dati degli utenti per migliorare i prodotti: Google con il motore di ricerca intelligente, Amazon con suggerimenti di acquisto basati sul comportamento, Netflix con algoritmi di raccomandazione. L’IA divenne il “cervello” silenzioso dietro molte piattaforme digitali.
Il 2006 segnò un evento importante: Fei-Fei Li, professoressa alla Stanford University, avviò il progetto ImageNet – un enorme database con oltre 14 milioni di immagini etichettate dettagliatamente. Introdotto nel 2009, ImageNet divenne lo standard per addestrare e valutare algoritmi di visione artificiale, in particolare per il riconoscimento degli oggetti nelle immagini.
ImageNet fu definito come un “potenziatore” che spinse la ricerca sul deep learning in seguito, fornendo dati sufficienti per modelli di apprendimento profondo complessi. La competizione annuale ImageNet Challenge dal 2010 divenne un importante campo di gara per i migliori team di ricerca nel riconoscimento delle immagini. Da questa piattaforma, una svolta storica dell’IA si verificò nel 2012 (vedi decennio 2010).
Negli anni 2000, l’IA conquistò anche molte altre tappe applicative importanti:
- Nel 2005, il veicolo autonomo di Stanford (soprannominato “Stanley”) vinse la DARPA Grand Challenge – una gara di guida autonoma nel deserto lunga 212 km. Stanley completò il percorso in 6 ore e 53 minuti, inaugurando una nuova era per i veicoli autonomi e attirando investimenti da Google, Uber negli anni successivi.
- Assistenti virtuali su smartphone apparvero: nel 2008, l’app Google Voice Search permise la ricerca vocale su iPhone; il culmine fu Apple Siri (lanciato nel 2011) – un assistente vocale integrato nell’iPhone. Siri utilizzava tecnologie di riconoscimento vocale, comprensione del linguaggio naturale e connessione a servizi web, segnando la prima diffusione di massa dell’IA.
- Nel 2011, il supercomputer IBM Watson sconfisse due campioni nel gioco a quiz Jeopardy! in TV negli USA. Watson era capace di comprendere domande complesse in inglese e di accedere a enormi quantità di dati per trovare risposte, dimostrando la potenza dell’IA nell’elaborazione del linguaggio naturale e nella ricerca di informazioni. Questa vittoria dimostrò che i computer potevano “comprendere” e rispondere intelligentemente in un ampio dominio di conoscenza.
- Social network e web: Facebook introdusse la funzione di riconoscimento facciale automatico per taggare le foto (circa 2010), usando algoritmi di machine learning su dati fotografici degli utenti. YouTube e Google usarono l’IA per filtrare contenuti e suggerire video. Le tecniche di machine learning operavano silenziosamente nelle piattaforme, migliorando l’esperienza utente spesso senza che gli utenti se ne accorgessero.
Si può dire che il motore principale dell’IA negli anni 2000 fu dato e applicazioni. Algoritmi tradizionali di machine learning come regressione, SVM, alberi decisionali furono implementati su larga scala, portando risultati concreti.
L’IA passò da tema di ricerca a forza trainante nell’industria: “IA per le imprese” divenne un tema caldo, con molte aziende che offrirono soluzioni IA per gestione, finanza, marketing... Nel 2006 emerse il termine “enterprise AI”, sottolineando l’uso dell’IA per migliorare l’efficienza aziendale e il processo decisionale.
Alla fine degli anni 2000 si manifestarono anche i primi segnali della rivoluzione del deep learning. Le ricerche sulle reti neurali profonde continuarono a fiorire. Nel 2009, il gruppo di Andrew Ng alla Stanford University annunciò l’uso di GPU (unità di elaborazione grafica) per addestrare reti neurali 70 volte più velocemente delle CPU tradizionali.
La potenza di calcolo parallela delle GPU si rivelò perfetta per le operazioni matriciali delle reti neurali, aprendo la strada all’addestramento di modelli deep learning di grandi dimensioni negli anni 2010. Gli ultimi tasselli – grandi dati, hardware potente, algoritmi migliorati – erano pronti, aspettando solo il momento per scatenare una nuova rivoluzione IA.
Anni 2010: La rivoluzione del deep learning
Se dovessimo scegliere un decennio in cui l’IA ha davvero “spiccato il volo”, sarebbe proprio gli anni 2010. Con le basi di dati e hardware degli anni precedenti, l’intelligenza artificiale entrò nell’era del deep learning – modelli di reti neurali profonde che ottennero risultati straordinari, superando ogni record in numerosi compiti IA. Il sogno di macchine “che apprendono come il cervello umano” divenne in parte realtà grazie agli algoritmi di deep learning.
La svolta storica avvenne nel 2012, quando il gruppo di Geoffrey Hinton e i suoi studenti (Alex Krizhevsky, Ilya Sutskever) parteciparono alla ImageNet Challenge. Il loro modello – noto come AlexNet – era una rete neurale convoluzionale a 8 strati addestrata su GPU. Il risultato fu un notevole aumento di accuratezza, dimezzando il tasso di errore rispetto al secondo classificato.
Questa vittoria schiacciante stupì la comunità di visione artificiale e segnò l’inizio del “boom del deep learning” nell’IA. Nei successivi anni, la maggior parte dei metodi tradizionali di riconoscimento immagini fu sostituita da modelli deep learning.
Il successo di AlexNet confermò che con dati sufficienti (ImageNet) e potenza di calcolo (GPU), le reti neurali profonde possono superare altre tecniche IA. Hinton e colleghi furono rapidamente reclutati da Google, e il deep learning divenne la parola d’ordine nella ricerca IA.
Il deep learning rivoluzionò non solo la visione artificiale, ma si diffuse anche in elaborazione vocale, linguaggio naturale e molti altri campi. Nel 2012, Google Brain (progetto di Andrew Ng e Jeff Dean) fece scalpore annunciando una rete neurale profonda che imparava a riconoscere il concetto di “gatto” da video YouTube senza etichette.
Tra il 2011 e il 2014, assistenti virtuali come Siri, Google Now (2012) e Microsoft Cortana (2014) furono lanciati, sfruttando i progressi nel riconoscimento vocale e comprensione del linguaggio naturale. Ad esempio, il sistema di riconoscimento vocale Microsoft raggiunse una precisione paragonabile a quella umana nel 2017, grazie all’uso di reti neurali profonde per il modello acustico. Nel campo della traduzione, nel 2016 Google Translate adottò l’architettura Neural Machine Translation (NMT), migliorando significativamente la qualità rispetto ai modelli statistici precedenti.
Un altro evento importante fu la vittoria dell’IA nel gioco del Go – un traguardo considerato molto lontano. Nel marzo 2016, il programma AlphaGo di DeepMind (Google) sconfisse il campione mondiale di Go Lee Sedol con un punteggio di 4-1. Il Go è molto più complesso degli scacchi, con un numero di mosse troppo grande per il brute-force. AlphaGo combinò deep learning e algoritmo Monte Carlo Tree Search, imparando a giocare attraverso milioni di partite umane e auto-gioco.
Questa vittoria fu paragonata a quella di Deep Blue-Kasparov del 1997, confermando che l’IA poteva superare l’uomo in compiti che richiedono intuizione ed esperienza. Dopo AlphaGo, DeepMind sviluppò AlphaGo Zero (2017), che imparò a giocare da zero senza dati umani, battendo la versione precedente 100-0. Questo dimostrò il potenziale dell’apprendimento per rinforzo (reinforcement learning) combinato con il deep learning per ottenere prestazioni superumane.
Nel 2017, un’invenzione rivoluzionaria nell’elaborazione del linguaggio naturale fu l’architettura Transformer. I ricercatori Google pubblicarono il modello Transformer nell’articolo “Attention Is All You Need”, proponendo il meccanismo di self-attention che permette ai modelli di apprendere relazioni tra parole in una frase senza sequenzialità.
Transformer permise di addestrare modelli linguistici di grandi dimensioni (LLM) molto più efficientemente rispetto alle architetture sequenziali precedenti (RNN/LSTM). Da allora, numerosi modelli linguistici basati su Transformer sono stati sviluppati: BERT (Google, 2018) per la comprensione del contesto, e soprattutto GPT (Generative Pre-trained Transformer) di OpenAI, introdotto nel 2018.
Questi modelli ottennero risultati eccezionali in compiti linguistici che vanno dalla classificazione, risposta a domande fino alla generazione di testo. Transformer pose le basi per la corsa ai modelli linguistici giganti negli anni 2020.
Alla fine degli anni 2010 emerse anche l’IA generativa (generative AI) – modelli IA capaci di creare contenuti nuovi. Nel 2014, Ian Goodfellow e colleghi inventarono il modello GAN (Generative Adversarial Network), composto da due reti neurali antagoniste per generare dati sintetici molto realistici.
I GAN divennero famosi per la capacità di creare ritratti umani falsi molto realistici (deepfake). Parallelamente, furono sviluppati modelli autoencoder variationali (VAE) e tecniche di style transfer per trasformare immagini e video in nuovi stili.
Nel 2019, OpenAI presentò GPT-2 – un modello generativo di testo con 1,5 miliardi di parametri, capace di generare testi lunghi e fluidi simili a quelli umani. Era chiaro che l’IA non solo poteva classificare o prevedere, ma anche creare contenuti in modo convincente.
L’IA negli anni 2010 fece progressi sorprendenti e oltre le aspettative. Molti compiti prima considerati “impossibili” per i computer furono raggiunti o superati dall’IA: riconoscimento immagini, riconoscimento vocale, traduzione, giochi complessi...
Ancora più importante, l’IA iniziò a entrare nella vita quotidiana: da smartphone con fotocamere che riconoscono volti automaticamente, assistenti vocali in smart speaker (Alexa, Google Home), fino a suggerimenti di contenuti sui social media, tutto gestito dall’IA. Questo fu davvero un periodo di esplosione dell’IA, tanto che molti la definirono “la nuova elettricità” – una tecnologia fondamentale che trasforma ogni settore.
Anni 2020: Esplosione dell’IA generativa e nuove tendenze
In pochi anni all’inizio degli anni 2020, l’IA è esplosa a una velocità senza precedenti, principalmente grazie all’ascesa dell’IA generativa (Generative AI) e dei modelli linguistici di grandi dimensioni (LLM). Questi sistemi hanno permesso all’IA di raggiungere direttamente centinaia di milioni di utenti, generando un’ondata di applicazioni creative e suscitando ampi dibattiti sociali sugli impatti dell’IA.
Nel giugno 2020, OpenAI presentò GPT-3 – un modello linguistico gigante con 175 miliardi di parametri, dieci volte più grande del modello più grande precedente. GPT-3 stupì per la capacità di scrivere testi, rispondere a domande, comporre poesie, scrivere codice quasi come un umano, pur commettendo ancora errori fattuali. La potenza di GPT-3 dimostrò che la scala del modello unita a enormi dati di addestramento poteva produrre capacità linguistiche fluide mai viste prima. Applicazioni basate su GPT-3 emersero rapidamente, dalla scrittura di contenuti marketing, assistenza email fino al supporto alla programmazione.
Nel novembre 2022, l’IA uscì davvero alla luce pubblica con il lancio di ChatGPT – un chatbot interattivo sviluppato da OpenAI basato sul modello GPT-3.5. In soli 5 giorni, ChatGPT raggiunse 1 milione di utenti, e in circa 2 mesi superò i 100 milioni di utenti, diventando l’applicazione consumer a crescita più rapida della storia.
ChatGPT è capace di rispondere fluentemente a una vasta gamma di domande, dalla scrittura di testi, risoluzione di problemi matematici, consulenza... sorprendendo gli utenti per la sua “intelligenza” e flessibilità. La sua popolarità segnò la prima volta che l’IA fu usata su larga scala come strumento creativo, dando inizio alla corsa all’IA tra i “big tech”.
All’inizio del 2023, Microsoft integrò GPT-4 (modello successivo di OpenAI) nel motore di ricerca Bing, mentre Google lanciò il chatbot Bard basato sul proprio modello LaMDA. Questa competizione ha aiutato la tecnologia IA generativa a raggiungere un pubblico sempre più vasto e a migliorarsi rapidamente.
Oltre al testo, l’IA generativa in immagini e audio ha fatto grandi progressi. Nel 2022, modelli text-to-image come DALL-E 2 (OpenAI), Midjourney e Stable Diffusion permisero agli utenti di inserire descrizioni testuali e ricevere immagini generate dall’IA. La qualità delle immagini, vivide e creative, fu sorprendente, inaugurando una nuova era per la creazione di contenuti digitali.
Tuttavia, ciò pose anche sfide su diritti d’autore ed etica, poiché l’IA apprendeva da opere di artisti senza autorizzazione e produceva opere simili. Nel campo audio, modelli text-to-speech di nuova generazione possono trasformare testo in voci quasi identiche a quelle umane, persino imitando voci di celebrità, sollevando preoccupazioni sui deepfake vocali.
Nel 2023, per la prima volta si verificarono cause legali sui diritti d’autore dei dati di addestramento IA – ad esempio Getty Images citò in giudizio Stability AI (sviluppatore di Stable Diffusion) per aver usato milioni di immagini protette da copyright senza permesso. Questo evidenziò il lato oscuro dell’esplosione dell’IA: questioni legali, etiche e sociali emersero, richiedendo attenzione seria.
Nel pieno del boom IA, nel 2023 la comunità di esperti espresse preoccupazioni sui rischi dell’IA forte. Oltre 1.000 figure del settore tecnologico (tra cui Elon Musk, Steve Wozniak, ricercatori IA...) firmarono una lettera aperta chiedendo una pausa di 6 mesi nell’addestramento di modelli IA più grandi di GPT-4, temendo uno sviluppo troppo rapido e fuori controllo.
Nello stesso anno, pionieri come Geoffrey Hinton (uno dei “padri” del deep learning) avvertirono sui rischi di un’IA fuori controllo. La Commissione Europea completò rapidamente il Regolamento IA (EU AI Act) – la prima normativa globale completa sull’intelligenza artificiale, prevista per l’entrata in vigore nel 2024. Questa legge vieta sistemi IA considerati a “rischio inaccettabile” (come sorveglianza di massa, punteggi sociali) e richiede trasparenza per i modelli IA generali.
Negli Stati Uniti, molti stati hanno emanato leggi per limitare l’uso dell’IA in settori sensibili (assunzioni, finanza, lobbying elettorale, ecc.). È chiaro che il mondo sta accelerando la definizione di quadri legali ed etici per l’IA, una necessità inevitabile dato l’impatto profondo della tecnologia.
In generale, gli anni 2020 stanno vivendo un boom dell’IA sia tecnico che di diffusione. Nuovi strumenti IA di ultima generazione come ChatGPT, DALL-E, Midjourney... sono diventati familiari, aiutando milioni di persone a creare e lavorare in modo più efficiente in modi mai visti prima.
Allo stesso tempo, la corsa agli investimenti nell’IA è vivace: si prevede che la spesa aziendale per l’IA generativa supererà il miliardo di dollari nei prossimi anni. L’IA sta penetrando sempre più profondamente in settori come sanità (supporto alla diagnosi per immagini, ricerca farmaci), finanza (analisi del rischio, rilevamento frodi), istruzione (tutor virtuali, contenuti personalizzati), trasporti (veicoli autonomi avanzati), difesa (decisioni tattiche), ecc.
Si può dire che l’IA oggi è come l’elettricità o Internet – un’infrastruttura tecnologica che ogni impresa e governo vuole sfruttare. Molti esperti sono ottimisti che l’IA continuerà a portare salti di produttività e qualità della vita se sviluppata e regolamentata correttamente.
Dagli anni ’50 a oggi, la storia dello sviluppo dell’IA ha percorso un cammino straordinario – pieno di ambizione, delusioni e rinascite. Dal piccolo seminario di Dartmouth del 1956 che pose le basi del settore, l’IA è caduta due volte in “inverni” a causa di aspettative eccessive, ma ogni volta è rinata più forte grazie a scoperte scientifiche e tecnologiche. In particolare negli ultimi 15 anni, l’IA ha fatto progressi straordinari, passando dalla ricerca al mondo reale e avendo un impatto profondo.
Oggi, l’IA è presente in quasi tutti i settori ed è sempre più intelligente e versatile. Tuttavia, l’obiettivo dell’IA forte (intelligenza artificiale generale) – una macchina con intelligenza flessibile come quella umana – è ancora davanti a noi.
I modelli IA attuali, pur impressionanti, sono ancora bravi solo nei compiti per cui sono addestrati e talvolta commettono errori banali (come ChatGPT che può “allucinare” informazioni errate con grande sicurezza). Le sfide di sicurezza ed etica richiedono attenzione urgente: come sviluppare l’IA in modo controllato, trasparente e per il bene comune dell’umanità.
Il prossimo capitolo dell’IA promette di essere estremamente interessante. Con i progressi attuali, possiamo aspettarci che l’IA entri ancora più profondamente nella vita: da medici IA che supportano la cura della salute, avvocati IA che consultano testi legali, fino a amici IA che accompagnano nello studio e nel dialogo.
Tecnologie come il calcolo neuromorfico sono in fase di studio per imitare l’architettura del cervello umano, potenzialmente creando una nuova generazione di IA più efficiente e vicina all’intelligenza naturale. Sebbene la prospettiva di IA che supera l’intelligenza umana sia ancora controversa, è chiaro che l’IA continuerà a evolversi e a plasmare il futuro dell’umanità in modo profondo.
Guardando indietro alla storia della formazione e dello sviluppo dell’IA, vediamo una storia di perseveranza e creatività incessante dell’uomo. Da un computer primitivo capace solo di calcoli, l’uomo ha insegnato alle macchine a giocare, guidare, riconoscere il mondo e persino creare arte. L’intelligenza artificiale è, è stata e sarà la prova della nostra capacità di superare i limiti.
La cosa importante è che impariamo dalla storia – impostare aspettative realistiche e sviluppare l’IA responsabilmente – per garantire che l’IA porti massimi benefici all’umanità nei prossimi capitoli.