Dialogare con ChatGPT e avere la risposta cercata, utilizzare Dall-e per ottenere immagini con semplici informazioni, chiedere il meteo a Siri e ricevere indicazioni in tempo reale, navigare nei siti e trovare contenuti scritti, audio e video sulla base delle nostre preferenze (vere o presunte), servirsi di Perplexity.ai, un sistema fondato su una tecnologia che integra ricerca tradizionale e conversazione interattiva attraverso l’unione di chatbot e motore di ricerca. L’intelligenza artificiale generativa è una realtà imprescindibile in cui siamo immersi basata su una rete neurale addestrata con un’immensa quantità di informazioni, che mediante un grande numero di tentativi regola le connessioni tra i neuroni artificiali attraverso miliardi di componenti dei dati inseriti fino a ottenere un risultato soddisfacente per un determinato input. I due sistemi più efficienti grazie ai molteplici strati di neuroni e che offrono maggiori opportunità per il futuro sono il Large language model (LMMS) per i testi e i modelli di diffusione per le immagini. Sia LMMS sia ChatGPT, Gemini, Claude e Llama sono realizzati con l’architettura trasformer, cioè in grado di distinguere i diversi aspetti di un imput, come per esempio in un testo la correlazione non solo tra parole lontane le une dalle altre, ma anche l’associazione tra frasi e paragrafi non consecutivi.
Risposte improbabili
Un’evoluzione tecnologica che ha consentito a questi modelli di espandersi anche su chip GPU (Graphics processing unit), le unità di elaborazione fondamentali per accelerare lo sviluppo di apprendimento profondo dei processi neurali di cui Nvidia è il maggiore produttore mondiale e grazie ai quali ha moltiplicato in modo esponenziale il suo valore. L’architettura trasformer ha tuttavia dei limiti e incontra elevate difficoltà ad apprendere modelli coerenti. Quando gli LMMS rispondono alle nostre domande possono contraddirsi tra una risposta all’altra perché non “conoscono” realmente nessuna delle diverse affermazioni, ma si limitano ad associare in modo artificiale delle serie di parole e talvolta avere delle vere e proprie “allucinazioni”. Danno cioè delle risposte apparentemente plausibili ma sbagliate, supportate da numerose citazioni e riferimenti che dovrebbero avvalorare il loro contenuto. Anche le immagini erano spesso improbabili prima della creazione degli attuali sistemi di diffusione avanzati, capaci di realizzare delle forme molto più realistiche di quelle prodotte dai primi modelli con un apprendimento simile a quello con cui gli LLMS vengono addestrati sui testi.
Nuovo nazionalismo
I modelli DLMR (Data-centric Machine Learning Research) sono inoltre in grado di convertire e incorporare gli input, cioè l’insieme di dati e informazioni come l’età, i “mi piace” o i contenuti preferiti da un utente e mettere in relazione tra loro immagini e concetti simili. Attraverso le reti neurali possono prevedere il livello di gradimento per ogni utente di un video, di una pubblicità, di una canzone, di prodotti commerciali su piattaforme streaming o di e-commerce. Se utilizzati su larga scala questi modelli richiedono un numero molto ampio di dati, una grande capacità di elaborazione e un’elevata quantità di energia. Nonostante le architetture trasformer siano attualmente considerate efficienti è già in corso la ricerca di sistemi che vadano oltre gli attuali traguardi per risolvere problemi come le “allucinazioni” e gli errori logici, che consentiranno a questa tecnologia di fare un balzo in avanti. Con l’avanzare delle conquiste dell’IA molti paesi temono di rimanere indietro in un processo che esige strutture e competenze estremamente evolute e potrà presto rivoluzionare settori fondamentali come l’economia, automatizzare i posti di lavoro, dare impulso alla ricerca scientifica e cambiare il modo con cui si combattono le guerre. Avere un numero crescente di aziende hi tech è quindi, come suggerisce Ian Hogarth nel suo saggio AI Nationalism (https://www.ianhogarth.com/blog/2018/6/13/ai-nationalism) la grande sfida per non dipendere da un paese straniero in settori fondamentali per la sicurezza e la qualità della vita dei propri cittadini. Emerge così un nuovo tipo di nazionalismo che ha spinto molti paesi a emanare leggi, regolamenti e stringere nuove alleanze. Nel 2022 il lancio di ChatGPT da parte di OpenAI ha colto di sorpresa la maggior parte dei più strategici poli tecnologici a livello mondiale, che da quel momento hanno fatto a gara per recuperare terreno anche grazie alla raccolta di importanti investimenti in paesi come gli Emirati Arabi Uniti, la Francia e l’India, mentre altre nazioni hanno preferito erogare sussidi, finanziare impianti di semiconduttori, o erigere delle barriere commerciali. Se gli Stati uniti usano la politica commerciale per cercare di escludere la Cina dall’accesso a microchip indispensabili per lo sviluppo hi tech, la Francia punta sulle startup innovative per creare chatbot che privilegiano il francese e altre lingue diverse dall’inglese, mentre l’Arabia Saudita ha stretto accordi con aziende come Amazon, IBM e Microsoft per diventare un grande hub dell’innovazione. In questa corsa per la conquista o il consolidamento della supremazia tecnologica gli Stati uniti possono tuttavia contare su vantaggi che gli altri paesi hanno difficoltà a uguagliare dato che controllano i modelli più performanti di intelligenza artificiale e si avvalgono di investimenti molto superiori.
Livelli di rischio
La maggior parte degli ingegneri e sviluppatori più richiesti a livello internazionale continua a coltivare l’aspirazione a svolgere la propria carriera nella Silicon Valley. Le società americane sono inoltre facilitate nell’acquisto dei chip, componenti essenziali per la realizzazione di strumenti di intelligenza artificiale, che vengono progettati soprattutto da Nvidia in California. Per limitare la concorrenza cinese gli Stati uniti hanno anche imposto nuove norme che ostacolano la potenza asiatica all’accesso ai chip prodotti negli Usa. Agli stati esteri che chiedono di acquistare chip viene poi posto l’obbligo di non servirsi della tecnologia cinese e di accettare la supervisione di aziende americane come Microsoft. Sullo sviluppo dell’intelligenza artificiale incombono tuttavia numerosi interrogativi tra cui la possibilità di poter conciliare i vantaggi di questa tecnologia in aree sensibili come la sanità, l’istruzione e la sicurezza senza compromettere la privacy o favorire la disinformazione. Per cercare di dare una risposta a questi problemi l’Unione europea ha approvato l’AI Act, un ordinamento pioneristico che rappresenta un passo importante nella regolamentazione a livello globale dei modelli di intelligenza artificiale generativa e dei loro requisiti in base ai livelli di rischio. Tra le applicazioni vietate sono stati inseriti i sistemi di riconoscimento facciale, il social scoring per valutare il comportamento dei cittadini e i sistemi di categorizzazione biometrica per classificare le persone in base al sesso, all’età, al colore degli occhi e dei capelli, alla presenza di tatuaggi, all’origine etnica, all’orientamento sessuale e politico.
Europa in affanno
L’Unione europea è all’avanguardia nella definizione di leggi che pongono dei limiti all’utilizzo dell’IA, un settore molto frammentato in cui un numero elevato di servizi variano in base agli interessi nazionali, ma allo stesso tempo è in preoccupante ritardo nell’innovazione come testimonia lo scarso numero di brevetti hi tech e in modo particolare quelli basati sull’intelligenza artificiale generativa, elementi essenziali per non subire “invasioni” straniere. Nonostante i risultati delle ricerche delle università europee siano di alto livello, le aziende continuano ad avere un ruolo marginale nel loro sviluppo soprattutto a causa degli scarsi investimenti. Secondo i dati diffusi dalla Banca d’Italia gli stanziamenti in intelligenza artificiale in Europa tra il 2013 e il 2023 sono stati di venti miliardi di dollari contro i trecentotrenta degli Stati uniti e i cento della Cina. Per SemiAnalysis, la società di ricerca attiva nel campo dei semiconduttori e dell’IA, dei centoventi miliardi di dollari che Microsoft prevede di destinare ai data center e ad altre infrastrutture fondamentali entro il 2026, quelli riservati all’Europa e focalizzati esclusivamente sulla Germania saranno meno del tre per cento, mentre la maggior parte andrà agli Stati uniti. Sempre secondo i dati della Banca d’Italia, nel 2023 gli investimenti privati negli Usa in IA sono stati di 67,2 miliardi di dollari contro i 7,72 in Cina e i 3,77 nel Regno unito, mentre nell’Unione europea i primi tre paesi cui sono andati i fondi (Germania, Svezia e Francia) hanno ricevuto 5,50 miliardi. Per quanto riguarda i brevetti, nel 2022 l’European Patent Office (Ufficio europeo dei brevetti) ne ha registrati meno di ottocento, mentre negli Usa sono stati circa sedicimila e tra le otto principali start up di intelligenza artificiale c’è solo la francese Mistral AI. Nonostante l’emergere di aziende innovative come Mistral AI e la tedesca Aleph Alpha l’Europa è quindi in forte svantaggio competitivo sia rispetto alle Big Tech americane come Google, Meta, Microsoft e Amazon sia alle cinesi Baidu, Alibaba, Tencent e Huawei, senza dimenticare paesi come Arabia Saudita ed Emirati arabi uniti che hanno deciso di investire grandi capitali in questo fondamentale settore.
___________________________________________________________________________________
“L’intelligenza artificiale generativa è una realtà imprescindibile basata su una rete neurale addestrata con un’immensa quantità di informazioni”
“Le risposte non sempre sono coerenti, ma possono contraddirsi e avere delle vere e proprie ‘allucinazioni’ con affermazioni plausibili ma sbagliate”
“Con l’avanzare delle conquiste dell’IA molti paesi temono di rimanere indietro in un processo che esige strutture e competenze estremamente evolute”
“Nella corsa per la conquista o il consolidamento della supremazia hi tech gli Usa possono contare su vantaggi che altri paesi ancora non hanno”
“Sullo sviluppo dell’IA incombono interrogativi su come conciliare i vantaggi senza compromettere la privacy o favorire la disinformazione”
“L’Ue è all’avanguardia nella definizione di leggi che limitano l’utilizzo dell’IA, ma è in preoccupante ritardo nell’innovazione tecnologica”
___________________________________________________________________________________
VERA INTELLIGENZA O SOLO IMITAZIONE?
Le nostre conoscenze innate a confronto con le “macchine pensanti”
I continui progressi dell’intelligenza artificiale generativa possono suscitare in una parte significativa dell’opinione pubblica l’idea che le macchine imparino a pensare e, di conseguenza, una serie di dubbi su un futuro distopico tra la speranza di ottenere significativi progressi in campi fondamentali come la salute, l’istruzione, il lavoro, l’ambiente e l’angoscia di subire una trasformazione in negativo delle nostra società con una rilevante scomparsa di posti di lavoro, la manipolazione e il plagio delle informazioni già oggi molto compromesse e la perdita di privacy. Di fronte a questi interrogativi può essere utile ricordare che fin dai suoi inizi negli anni Cinquanta del Novecento con il test del grande matematico britannico Alan Turing Imitation game, l’IA, si è servita di modelli fondati sull’imitazione. Nel primo importante sviluppo dell’intelligenza artificiale negli anni Settanta l’informatico statunitense John McCarthy, che ha coniato il termine intelligenza artificiale, ha invece sostenuto sulla base di concetti ingegneristici e tecnologici più che sulle scienze cognitive, la filosofia e le neuroscienze, l’idea di macchine pensanti, ma come suggerisce il paradosso del filosofo britannico-ungherese Michael Polanyl: “Wel can Know more than we can tell” (Possiamo sapere più di quanto riusciamo a dire). Le nostre conoscenze vanno infatti oltre la consapevolezza perché spesso ci affidiamo a una comprensione tacita che non può essere espressa verbalmente né codificata in un programma. Come conferma l’esperienza quotidiana svolgiamo molti compiti in modo intuitivo senza saper esprimere le regole e le procedure. Siamo per esempio in grado di identificare immediatamente un volto mentre l’intelligenza artificiale procede dopo un lungo addestramento solo per imitazione attraverso la raccolta e il confronto un grande numero di immagini per somiglianze e attraverso la copia di dati classificati secondo modelli statistici. Un sistema che può quindi creare delle vere e proprie “allucinazioni” (vedi articolo qui sopra) e dati distorti anche su temi sensibili come il genere e l’etnia, oppure in campo medico dare risultati non sicuri, problematici e anche pericolosi.