L'immagine rappresenta la mappa del mondo su sfondo sfumato di blu e fucsia con colori accesi

La sfida alla supremazia dell’Intelligenza Artificiale: quale impatto sulla società e sul sistema industriale?

Dalla competizione globale agli AI Agents, l’intelligenza artificiale trasforma lavoro, mercati e gestione dei dati. Diventa essenziale una governance pubblica per guidare l’innovazione, affrontare le sfide tecniche e assicurare la sovranità tecnologica.

di Andrea Bernardini, Ricercatore FUB

L’AI come nuova corsa allo spazio: tra competizione globale e instabilità dei mercati

L’intelligenza artificiale (AI) è diventata la corsa allo spazio del XXI secolo: stati, aziende e persino fondi sovrani (PIF, MGX, eccetera) competono per conquistarne la leadership tecnologica attraverso investimenti e sforzi normativi. Si scommette sulle potenzialità dell’AI, sulla rapidità della sua diffusione e di conseguenza sulle aziende che offrono servizi basati su questa tecnologia o che producono l’hardware necessario per addestrare i modelli.

Occorre però considerare che un sistema fondato su una scommessa di crescita è per sua natura economicamente instabile, poiché dipende da progressi imprevedibili e da aspettative spesso speculative.

La conferma è arrivata con il rilascio il 21 gennaio 2025 del modello R1 dell’azienda Deepseek, che ha generato un’ondata di panico alla stregua di uno Sputnik moment, in analogia con quanto accadde nella corsa allo spazio quando l’opinione pubblica americana venne sconvolta dal lancio del primo satellite artificiale da parte dell’Unione Sovietica. Si è trattato di uno shock analogo, ma questa volta di matrice cinese.

La strada finora intrapresa è stata quella della scaling hypothesis, basata sull’idea che incrementando la dimensione dei modelli attuali si potesse aumentare anche la loro intelligenza senza modificarne l’architettura. R1-Deepseek, un modello open weight ridotto, molto più economico rispetto a quelli esistenti, ha messo in discussione questa strategia. L’impatto è stato immediato: i titoli delle aziende tecnologiche hanno vacillato, i mercati finanziari hanno mostrato preoccupazione e l’intero paradigma di sviluppo tecnologico nel campo dell’AI è stato messo in discussione.

 

La sfida al dominio americano: dalla svolta Deepseek al nuovo asse tecnologico cinese

Prima dell’arrivo di Deepseek, lo scenario globale dell’intelligenza artificiale era rappresentato da un vero e proprio feudalesimo digitale, un ecosistema dominato da poche grandi aziende, in gran parte americane, che detenevano il controllo quasi esclusivo sulla potenza computazionale e sullo storage dei dati. Gli investimenti economici necessari per accedere a queste risorse erano così elevati da risultare proibitivi persino per i singoli stati. Si stima che oltre l’80% delle tecnologie e delle infrastrutture digitali in Europa provengano dall’estero e il 70% dei modelli di intelligenza artificiale utilizzati nel mondo arrivi dagli Stati Uniti (vedi EuroStack report, 2025).

La strategia cinese (vedi Nature) – che ha contribuito peraltro alla nascita dell’azienda Deepseek – segue un disegno diverso. Si basa su uno sviluppo a forte controllo statale che investe sull’integrazione rapida dell’intelligenza artificiale per modernizzare le industrie tradizionali, favorire la nascita di nuovi modelli di business e migliorare efficienza e qualità produttiva, con l’obiettivo di passare dal “Made in China” al più ambizioso “Intelligently Made in China”.

Negli Stati Uniti, la prima reazione allo Sputnik moment è stata un’ulteriore deregolamentazione dell’intelligenza artificiale. Ma lo scenario è stato nuovamente scosso dall’annuncio del modello Deepseek-R2 il 26 febbraio 2025, seguito il 6 marzo dal rilascio del QwQ-32 di Alibaba.

 

AI Agents e modelli low-cost: nuovi fronti della competizione tecnologica verso nuovi protezionismi

La partita attuale si gioca su vari fronti e il nuovo terreno di scontro riguarda gli AI Agents, sistemi di intelligenza artificiale che integrano ed estendono le potenzialità dei Large Language Model (LLM). Paragonabile a un assistente inesperto in grado però di lavorare rapidamente e senza pause, un’AI Agent è capace di scomporre un problema in sottoproblemi e affrontarli uno alla volta in modo autonomo facendo uso di strumenti esterni, ricercando informazioni online o sfruttando altri software. Si tratta di una tecnologia studiata già da qualche anno (vedi Park et al., 2023), che nel 2025 è diventata matura con il rilascio dei primi tool per gli utenti.

Il 5 marzo 2025 sono emerse le prime indiscrezioni sui costi mensili di Operator, l’AI Agent di OpenAI, con tariffe fino a 20.000 dollari al mese. Pochi giorni dopo la startup cinese Monica ha rilasciato Manus AI, un servizio analogo offerto a circa 200 dollari mensili, seguito dal lancio di AutoGLM Rumination, un AI Agent completamente gratuito sviluppato dalla startup cinese Zhipu AI. Sebbene sia complesso fare valutazioni tecnologiche e prestazionali, l’elemento innovativo e potenzialmente destabilizzante – come nel caso di Deepseek – non risiede tanto nelle funzionalità del sistema, quanto nell’ipotesi che esistano metodologie alternative e più economiche per raggiungere risultati analoghi a quelli delle Big Tech americane. Il 13 marzo 2025 OpenAI ha chiesto il supporto e la protezione del governo americano, invocando una sorta di proibizionismo tecnologico. L’azienda ha sollevato preoccupazioni sull’adozione di modelli sovvenzionati e controllati dal governo cinese, sottolineando i rischi legati alla scarsa attenzione per privacy e sicurezza e al potenziale impiego in attività illecite o dannose. Una richiesta simile è arrivata ad aprile 2025 anche da Dario Amodei, CEO di Anthropic, con l’esplicito obiettivo di garantire un margine di superiorità tecnologica di 1-2 anni alle aziende statunitensi rispetto a quelle cinesi per raggiungere il prossimo livello di intelligenza artificiale, la cosiddetta intelligenza artificiale generale (AGI).

AI e lavoro: tra potenziamento umano e nuovi rischi di esclusione

In questa corsa alla crescita e al continuo rilascio di nuovi modelli, resta però incerta la reale portata dell’impatto che questa tecnologia avrà sulla società e sul sistema industriale.

Ci troviamo in una fase transitoria, in cui l’intelligenza artificiale non sostituisce l’essere umano, ma ne amplifica le capacità. In ambito lavorativo, questo si traduce in un uso dell’AI come strumento di supporto che affianca i lavoratori, potenziandone le competenze (augmentation), accelerando le attività ripetitive e migliorando l’efficienza complessiva, senza però arrivare a un’automazione completa dei processi (automation).

Come riportato nel rapporto Censis Confcooperative, già il 20-25% dei lavoratori in Italia utilizza strumenti AI sul luogo di lavoro, con un costante tasso di crescita che potrebbe interessare circa 15 milioni di lavoratori entro il 2035 (ovvero circa il 65% stando ai dati attuali sulla forza lavoro nel nostro Paese). Il rapporto sottolinea inoltre un principio fondamentale: “la persona va messa al centro del modello di sviluppo, con l’intelligenza artificiale al servizio dei lavoratori e non viceversa”. Sul tema dell’impatto dell’AI sulle mansioni lavorative, OpenAI e Anthropic hanno pubblicato i primi rapporti dedicati all’uso dell’intelligenza artificiale in ambito professionale. Tra le novità, l’introduzione di un Economic Index per misurare gli effetti dell’automazione basata sull’AI sul mercato del lavoro, affiancato dalla pubblicazione su Hugging Face di un database contenente i dati impiegati nell’analisi. L’obiettivo di queste iniziative è promuovere una riflessione approfondita e alimentare un dibattito pubblico informato, fondamentale per definire politiche pubbliche in grado di affrontare la prossima trasformazione del mercato del lavoro, con particolare attenzione agli effetti sull’occupazione e sulla produttività.

 

Etica, trasparenza e controllo: un’AI al servizio della persona

L’adozione di una nuova tecnologia, infatti, non dipende soltanto dalla sua utilità o dal grado di innovazione, ma anche da fattori psicologici e sociali che influenzano l’accettazione da parte delle persone, come la fiducia, la familiarità e la percezione del valore aggiunto. I primi studi sul tema mostrano che, a seconda della strategia con cui l’intelligenza artificiale viene introdotta nei processi lavorativi (AI engagement) e del settore economico di riferimento, gli effetti possono variare sensibilmente: in alcuni casi si osserva un potenziamento delle competenze e della produttività dei lavoratori (upskilling), in altri un possibile impoverimento delle mansioni (deskilling), come evidenziato da uno studio preliminare condotto alla Stanford University.

Queste informazioni, dati statistici ed esperienze di adozione (onboarding) dell’intelligenza artificiale rappresentano un significativo contributo anche nel contesto italiano, soprattutto in un momento in cui ci si interroga sull’evoluzione e sul potenziamento della Pubblica Amministrazione. Lo confermano le preziose indicazioni contenute nel rapporto “G7 Toolkit for Artificial Intelligence in the Public Sector” e nella “Bozza di linee guida per l’adozione di AI nella Pubblica Amministrazione” pubblicata da AGID.

 

Oltre l’innovazione: infrastrutture pubbliche e sovranità tecnologica europea

Negli Stati Uniti, il 25 febbraio scorso, è stata avviata la consultazione per lo sviluppo di un Piano d’Azione sull’AI (U.S. AI Action Plan) per supportare il governo ad affrontare questa transizione tecnologica e per “sostenere e rafforzare il dominio globale dell’AI da parte dell’America”.

L’esempio d’oltreoceano, così come la strategia centralizzata adottata dalla Cina, dimostra come anche in Europa, e in particolare in Italia, la transizione tecnologica debba essere guidata in modo strategico e strutturale da parte dello Stato, per orientare lo sviluppo dell’intelligenza artificiale verso obiettivi condivisi, promuovendo al contempo l’armonizzazione normativa, l’inclusione digitale e la crescita sostenibile.

Come dichiarato da Daron Acemoglu, premio Nobel per l’economia 2024, uno dei primi passi necessari è quello dell’emancipazione dal feudalesimo digitale delle grandi aziende americane, attraverso una “democratizzazione” dell’intelligenza artificiale, con la creazione di infrastrutture pubbliche per l’addestramento di modelli AI aperti e pubblici. In questo modo si potrebbe anche contrastare il cosiddetto AI R&D divide, ovvero la disparità nella ricerca e nello sviluppo dell’AI tra diverse regioni geografiche, causata da vari fattori tra cui una distribuzione diseguale di potenza di calcolo, competenze, risorse finanziarie e infrastrutturali.

L’Unione Europea sta già lavorando in questa direzione attraverso la definizione di specifici IPCEI (Important Projects of Common European Interest), con l’obiettivo di superare la dipendenza tecnologica da fornitori extra-UE, garantendo alle imprese europee, specialmente le PMI, l’accesso a risorse di calcolo avanzate e modelli fondazionali open source. In quest’ottica, in occasione dell’AI Summit 2025, il presidente della Commissione Europea, Ursula von der Leyen, ha lanciato InvestAI: un’iniziativa per mobilitare 200 miliardi di euro per gli investimenti nell’intelligenza artificiale, inclusa la creazione di un nuovo fondo europeo da 20 miliardi di euro per le cosiddette gigafactories dell’AI. Queste iniziative permetteranno, da un lato, di potenziare la competitività europea e rafforzare l’autonomia digitale – sviluppando capacità autonome di addestramento, inferenza e implementazione di modelli di intelligenza artificiale – dall’altro, contribuiranno a garantire un maggiore controllo sui meccanismi di adozione tecnologica, evitando una dipendenza eccessiva da attori extraeuropei.

Secondo il rapporto Censis/Confcoperative 2025, in termini di adozione tecnologica l’Italia resta ancora indietro: lo scorso anno solo l’8,2% delle imprese italiane ha dichiarato di utilizzare l’AI, contro il 19,7% della Germania e una media UE del 13,5%.

 

Sostenibilità e AI: risorse limitate, modelli alternativi di sviluppo e l’importanza del pensiero critico

Va però considerato che all’adozione dell’intelligenza artificiale deve necessariamente affiancarsi un’attenta valutazione dei suoi costi ambientali ed economici. Fino all’arrivo di Deepseek, il settore si è mosso secondo una logica di crescita continua delle risorse, caratterizzata da un drenaggio sistematico e indiscriminato di energia elettrica e acqua, necessario a sostenere le incrementali esigenze di calcolo e l’espansione dei data center. Oggi ci troviamo in una fase di transizione, in cui alcuni dei principali attori del settore stanno rivedendo le proprie strategie, puntando su modelli più sostenibili ed efficienti, in risposta sia ai vincoli ambientali sia ai segnali di rallentamento della domanda. Per esempio, Microsoft ha sospeso la costruzione di alcuni data center in Ohio, inclusi tre progetti recentemente approvati, tra cui uno da un miliardo di dollari. Secondo Bloomberg, questo cambio di rotta potrebbe essere dovuto a una combinazione tra il calo della domanda e i timori legati a una possibile “bolla dell’AI”.

È fondamentale evidenziare – e questo rappresenta nuovamente un aspetto strategico che non può essere delegato esclusivamente al mercato – l’importanza di interrogarsi sui rischi legati a un’adozione incontrollata dell’AI in contesti dove si delegano decisioni alle macchine senza supervisione umana (human in the loop). Sono necessari meccanismi rigorosi di monitoraggio e verifica delle scelte compiute dalle macchine (vedi Bengio et al., 2025), preservando allo stesso tempo la capacità umana di pensiero critico, imprescindibile per analizzare e valutare le decisioni prese dall’AI (vedi Lee et al., 2025). Sebbene questa visione sia in controtendenza rispetto a quella prevalente nel mondo anglosassone, la safety dell’AI rimane un principio imprescindibile per un’adozione responsabile e sostenibile dell’intelligenza artificiale (vedi Statement on Inclusive and Sustainable Artificial Intelligence for People and the Planet, 2025). Un contributo significativo su questo tema è stato offerto dal premio Turing Yann LeCun (vedi LeCun, 2022), presentato anche all’AI Summit, che ha introdotto il concetto di guardrail objectives, una serie di obiettivi da integrare direttamente nel processo di training dei modelli LLM, anziché solo nella fase di fine tuning, per garantire la safety operativa dei modelli AI.

Il ruolo dello Stato nella nuova governance dell’intelligenza artificiale

L’adozione dell’intelligenza artificiale rappresenta una sfida strategica di portata cruciale, che non può essere affidata esclusivamente alle iniziative di aziende private extraeuropee o alle dinamiche di mercato. L’AI racchiude il potenziale di ridisegnare interi settori industriali, incidendo profondamente sulla competitività nazionale e sulla sovranità economica. Senza un coordinamento pubblico, si rischia che lo sviluppo tecnologico venga plasmato da grandi conglomerati privati, favorendo una crescente dipendenza tecnologica e una perdita di controllo sulle infrastrutture critiche.

Parallelamente, l’impatto dell’intelligenza artificiale sul mercato del lavoro richiede politiche attive per supportare l’innovazione e guidare i processi di adozione tecnologica, la riqualificazione della forza lavoro e la tutela dell’occupazione in settori critici e strategici.

In questo scenario, lo Stato non può limitarsi a un ruolo di spettatore, ma deve assumere un ruolo attivo nella regolamentazione, negli investimenti strategici e nella definizione di un quadro normativo che favorisca sistemi di intelligenza artificiale “controllable and safe by design, not by fine tuning”, al riparo dai fenomeni speculatori e da lock-in tecnologici, garantendo che ogni componente dell’AI operi in modo sicuro, affidabile e trasparente.