Innovazione & AI
7 aprile 2026

AI sotto attacco: quando la tecnologia diventa campo di battaglia

Riassunto

L'AI è diventata un campo di battaglia: l'Iran minaccia i data center OpenAI, i politici cadono nei deepfake, e le big tech usano l'AI come scusa per licenziamenti di massa. Mentre OpenAI detta l'agenda economica del futuro e Anthropic chiude i rubinetti agli sviluppatori indipendenti, una cosa è chiara: la fase "aperta" dell'intelligenza artificiale sta finendo. Benvenuti nell'era dei giardini recintati e delle guerre tecnologiche.

L'Iran minaccia i data center Stargate: la guerra arriva nell'AI

Importanza: 9/10

L'Iran ha puntato i missili sui data center di OpenAI. Non è fantascienza, è quello che sta succedendo in Medio Oriente mentre scrivo queste righe. Le Guardie Rivoluzionarie iraniane hanno pubblicato un video che mostra immagini satellitari del data center Stargate da 30 miliardi di dollari negli Emirati Arabi Uniti, minacciando la "completa e totale annientamento" delle infrastrutture tecnologiche americane.

Ecco la verità che nessuno vuole ammettere: l'AI è diventata un obiettivo militare. Quando investi 500 miliardi di dollari in una joint venture tra OpenAI, SoftBank e Oracle per costruire l'infrastruttura del futuro, non stai solo facendo business. Stai costruendo l'equivalente digitale di una base militare.

L'Iran non sta scherzando. Hanno già colpito data center di Amazon Web Services in Bahrain e Oracle a Dubai. Ora minacciano direttamente il progetto Stargate in risposta alle minacce di Trump di bombardare le loro centrali elettriche se non riaprono lo Stretto di Hormuz.

Ma il vero problema è questo: abbiamo concentrato tutta la potenza di calcolo dell'AI in pochi mega-data center che sono bersagli perfetti. Mentre tutti parlano di sicurezza informatica, nessuno ha pensato alla sicurezza fisica di queste infrastrutture critiche. Quando l'AI diventa il nuovo petrolio, i data center diventano le nuove raffinerie. E le raffinerie, nella storia, sono sempre state i primi obiettivi in guerra.

OpenAI detta l'agenda economica dell'era AI (e non è casuale)

Importanza: 8/10

OpenAI ha appena pubblicato il suo manifesto per rifare l'economia americana. Settimana lavorativa di quattro giorni, tasse sui robot, fondi pubblici per dare a tutti una quota delle aziende AI. Suona progressista, vero? Dimentichiamo l'hype e parliamo di fatti.

Questo documento da 50 pagine arriva proprio mentre l'amministrazione Trump sta definendo il framework nazionale per l'AI e a ridosso delle elezioni di midterm. Non è una coincidenza. OpenAI sta giocando su entrambi i fronti politici: propone politiche che sembrano di sinistra (fondi pubblici, tasse sui capital gains) ma dentro una cornice fondamentalmente capitalista.

Il timing è tutto. Greg Brockman, presidente di OpenAI, ha donato milioni a Trump, e altri miliardari tech hanno versato centinaia di milioni in super PAC per politiche AI "leggere". Ora OpenAI propone di spostare il carico fiscale dal lavoro al capitale, ma senza specificare le aliquote. Propone un "robot tax" che Bill Gates aveva suggerito nel 2017, ma lascia i dettagli nel vago.

Quello che non vi stanno dicendo: queste proposte proteggono OpenAI più di quanto proteggano i lavoratori. I benefit portatili e i sussidi per la settimana corta dipendono ancora dai datori di lavoro. Se l'AI elimina il tuo lavoro, addio anche all'assicurazione sanitaria e al fondo pensione.

OpenAI è diventata una società for-profit l'anno scorso. Ora detta l'agenda politica per l'era dell'AI. Ma il vero problema è: chi ha eletto OpenAI a scrivere le regole del futuro?

Politici ingannati dall'AI: quando i leader cadono nel deepfake

Importanza: 8/10

Il governatore del Texas Greg Abbott ha condiviso un'immagine AI di un soldato americano "salvato" in Iran. Il problema? Il soldato non esisteva. L'immagine era completamente generata dall'intelligenza artificiale, ma Abbott l'ha postata ai suoi 1,4 milioni di follower scrivendo "Dio sta mandando un messaggio ai nostri nemici!"

Non è stato l'unico. Ken Paxton, procuratore generale del Texas, e Mike Lawler, rappresentante di New York, sono tutti caduti nella stessa trappola. Hanno messo "like" e condiviso l'immagine fake senza verificare. L'immagine mostrava il presunto soldato circondato da militari sorridenti con una bandiera americana sulle gambe.

Ecco il punto: se i politici che dovrebbero prendere decisioni sulla regolamentazione dell'AI non sanno riconoscere un'immagine generata dall'AI, come possono proteggerci dai rischi? Abbott ha già una storia di gaffe: a marzo aveva postato quello che credeva fosse un video di un aereo iraniano abbattuto, ma era footage dal videogioco War Thunder della Seconda Guerra Mondiale.

Il problema non è solo repubblicano. Anche democratici come Gavin Newsom, governatore della California, usa regolarmente immagini AI fake per rafforzare i suoi messaggi politici, incluse immagini di Trump, Pete Hegseth e Stephen Miller ammanettati dall'FBI.

Quando i leader politici non sanno distinguere la realtà dalla finzione AI, ma il vero problema è: come possiamo fidarci delle loro decisioni su tecnologie che non capiscono?

Big Tech licenzia in massa puntando sull'AI (ma i conti non tornano)

Importanza: 7/10

Microsoft ha tagliato 15.000 lavoratori l'anno scorso. Amazon 30.000 negli ultimi sei mesi. Oracle migliaia solo questa settimana. Tutti dicono che è colpa dell'AI che rende i dipendenti "più efficienti". Nessuno vuole dirlo, ma è una bugia.

La verità è più semplice e più cinica: le aziende tech stanno usando l'AI come scusa perfetta per licenziamenti che avrebbero fatto comunque. Marc Andreessen, venture capitalist e grande sostenitore dell'AI, l'ha ammesso in un podcast: le big tech erano semplicemente "sovra-organizzate" e "ora hanno la scusa d'argento: ah, è l'AI."

I numeri non mentono. Secondo il tracker Layoffs.fyi, ci sono stati oltre 165.000 licenziamenti nel tech nell'ultimo anno. Ma l'AI attuale non è abbastanza affidabile per sostituire davvero i lavoratori su larga scala. Gli ingegneri intervistati raccontano che l'AI genera tre volte più codice, ma serve più tempo umano per controllarlo.

Dietro le quinte, la realtà è diversa. Un ex-dipendente Amazon racconta che i due strumenti AI interni che dovevano rivoluzionare il lavoro "non erano nemmeno funzionali". Un ex-supervisor di Block dice che l'AI accelera la produzione di codice ma rallenta le revisioni umane, creando più lavoro, non meno.

Il risultato? Wall Street premia i tagli con aumenti di prezzo delle azioni, ma poi i titoli scendono quando il mercato si rende conto dei rischi. Block è salito del 20% dopo aver collegato i licenziamenti all'AI, poi è sceso del 6% due settimane dopo.

Anthropic blocca l'accesso a Claude: la guerra degli ecosistemi AI

Importanza: 7/10

Anthropic ha appena tagliato fuori migliaia di sviluppatori dall'oggi al domani. Dal 4 aprile, chi vuole usare OpenClaw - il framework open source più popolare per agenti AI - con il proprio abbonamento Claude deve pagare migliaia di dollari extra. Benvenuti nella guerra degli ecosistemi AI.

La mossa è brutale nella sua semplicità: Anthropic dice che gli abbonamenti Claude "non erano costruiti per i pattern di utilizzo di questi strumenti di terze parti". Traduzione: non vogliamo che usiate i nostri modelli per alimentare strumenti che non controlliamo.

Il creatore di OpenClaw, Peter Steinberger (ora in OpenAI), ha provato a "parlare di buon senso con Anthropic" ma è riuscito solo a ritardare la mossa di una settimana. Steinberger accusa Anthropic di aver "deciso di bloccare l'open source". La risposta ufficiale? "Vincoli ingegneristici".

Ma il vero problema è questo: per molti sviluppatori che avevano costruito operazioni intorno a OpenClaw, questa mossa significa costi giornalieri di migliaia di dollari - insostenibili per la maggior parte. Devono passare all'API pay-per-token o comprare "bundle di utilizzo extra" con sconti fino al 30%.

Anthropic sta seguendo la strategia dei giardini recintati: vuole controllare come i suoi modelli vengono usati e monetizzati. Quello che non vi stanno dicendo: questa è solo l'inizio. Aspettatevi che tutte le big AI companies inizino a stringere i bulloni sull'accesso di terze parti. L'era dell'AI "aperta" sta finendo prima ancora di iniziare davvero.

Da Leggere Più Tardi

Approfondimenti e letture consigliate per esplorare ulteriormente gli argomenti trattati

Altri sviluppi da tenere d'occhio: Gli ex-dipendenti di OpenAI hanno lanciato Zero Shot, un fondo da 100 milioni per investire in startup AI, mentre Xoople ha raccolto 130 milioni per mappare la Terra con satelliti dedicati all'AI. Sul fronte enterprise, MassMutual e Mass General Brigham hanno mostrato come trasformare i pilot AI in risultati concreti, con guadagni di produttività del 30%. Intel punta tutto sul packaging avanzato per competere con TSMC nell'era AI, mentre OpenAI lancia il Safety Fellowship per la ricerca indipendente sulla sicurezza. Nel frattempo, le aziende robotaxi rifiutano di rivelare quanto spesso i loro operatori remoti devono intervenire, e Google ha rilasciato silenziosamente un'app di dettatura AI che funziona offline. La corsa all'AI continua, ma le regole del gioco stanno cambiando velocemente.

Naviga nel tema

Ricevi digest come questo direttamente su Telegram

Unisciti a migliaia di utenti che ricevono quotidianamente analisi curate su innovazione e ai. Informazione di qualità, zero spam.

Iscriviti al canale Innovazione e AI