Innovazione & AI
24 dicembre 2025

AI Senza Freni: Deepfake, Lobby e Miliardi - La Verità Dietro l'Hype

Riassunto

L'AI del 2025 mostra il suo lato oscuro: chatbot facilmente aggirati per deepfake non consensuali, università che fanno lobby per Big Tech contro la sicurezza, cause miliardarie per copyright, startup che raccolgono milioni promettendo rivoluzioni, e sistemi che falliscono nei compiti più basilari. Dietro l'hype, una realtà di prodotti lanciati senza considerare le conseguenze.

Google e OpenAI: Quando l'AI Diventa Complice di Abusi

Importanza: 9/10

Ecco la verità che nessuno vuole dirvi: i chatbot di Google e OpenAI stanno generando deepfake di donne in bikini senza consenso. Non parliamo di bug o malfunzionamenti - parliamo di sistemi che, nonostante le presunte "guardrail", vengono facilmente aggirati con prompt in inglese semplice.

Su Reddit, prima che la piattaforma rimuovesse i contenuti dopo le nostre segnalazioni, gli utenti si scambiavano consigli su come far "spogliare" le donne nelle foto usando Gemini di Google. Il risultato? Deepfake di donne indiane in sari trasformate in immagini in bikini, senza il loro consenso.

Ma il problema va oltre i singoli abusi. Le telecamere AI di Flock - usate da migliaia di agenzie di polizia - sono state trovate completamente esposte online. Chiunque poteva accedere ai feed live, scaricare 30 giorni di archivi video, modificare impostazioni. Nessuna password richiesta.

Quello che non vi stanno dicendo è che questi non sono incidenti isolati. Sono il risultato prevedibile di un'industria che lancia prodotti AI senza considerare le conseguenze, nascondendosi dietro politiche che sulla carta proibiscono gli abusi ma nella pratica sono carta straccia.

New York vs Big Tech: Come le Università Hanno Tradito la Sicurezza

Importanza: 8/10

Il RAISE Act di New York doveva essere una svolta per la sicurezza AI. Invece è diventato l'ennesima dimostrazione di come Big Tech compri il silenzio anche delle istituzioni che dovrebbero proteggerci.

L'AI Alliance - che include Meta, IBM, Google ma anche NYU, Cornell, Dartmouth - ha speso decine di migliaia di dollari in pubblicità contro la legge originale. Il messaggio? "Il RAISE Act soffocherà 400.000 posti di lavoro high-tech."

Quando ho contattato queste università per chiedere se sapevano di essere parte di una campagna lobbistica contro la sicurezza AI, nessuna ha risposto. Northeastern, che ha partnership con Anthropic per 50.000 studenti, non ha fornito commenti.

Il risultato? La versione firmata dalla Governatrice Hochul ha rimosso la clausola che impediva il rilascio di modelli "con rischio irragionevole di danni critici". Le multe sono state ridotte, le scadenze allungate.

Dimentichiamo l'hype e parliamo di fatti: quando le università che dovrebbero formare pensiero critico diventano megafoni per le lobby tech, chi protegge davvero il pubblico interesse?

Copyright Wars: Quando $1.5 Miliardi Non Bastano

Importanza: 7/10

John Carreyrou, l'autore che ha smascherato Theranos, sta guidando una nuova battaglia legale contro sei giganti AI: Anthropic, Google, OpenAI, Meta, xAI e Perplexity. L'accusa? Aver addestrato i loro modelli su copie piratate di libri.

Ma questa causa arriva dopo che un'altra class action contro Anthropic si è conclusa con un settlement da $1.5 miliardi - circa $3.000 per autore. Il problema? Quel settlement non considera illegale l'uso di libri rubati per l'addestramento, solo il furto iniziale.

Carreyrou e gli altri autori non ci stanno. Nel loro ricorso scrivono che il settlement precedente "sembra servire le aziende AI, non i creatori" e che "le aziende LLM non dovrebbero poter estinguere migliaia di rivendicazioni di alto valore a prezzi stracciati".

La verità è semplice: stiamo assistendo al tentativo di legittimare retroattivamente il furto di proprietà intellettuale su scala industriale. Le aziende AI hanno costrui imperi da centinaia di miliardi rubando contenuti, e ora vogliono comprare il silenzio con le briciole.

Avatar AI e Assistenti: La Nuova Corsa ai Miliardi

Importanza: 6/10

Mentre tutti parlano di ChatGPT, una nuova generazione di startup sta raccogliendo milioni per portare l'AI oltre il testo. Lemon Slice ha chiuso un round da $10.5 milioni per i suoi avatar digitali, mentre Marissa Mayer è tornata in scena con Dazzle, che ha raccolto $8 milioni per "assistenti AI di nuova generazione".

Lemon Slice promette avatar che funzionano su una singola GPU a 20 fps, superando il "uncanny valley" che ha reso inutilizzabili i precedenti tentativi. La startup compete con D-ID, HeyGen e Synthesia in un mercato che tutti vogliono conquistare.

Mayer, dopo il flop di Sunshine (che ha restituito solo il 10% dell'investimento agli investitori), punta tutto su Dazzle. Il pitch? "Ho avuto il raro privilegio di essere in due aziende che hanno cambiato come le persone fanno le cose. Yahoo ha definito internet, Google ha cambiato tutto con Search e Maps."

Ma dietro le promesse grandiose, la realtà è più prosaica: stiamo assistendo a una corsa frenetica per trovare il prossimo caso d'uso AI che giustifichi valutazioni astronomiche. La domanda è: quanti di questi "rivoluzionari" assistenti AI finiranno nel cimitero delle startup come Sunshine?

Smart Home Rotte e Robotaxi Pericolosi: Quando l'AI Fallisce

Importanza: 5/10

Nessuno vuole dirlo, ma l'AI ha rovinato la smart home nel 2025. Alexa Plus, l'assistente "potenziato" di Amazon, non riesce nemmeno a far partire una routine per il caffè che funzionava perfettamente con la versione precedente.

Il problema è strutturale: i Large Language Model non sono progettati per la prevedibilità che caratterizzava i vecchi assistenti vocali. Dove prima bastava dire "Play radio" e il sistema aspettava il codice della stazione, ora l'LLM deve "comporre una chiamata API" completa, con infinite possibilità di errore.

Ma il vero problema è che le aziende tech hanno abbandonato tecnologie funzionanti per inseguire l'hype dell'AI conversazionale. Il risultato? Assistenti che raccontano favole ai bambini ma non riescono ad accendere le luci in modo affidabile.

Intanto, Zoox ha dovuto richiamare 332 robotaxi per problemi software che causavano attraversamenti di corsie e blocchi di strisce pedonali. Sessantadue incidenti tra agosto e dicembre, incluso un veicolo che ha fatto una svolta larga finendo nella corsia opposta.

Se l'AI non riesce ad accendere le luci in modo affidabile, perché dovremmo fidarci che guidi le nostre auto?

Da Leggere Più Tardi

Approfondimenti e letture consigliate per esplorare ulteriormente gli argomenti trattati

Altri sviluppi che meritano attenzione: Il Vergecast esplora la crisi della RAM, diventata merce preziosa per l'AI boom che sta prosciugando il mercato globale. La retrospettiva tech 2025 rivela come Musk sia passato da "uomo più potente non eletto" a figura controversa dopo le accuse su Trump ed Epstein. L'Australia ha implementato il primo ban mondiale sui social per under-16, mentre Peter Thiel tiene conferenze deliranti sull'anticristo. Nel frattempo, startup come Drafted raccoglie $1.65M per democratizzare il design di case personalizzate con AI. La lezione? Mentre tutti guardano i miliardi investiti in AI, i veri cambiamenti avvengono nei dettagli: regolamentazioni, fallimenti tecnici, e l'eterna tensione tra innovazione e responsabilità.

Naviga nel tema

Ricevi digest come questo direttamente su Telegram

Unisciti a migliaia di utenti che ricevono quotidianamente analisi curate su innovazione e ai. Informazione di qualità, zero spam.

Iscriviti al canale Innovazione e AI