Il Futuro dell'AI è Qui: Miliardi in Gioco, Guerre Digitali e Nuove Frontiere
Riassunto
L'AI raggiunge un punto di svolta: LeCun sfida il dominio degli LLM con 1 miliardo per i world models, Google trasforma Workspace in una macchina AI totale, mentre OpenAI finisce in tribunale per una strage in Canada. YouTube arma politici contro i deepfake proprio mentre l'Iran bombarda datacenter e X si riempie di propaganda AI. Il futuro dell'intelligenza artificiale si decide ora, tra miliardi di investimenti e responsabilità ancora da definire.
LeCun sfida OpenAI con 1 miliardo per i world models
Yann LeCun ha appena lanciato la più grande sfida all'egemonia degli LLM. AMI Labs, la sua nuova startup parigina, ha raccolto 1,03 miliardi di dollari per sviluppare "world models" - sistemi AI che imparano dalla realtà fisica, non solo dal linguaggio.
"L'idea che si possano estendere le capacità degli LLM fino al livello dell'intelligenza umana è una completa sciocchezza", ha dichiarato LeCun senza mezzi termini. Il premio Turing 2018 sta scommettendo tutto su un approccio radicalmente diverso: AI che comprende il mondo fisico attraverso sensori e dati reali.
Con uffici a Parigi, New York, Montreal e Singapore, AMI punta a collaborare con aziende manifatturiere, biomedicali e robotiche. L'obiettivo? Creare modelli predittivi del mondo reale - come simulare un motore aeronautico per ottimizzarne efficienza ed emissioni.
Ma il vero colpo di scena è la filosofia open source. Mentre OpenAI e Anthropic chiudono i loro modelli, LeCun promette trasparenza totale: "La tecnologia può essere usata per cose buone o cattive. Non spetta a me, Dario Amodei, Sam Altman o Elon Musk decidere per la società cosa sia un uso buono o cattivo dell'AI."
Google trasforma Workspace in una macchina AI totale
Google ha appena fatto la mossa più aggressiva nell'integrazione AI enterprise. Gemini non è più un assistente laterale - ora è il cuore pulsante di Docs, Sheets, Slides e Drive, con capacità che vanno ben oltre la semplice scrittura.
La nuova funzione "Help me create" in Docs può generare documenti completi attingendo da Gmail, Drive e il web. Ma è in Sheets che Google mostra i muscoli: l'AI può ora creare interi fogli di calcolo da zero, popolando automaticamente tabelle con dati in tempo reale da internet.
"Quando vuoi scrivere un report, le persone si rivolgono a Docs", spiega Yulie Kwon Kim di Google. "Puoi ottenere assistenza da Gemini proprio dove stai già lavorando." Drive diventa una "base di conoscenza attiva" con ricerca in linguaggio naturale e AI Overview che riassume documenti senza aprirli.
I test sul campo rivelano però i limiti: l'AI eccelle nel "corporate-speak" ma fatica con contenuti creativi o opinioni personali. Resta il dubbio se questa integrazione massiccia renderà davvero più produttivi i lavoratori o li trasformerà in semplici supervisori di macchine.
OpenAI sotto accusa per la strage in Canada
Una bambina di 12 anni lotta per la vita e OpenAI finisce in tribunale. La famiglia di Maya Gebala, colpita tre volte durante la sparatoria di Tumbler Ridge che ha ucciso 8 persone, accusa l'azienda di Sam Altman di aver potuto prevenire la tragedia.
I fatti sono agghiaccianti: Jesse Van Rootselaar, 18 anni, aveva descritto scenari violenti con armi a ChatGPT per diversi giorni a giugno. Il sistema automatico di OpenAI aveva rilevato l'attività sospetta, ma l'azienda si è limitata a bannare l'account senza avvertire le autorità canadesi.
"OpenAI aveva l'opportunità di avvertire le autorità e potenzialmente fermare questa tragedia", ha dichiarato il premier della British Columbia David Eby dopo aver incontrato virtualmente Sam Altman. La causa civile accusa OpenAI di aver "lanciato ChatGPT sul mercato senza studi di sicurezza adeguati".
Maya rimane ricoverata con gravi lesioni cerebrali, emiplegia e deformità permanenti. La domanda che scuote Silicon Valley: fino a che punto le aziende AI sono responsabili delle azioni dei loro utenti? OpenAI ha già cambiato le sue politiche, ma per Tumbler Ridge è troppo tardi.
YouTube arma politici contro i deepfake
YouTube ha appena consegnato un'arma potente contro la disinformazione AI nelle mani di politici e giornalisti. La piattaforma estende il suo sistema di rilevamento deepfake a funzionari governamentali, candidati politici e reporter - proprio mentre l'AI generativa inonda il web di contenuti falsi.
Il sistema funziona come Content ID per i volti: scansiona YouTube alla ricerca di video che utilizzano illegalmente la somiglianza di persone pubbliche. Gli utenti pilota possono richiedere la rimozione, ma YouTube mantiene il controllo finale - parodie e satira politica restano protette.
"I rischi dell'impersonazione AI sono particolarmente alti per chi opera nella sfera civica", spiega Leslie Miller di YouTube. Per iscriversi serve un selfie video e un documento d'identità governativo - una barriera che limita l'accesso ai "famosi".
Il tempismo non è casuale: mentre la guerra in Iran genera ondate di deepfake su X e altre piattaforme, YouTube cerca di posizionarsi come l'alternativa responsabile. Ma resta il paradosso: la stessa piattaforma offre strumenti AI per creare contenuti, mentre combatte quelli generati altrove.
L'AI diventa arma di guerra: datacenter bombardati, fake news su X
Per la prima volta nella storia, i datacenter sono diventati obiettivi militari. L'Iran ha bombardato tre strutture Amazon Web Services negli Emirati Arabi e in Bahrain, paralizzando app di pagamento e servizi digitali per 11 milioni di persone.
"È la prima volta che le forze armate di un paese in guerra prendono deliberatamente di mira un datacenter commerciale", riporta il Guardian. Gli attacchi con droni Shahed 136 hanno colpito simbolicamente l'alleanza tecnologica tra Stati del Golfo e USA, causando danni miliardari.
Parallelo digitale: X è sommerso da contenuti AI falsi sulla guerra. Grok, il chatbot di Musk, fallisce miseramente nel verificare video dal conflitto, condividendo persino immagini AI generate per "dimostrare" le sue affermazioni sbagliate. Video fake di edifici in fiamme in Bahrain raggiungono milioni di visualizzazioni.
La guerra dell'AI si combatte su due fronti: fisico, con datacenter che bruciano, e informativo, con agenti AI che diffondono propaganda. Mentre Anthropic rifiuta contratti militari, OpenAI abbraccia il Pentagono. Il risultato? Una guerra "più veloce del pensiero" dove l'AI identifica bersagli e raccomanda armi in tempo reale.
Da Leggere Più Tardi
Approfondimenti e letture consigliate per esplorare ulteriormente gli argomenti trattati
Altre frontiere dell'innovazione AI: Meta acquisisce Moltbook, il social network per agenti AI che era diventato virale per post fake, portando i fondatori in Meta Superintelligence Labs. Nel frattempo, startup AI raccolgono miliardi: Founders Fund chiude un fondo da 6 miliardi, Sandbar ottiene 23 milioni per il suo anello AI per prendere appunti, ed Eridu emerge con 200 milioni per rivoluzionare il networking AI. Creatività sotto assedio: migliaia di autori pubblicano un libro vuoto per protestare contro l'uso non autorizzato delle loro opere, mentre Grammarly continua a usare nomi di autori senza permesso. Strumenti che evolvono: Adobe lancia assistente AI per Photoshop, Zoom introduce avatar AI e suite office, mentre ChatGPT aggiunge visualizzazioni interattive per matematica e scienze. Il lato oscuro: app AI faticano con la retention a lungo termine nonostante monetizzino meglio, e Tesla Autopilot sfonda un passaggio a livello chiuso, riaccendendo polemiche sulla sicurezza.
Naviga nel tema
Ricevi digest come questo direttamente su Telegram
Unisciti a migliaia di utenti che ricevono quotidianamente analisi curate su innovazione e ai. Informazione di qualità, zero spam.
Iscriviti al canale Innovazione e AI