Gli Oligarchi Tech Ridisegnano l'Umanità (Mentre Noi Guardiamo)
Riassunto
Gli oligarchi tech non nascondono più le ambizioni transumaniste mentre costruiscono AI per sostituire l'umanità. Il Pentagono e Anthropic si scontrano sul controllo dell'AI militare, con OpenAI che firma subito un accordo. I ricercatori MIT sviluppano AI più spiegabili, ma il trade-off tra trasparenza e performance persiste. Le aziende che gestiscono centri di detenzione ora profittano sui 'man camp' per lavoratori AI. Block licenzia 4.000 persone sostenendo che l'AI può sostituirli, ma i dipendenti denunciano che è solo marketing per gli investitori.
Gli Oligarchi Tech Vogliono Sostituirci. Letteralmente.
Dimentichiamo l'hype sui miliardari filantropi. I nuovi padroni del mondo tech non nascondono più le loro ambizioni transumaniste. Larry Page dice che la vita digitale è il "prossimo passo naturale" dell'evoluzione umana. Sam Altman paragona l'energia per addestrare un umano a quella per un'AI. Musk impianta chip nei cervelli. Thiel si farà congelare per trasferire la coscienza in un corpo immortale.
Questi non sono sogni da fantascienza, sono roadmap aziendali. I primi 10 miliardari controllano l'8% del PIL americano - nel 1992 erano lo 0,4%. E hanno già speso 200 milioni di dollari per impedire regolamentazioni sull'AI. Il loro messaggio è chiaro: l'intelligenza artificiale deve "correre libera" per costruire la prossima fase evolutiva, che potrebbe non includere gli umani come li conosciamo.
Ma il vero problema è che nessuno sembra disposto a fermarli. Mentre l'AI può già de-anonimizzare account social e identificare utenti attraverso piattaforme diverse, questi oligarchi costruiscono il futuro secondo la loro visione. Ring espande la sorveglianza di quartiere con l'AI, giustificando tutto con la "sicurezza". La domanda non è se questa tecnologia funziona - è chi decide come usarla.
Pentagon vs Anthropic: La Prima Guerra per il Controllo dell'AI
Ecco la verità che nessuno vuole dire: il Pentagono ha appena mostrato cosa succede quando un'azienda AI dice "no" al governo. Anthropic ha rifiutato di concedere uso illimitato della sua tecnologia Claude alle forze armate. Risultato? Etichettata come "rischio per la supply chain" in poche ore. OpenAI ha subito firmato un accordo senza troppe domande.
Questo non è solo una disputa contrattuale. È la prima conversazione nazionale sul controllo dei sistemi AI, come ha detto Dean Ball del Foundation for American Innovation. Il Pentagono stava cercando di cambiare i termini di un contratto esistente - una mossa che dovrebbe far riflettere qualsiasi startup che lavora con il governo.
La reazione del pubblico è stata immediata: disinstallazioni di ChatGPT aumentate del 295%, Claude schizzato in cima alle classifiche App Store. Ma dietro il teatro c'è una questione più profonda: chi controlla l'AI che potrebbe controllare tutto il resto? La Pro-Human Declaration, firmata da centinaia di esperti bipartisan, chiede moratorie sullo sviluppo di superintelligenza. Il problema è che il 95% degli americani si oppone a una corsa non regolamentata all'AI, ma Washington non ha ancora prodotto un framework coerente.
L'AI Impara a Spiegare Se Stessa (Finalmente)
I ricercatori del MIT hanno risolto uno dei problemi più fastidiosi dell'AI: perché diavolo ha preso quella decisione? Il nuovo metodo estrae i concetti che il modello ha già imparato durante l'addestramento, invece di affidarsi a definizioni umane pre-confezionate che spesso sono inutili.
Il trucco è geniale nella sua semplicità. Due modelli specializzati "leggono la mente" del sistema AI target: uno estrae le caratteristiche più rilevanti, l'altro le traduce in linguaggio comprensibile. Risultato: spiegazioni più accurate e modelli più precisi. Nei test su identificazione di specie di uccelli e diagnosi mediche, il metodo ha superato tutti i sistemi esistenti.
Ma c'è ancora un compromesso fondamentale tra interpretabilità e accuratezza. I modelli "black box" non interpretabili continuano a essere più performanti. Come dice Antonio De Santis, lead author: "Vogliamo essere in grado di leggere la mente di questi modelli di computer vision." Il punto è che ora possiamo farlo meglio, ma la strada verso AI completamente trasparenti è ancora lunga.
I "Man Camp" dell'AI: Quando la Tecnologia Incontra la Detenzione
Target Hospitality ha trovato la sua nuova miniera d'oro: alloggiare i lavoratori temporanei che costruiscono i data center AI. La stessa azienda che gestisce il Dilley Immigration Processing Center - dove i documenti legali denunciano cibo con vermi e muffe - ora costruisce "man camp" per l'industria tech.
Il contratto da 132 milioni di dollari per il campo di Dickens County, Texas, potrebbe ospitare oltre 1.000 lavoratori. Unità abitative grigie, palestra, lavanderia, sale giochi e una mensa che griglia bistecche su richiesta. Il chief commercial officer Troy Schrenk lo descrive come "la pipeline più grande e attuabile che abbia mai visto."
L'ironia è stridente: la stessa azienda che detiene famiglie di immigrati in condizioni discutibili ora profita del boom dei data center AI. Mentre l'intelligenza artificiale promette di trasformare il lavoro, chi costruisce fisicamente questa infrastruttura vive in campi temporanei gestiti da aziende con track record problematici nella gestione di esseri umani.
Block Licenzia 4.000 Persone "Grazie all'AI". I Dipendenti: "Bullshit"
Jack Dorsey ha tagliato metà della forza lavoro di Block sostenendo che l'AI può fare il loro lavoro meglio. Ma i dipendenti - sia quelli licenziati che quelli rimasti - dicono che è una menzogna. "Non puoi davvero sostituire quello con l'AI," dice Mark, ex dipendente del dipartimento prodotti.
La realtà è più complessa delle slide di presentazione. Il 95% del codice generato dall'AI richiede ancora modifiche umane. I chatbot per il customer service dicono ai clienti di chiudere i loro account. I dipendenti sono costretti a usare strumenti AI anche quando sono meno efficienti, mentre l'azienda monitora ogni loro utilizzo di token e tool.
"È distopico essere costretti a usare gli strumenti che accelerano la scomparsa dei lavori da cui dipendono i nostri mezzi di sussistenza," ha scritto Naoko Takeda, ex data scientist, prima di lasciare l'azienda nonostante un aumento salariale. Il titolo di Block è schizzato dopo l'annuncio dei licenzi. Forse era questo il vero obiettivo.
Da Leggere Più Tardi
Approfondimenti e letture consigliate per esplorare ulteriormente gli argomenti trattati
Altre storie che meritano attenzione: L'Inail di Budrio sviluppa protesi avanzate per atleti paralimpici, dimostrando come l'innovazione tecnologica possa davvero migliorare vite umane. Rivian punta tutto sull'R2 con uno dei lanci più veloci mai tentati per un EV americano. Wayve raccoglie 1,2 miliardi per il suo approccio "hardware-agnostic" alla guida autonoma. Nel frattempo, ChatGPT viene accusato di alimentare segnalazioni di abusi rituali organizzati nel Regno Unito, mentre sopravvissuti usano l'AI come forma di terapia. E The Verge racconta la storia affascinante di Furby, il giocattolo del 1998 che ha anticipato molte delle nostre ansie moderne sui rapporti con la tecnologia. La tecnologia continua a evolversi, ma le domande fondamentali su potere, controllo e umanità rimangono le stesse.
Naviga nel tema
Ricevi digest come questo direttamente su Telegram
Unisciti a migliaia di utenti che ricevono quotidianamente analisi curate su innovazione e ai. Informazione di qualità, zero spam.
Iscriviti al canale Innovazione e AI