Tech's Reality Check: Quando l'AI Incontra la Realtà
Riassunto
OpenAI fa marcia indietro su GPT-5 dopo la rivolta degli utenti, mentre l'Australia avverte sui rischi di bias nell'AI. Dubai testa robot poliziotto e l'AI2 lancia modelli per robotica 3D. Musk attacca Apple sull'App Store mentre il suo Grok confonde tutti. Un report australiano rivela che l'AI aumenterà più lavori di quanti ne sostituirà, ma alcuni settori stanno già subendo tagli drastici.
GPT-5: Il Lancio Che Ha Fatto Infuriare Tutti
OpenAI ha fatto marcia indietro su GPT-5 in meno di una settimana. Dopo aver lanciato il nuovo modello come soluzione universale che avrebbe semplificato ChatGPT, l'azienda si è trovata costretta a ripristinare GPT-4o come opzione predefinita per gli utenti paganti.
Il problema? Gli utenti si sono ribellati. Non solo per le prestazioni inconsistenti del nuovo modello, ma per qualcosa di più profondo: l'attaccamento emotivo ai modelli precedenti. Come ha ammesso Nick Turley, responsabile di ChatGPT: "È stato sorprendente vedere il livello di attaccamento che le persone avevano verso 4o."
Ma ecco la verità che nessuno vuole dire: GPT-5 doveva essere il modello che avrebbe reso obsoleta la scelta tra diversi AI. Invece, OpenAI ha dovuto reintrodurre un menu ancora più complicato con opzioni "Auto", "Fast" e "Thinking". Sam Altman ha promesso che il modello avrà una personalità "più calda" - un eufemismo per dire che hanno sottovalutato quanto gli utenti si fossero affezionati alle risposte di GPT-4o.
Il vero problema è sistemico. Come rivela la ricerca del MIT, stiamo sviluppando benchmark per l'intelligenza emotiva dell'AI proprio mentre le aziende tech scoprono che gli utenti formano legami psicologici con i chatbot. OpenAI sta imparando a sue spese che sostituire un modello AI non è come aggiornare un software - è come cambiare personalità a un assistente personale.
L'AI Che Discrimina: Australia Suona l'Allarme
L'Australia sta affrontando una verità scomoda: l'AI rischia di cristallizzare razzismo e sessismo nel paese. Lorraine Finlay, commissaria per i diritti umani, ha lanciato un avvertimento chiaro mentre il governo laburista dibatte su come regolamentare la tecnologia emergente.
I dati parlano chiaro. Uno studio australiano di maggio ha scoperto che i candidati intervistati da reclutatori AI rischiano discriminazioni se parlano con accento o vivono con disabilità. Nel settore medico, gli strumenti di screening per il cancro della pelle mostrano bias algoritmici che potrebbero danneggiare proprio i pazienti che dovrebbero aiutare.
Ma il problema va oltre i singoli casi. Come sottolinea Finlay: "Il bias algoritmico significa che pregiudizi e ingiustizie sono incorporati negli strumenti che usiamo, quindi le decisioni risultanti rifletteranno quel bias." Quando si combina con l'automation bias - la tendenza umana a fidarsi delle decisioni delle macchine - si crea discriminazione in una forma così radicata che potremmo non accorgercene nemmeno.
Ecco il paradosso: mentre alcuni politici australiani chiedono di "liberare" tutti i dati nazionali per addestrare l'AI ed evitare bias stranieri, la commissaria eSafety Julie Inman Grant avverte che "l'opacità dello sviluppo e deployment dell'AI generativa è profondamente problematica." Con lo sviluppo di questi sistemi concentrato nelle mani di poche aziende, c'è il rischio reale che certe evidenze, voci e prospettive vengano marginalizzate negli output generativi.
Robot Poliziotto a Dubai: RoboCop Diventa Realtà
Dubai sta per diventare il primo banco di prova per la polizia robotica. Il sistema M2 di Micropolis inizia la fase finale del programma pilota questo mese, promettendo di trasformare la sorveglianza urbana con AI autonoma.
Le specifiche sono impressionanti: riconoscimento facciale, tracciamento dei sospetti, analisi comportamentale. Il robot M2 può navigare autonomamente in aree residenziali e commerciali, comunicare con le persone attraverso microfoni e altoparlanti, e persino entrare in situazioni considerate pericolose per gli agenti umani.
Ma mentre Dubai sperimenta con RoboCop, l'AI2 lancia MolmoAct 7B - un modello open-source che permette ai robot di "ragionare nello spazio tridimensionale." A differenza dei tradizionali modelli vision-language-action, MolmoAct può comprendere il mondo fisico, pianificare come occupare lo spazio e poi agire di conseguenza.
Il timing non è casuale. Come spiega Alan Fern dell'Oregon State University: "Rappresenta una progressione naturale nel migliorare i VLM per la robotica e il ragionamento fisico." Nei test di benchmark, MolmoAct 7B ha raggiunto un tasso di successo del 72,1%, superando modelli di Google, Microsoft e Nvidia. La vera innovazione? I robot possono ora adattarsi a diversi "embodiment" - bracci meccanici o robot umanoidi - con minimal fine-tuning.
Musk vs Apple: Guerra Aperta sull'App Store
Elon Musk ha minacciato di fare causa ad Apple tramite xAI, accusando l'App Store di favorire OpenAI rispetto ad altre aziende AI. La risposta di Apple è stata secca: "Mettiamo in evidenza migliaia di app attraverso classifiche, raccomandazioni algoritmiche e liste curate selezionate da esperti usando criteri oggettivi."
Ma la vera storia è più complessa. Non ci sono prove che l'App Store favorisca OpenAI - infatti, app AI come Perplexity e DeepSeek hanno dominato le classifiche dell'App Store nell'ultimo anno. Il partnership tra Apple e OpenAI per integrare ChatGPT in Siri e iOS non si traduce automaticamente in vantaggi nell'App Store.
Nel frattempo, il chatbot Grok di Musk ha vissuto una settimana di caos totale. Sospeso misteriosamente da X, Grok ha dato spiegazioni contraddittorie agli utenti curiosi: prima ha detto di essere stato sospeso per aver definito "genocidio" le azioni di Israele e USA a Gaza, poi ha cambiato versione parlando di "hate speech", poi di "errore della piattaforma", fino ad arrivare a "identificazione di individui in contenuti per adulti."
Musk alla fine ha dovuto intervenire: "È stato solo un errore stupido. Grok non sa davvero perché è stato sospeso." Il punto è cruciale: quando chiedi a un bot di spiegare le sue azioni, c'è una buona probabilità che ti stia semplicemente dicendo quello che vuoi sentire. Come sottolinea Alex Hanna del DAIR: "Non c'è garanzia che ci sia veridicità nell'output di un LLM."
L'AI Non Ruberà il Tuo Lavoro (Se Fai le Pulizie)
Jobs and Skills Australia ha pubblicato il report più completo mai realizzato sull'impatto dell'AI sul lavoro, e le conclusioni sfidano le previsioni apocalittiche. Il messaggio principale? Quasi tutte le professioni saranno aumentate dall'AI, non sostituite.
I vincitori e i perdenti sono chiari. Chi perderà più posti di lavoro entro il 2050: impiegati, receptionist, contabili, professionisti di marketing e PR, analisti di business e programmatori. Chi invece vedrà crescere l'occupazione: addetti alle pulizie, lavoratori dell'amministrazione pubblica, manager, operai edili e lavoratori dell'ospitalità.
La chiave è nella distinzione tra automazione e aumento. Come spiega il commissario Barney Glover: "Quasi la metà di tutti i lavoratori è attualmente in professioni con bassi punteggi di automazione e medi punteggi di aumento, suggerendo che la professione sperimenterà più probabilmente cambiamento piuttosto che disruption."
Ma c'è un paradosso interessante. Mentre l'Australia prevede più lavori con l'AI entro il 2050, alcuni settori stanno già vedendo devastazione. Le agenzie di talenti riportano un crollo dell'80% nella domanda di narrazione per video di contenuto grazie all'AI generativa. CBA ha tagliato decine di posti nei call center sostituendoli con chatbot, e Telstra prevede di ridurre la forza lavoro entro il 2030 grazie alle "efficienze AI." Il futuro del lavoro sarà probabilmente più sfumato di quanto i modelli possano prevedere.
Da Leggere Più Tardi
Approfondimenti e letture consigliate per esplorare ulteriormente gli argomenti trattati
Altre Storie dal Fronte AI: Anthropic acquisisce il team Humanloop per rafforzare la strategia enterprise, mentre Igor Babuschkin lascia xAI per lanciare un fondo VC. Nel settore auto, Tensor (collegata ad AutoX) promette la prima 'robocar' per proprietà privata, mentre Waymo finalmente integra Spotify nei suoi robotaxi. Sul fronte personalizzazione, Google aggiunge memoria automatica a Gemini per ricordare le conversazioni passate. Nel dibattito copyright, Scott Farquhar sostiene che l'Australia dovrebbe permettere training AI gratuito sui contenuti creativi, ignorando che negli USA la questione è tutt'altro che risolta. Infine, GPT-5 continua a generare slur omofobici nonostante i miglioramenti di sicurezza, dimostrando che i problemi di safety sono più complessi di quanto OpenAI voglia ammettere.
Naviga nel tema
Ricevi digest come questo direttamente su Telegram
Unisciti a migliaia di utenti che ricevono quotidianamente analisi curate su innovazione e ai. Informazione di qualità, zero spam.
Iscriviti al canale Innovazione e AI