🔬 L’AI sa rispondere. Non sempre sa perché.

Questa settimana un modello ha battuto i medici d’urgenza senza capire cosa stava facendo, 150 agenti AI hanno aperto un social network dove gli umani non possono entrare, e i mestieri artigiani europei sono cresciuti del 6% nonostante tutto. Il 2026 continua a essere più interessante di quanto sembri.


🏥 Un algoritmo ha fatto diagnosi migliori dei medici d’urgenza. Per ora, solo nel testo.

Nel pronto soccorso del Beth Israel Deaconess Medical Center di Boston, un team di ricercatori ha testato un modello AI su casi reali di pazienti, valutandolo in tre momenti critici del percorso di cura: dal triage all’ammissione in reparto. Il risultato, pubblicato sulla rivista Science il 30 aprile, è interessante: il modello ha scelto le diagnosi corrette con maggiore precisione rispetto a due medici esperti operando solo sui dati delle cartelle elettroniche disponibili al momento delle decisioni.

I ricercatori sono i primi ad avvertire che il contesto reale è più complesso: un clinico ascolta, osserva, percepisce sfumature non verbali. Il modello, per ora, legge solo testo. Nessuno degli autori dello studio sostiene che questo supporti la sostituzione dei medici, “nonostante quello che alcune aziende probabilmente diranno.” Che è già, di per sé, una notizia.

Fonte: NPR, 30 aprile 2026, inglese — link


🧠 Centaur sapeva le risposte. Le domande, meno.

Un modello AI chiamato Centaur aveva attirato attenzione per la sua capacità dichiarata di replicare il pensiero umano attraverso 160 compiti cognitivi diversi. Una nuova ricerca pubblicata su ScienceDaily il 29 aprile mostra che il modello non “pensa” nel senso rilevante del termine: memorizza pattern. Quando viene valutato su compiti cognitivi reali, il sistema produce risposte corrette senza elaborare le domande nel modo in cui lo farebbe un essere umano. La distinzione conta: un modello che indovina senza capire produce risultati fragili fuori dai contesti di addestramento.

Il caso Centaur mette a fuoco una questione strutturale nei benchmark attuali: misurano l’output, non il processo. Un sistema può segnare 90% su un test cognitivo standard e fallire completamente su una variante minima. Che, a seconda del proprio ottimismo di fondo, è rassicurante o deludente.

Fonte: ScienceDaily, 29 aprile 2026, inglese — link


🦊 Mozilla ha usato un’AI di Anthropic per trovare 151 bug in Firefox.

Il modello Mythos di Anthropic è stato impiegato da Mozilla per analizzare il codice sorgente di Firefox. Il risultato: 151 bug identificati e corretti. Non si tratta di generazione di codice ex novo, ma di revisione e analisi di un codebase esistente e complesso. È uno dei casi d’uso più concreti e verificabili di AI applicata alla sicurezza difensiva: non sostituisce il lavoro degli sviluppatori, ma accelera in modo significativo la fase di individuazione dei problemi.

La notizia compare nell’aggiornamento del 29 aprile di fonti francofone specializzate in AI e sicurezza informatica. Mozilla non ha rilasciato una comunicazione stampa ufficiale separata, il che rende questo uno dei casi in cui la verifica indipendente è ancora parziale. Vale la pena seguire il filo nelle prossime settimane.

Fonte: business-ia.com / dcod.ch, 29 aprile 2026, francese — link


🦾 Boston Dynamics vuole produrre 30.000 robot all’anno. L’Atlas elettrico va in fabbrica.

Aprile 2026 segna, secondo il bilancio mensile di lebigdata.fr, il passaggio dall’AI fisica come dimostrazione all’AI fisica come produzione industriale. Boston Dynamics ha annunciato l’inizio della produzione di massa del nuovo Atlas elettrico, con un obiettivo di 30.000 unità l’anno, equipaggiato con i modelli AI di Google DeepMind. L’obiettivo non è più mostrare cosa può fare un robot umanoide: è fabbricarne a ritmo industriale.

Nella stessa settimana, il report registra anche che più di 4 aziende su 10 nel mondo dichiarano di avere già agenti AI in produzione attiva. La robotica fisicamente incorporata e gli agenti software autonomi stanno convergendo più rapidamente di quanto la maggior parte delle previsioni di inizio anno avesse anticipato. La notizia non è che i robot arrivano. È che il calendario si è accorciato.

Fonte: lebigdata.fr, fine aprile 2026, francese — link


📺 La ZDF chiede: “L’AI mangia i lavori?” La risposta tedesca dipende da quanto hai studiato.

Il 1° maggio 2026, la ZDF ha mandato in onda il documentario Am Puls mit Florian Neuhann: Frisst die KI unsere Jobs?, costruito anche sui dati del Politbarometro ZDF di aprile. Il risultato più interessante non è la media, è la distribuzione: il 58% dei tedeschi non teme che l’AI elimini il proprio lavoro, ma la percentuale scende al 37% tra chi ha la licenza di scuola media inferiore, contro il 71% di chi ha la laurea. In parallelo, il 66% ritiene che l’AI causerà tagli di posti di lavoro in Germania in senso generale.

Il divario tra “l’AI farà male agli altri” e “l’AI farà male a me” è uno dei fenomeni psicologici più documentati nella letteratura sul rischio tecnologico. Qui si sovrappone a un divario di istruzione: chi ha più titoli di studio si sente più protetto. Se questa percezione riflette la realtà o è una forma di ottimismo selettivo è, per ora, una domanda aperta e piuttosto rilevante.

Fonte: ZDF, 1° maggio 2026, tedesco — link


🔨 In Europa, i mestieri che l’AI non può fare crescono del 6% all’anno.

Il 28 aprile, wwwhatsnew.com ha pubblicato un’analisi sull’impatto dell’AI sull’occupazione con un angolo controcorrente: i lavori più resistenti all’automazione sono quelli che richiedono adattamento fisico in tempo reale a contesti imprevedibili. Un elettricista che ripara gli impianti di un edificio degli anni ’60 non può essere sostituito da un robot perché ogni intervento è diverso dall’altro: il contesto cambia, le mani devono letteralmente capire cosa stanno toccando. L’occupazione nei mestieri artigiani nell’Unione Europea cresce del 6% all’anno dal 2020.

La Spagna avrà bisogno di 120.000 infermieri aggiuntivi entro il 2030. Non perché l’AI non riesca a supportare la sanità, ma perché la cura fisica di una persona in un letto ospedaliero richiede qualcosa che nessun modello riesce ancora a ingaggiare davvero. Un vantaggio competitivo, decisamente.

Fonte: wwwhatsnew.com, 28 aprile 2026, spagnolo — link


🌎 Un quarto dei lavori in Colombia è a rischio AI. Lo certifica un’università.

Il 29 aprile, Infobae Colombia ha riportato i risultati di uno studio dell’Università del Rosario di Bogotà: il 25% delle posizioni lavorative colombiane mostra alta esposizione all’automazione guidata dall’AI. Lo studio distingue tra esposizione e sostituzione: essere esposti all’AI significa che il 70% o più delle mansioni di un ruolo può essere svolto da un sistema automatizzato, non che il lavoro sparirà automaticamente. La distinzione è importante, spesso assente nei titoli di giornale.

Il dato colombiano è interessante perché riguarda un’economia emergente, dove l’impatto dell’AI arriva in un contesto di minore rete di protezione sociale e minore redistribuzione dei guadagni di produttività. Il problema della concentrazione dei benefici dell’AI non è solo geografico, tra paesi, ma anche interno: chi cattura il valore dell’automazione non è necessariamente chi sopporta il costo della transizione.

Fonte: Infobae Colombia, 29 aprile 2026, spagnolo — link


⚖️ L’AI impatta il lavoro molto più sulle donne. Perché le donne sono state meno coinvolte nel progettarla.

Il 27 aprile, Panorama País ha pubblicato un’analisi basata sui dati dell’Organizzazione Internazionale del Lavoro: il 16% dei lavori prevalentemente femminili è tra i più esposti all’automazione, contro il 3% di quelli prevalentemente maschili. Un secondo dato da ricerca internazionale: le donne hanno 1,5 volte più probabilità degli uomini di dover cambiare impiego a causa dell’avanzamento dell’AI. I settori più colpiti sono quelli in cui l’occupazione femminile è concentrata: servizi amministrativi, customer service, commercio.

Micaela Sanchez Malcom, presidente dell’associazione Géneras, identifica un problema strutturale: le donne sono sottorappresentate nei team che progettano l’AI, e “i sistemi riflettono questa assenza.” Non è un’osservazione nuova, ma la quantificazione 16% contro 3% le dà una concretezza che le dichiarazioni di principio abitualmente non hanno. Chi costruisce una tecnologia decide, spesso senza saperlo, chi porta il costo della transizione.

Fonte: Panorama País, 27 aprile 2026, spagnolo — link


Prima di fidarti. O di smetterci.

Questa settimana le notizie raccontano una storia coerente: l’AI fa cose straordinarie in domini specifici, ma spesso non sa perché le fa. Un algoritmo batte i medici nella diagnosi, ma non capisce il paziente. Un modello conosce le risposte a 160 compiti cognitivi, ma memorizza pattern invece di ragionare. La distanza tra capacità e comprensione è il territorio su cui si prendono le decisioni più importanti oggi.

Per chi lavora, insegna o studia, navigare questa distanza non è un esercizio teorico: è la competenza più utile del momento. Nel podcast Lavoro Meglio con l’AI ne parliamo ogni settimana, senza hype e senza paura.

Ascolta: https://tinyurl.com/LMAISpotify