Svolte scientifiche, nuove tecnologie e qualche scivolone algoritmico: questa settimana nel mondo dell’intelligenza artificiale è successo di tutto.
🧬 Quando l’AI di Google parla il linguaggio delle cellule
Chi l’avrebbe detto che un modello linguistico potesse suggerire una terapia oncologica? Eppure è esattamente quello che ha fatto C2S-Scale 27B, parte della famiglia Gemma di Google.
Insieme all’Università di Yale, ha proposto una combinazione terapeutica per quei tumori che sfuggono al radar del sistema immunitario.
💊 Grazie alla “collaborazione” fra:
- Silmitasertib, che agisce su un enzima cellulare 
- Interferone, molecola naturale che stimola la risposta immunitaria 
📊 Risultato nei test di laboratorio: +50% nella capacità delle cellule di mostrare antigeni e diventare visibili al nostro sistema di difesa.
🧪 Un passo promettente. Ma attenzione: siamo ancora nella fase pre-clinica. Serve tempo (e molta validazione empirica) prima di pensare a una terapia vera e propria.
🔍 Nota importante: sì, la AI può generare ipotesi, ma non può sostituire la scienza. Né la responsabilità umana.
🧭 Atlas: il browser che ti legge nel pensiero (con il tuo consenso, si spera)
Dimentica le 47 schede aperte e la ricerca del “dove avevo letto quella cosa?”.
ChatGPT Atlas, il nuovo browser di OpenAI, integra l’intelligenza artificiale direttamente nella tua navigazione, aiutandoti a scrivere, cercare, pianificare e persino prenotare – tutto in un’unica esperienza fluida.
🚀 Le novità che fanno pensare:
- Memoria semantica (non i soliti cookie): ricorda il perché hai fatto una ricerca, non solo il dove. 
- Modalità agente: pianifica eventi, cerca voli, scrive email quindi non solo risponde, agisce. 
- Privacy modulare: puoi scegliere cosa ricordare e cosa no, come dire.. più un “maggiordomo discreto” che “grande fratello”. 
🛑 Ma non cadiamo nell’automazione cieca: anche questo super-browser ha bisogno di supervisione, direzione e – perché no – una buona dose di consapevolezza.
Nota: al momento è disponibile solo per MacOS, presto arriverà per Windows e Android
📉 Il lato oscuro: l’informazione secondo le AI (spoiler: ci manca qualcosa)
E qui arriva il promemoria che serviva: non tutto ciò che luccica è accurato.
Uno studio condotto in 18 paesi con 22 emittenti pubbliche ha analizzato oltre 3000 risposte di assistenti AI come ChatGPT, Gemini, Copilot e Perplexity.
🔎 Ecco i risultati:
- 45% delle risposte ha mostrato problemi significativi di accuratezza 
- 81% presentava almeno un problema informativo 
- Gemini (Google) ha collezionato il maggior numero di errori legati all’uso delle fonti (72%) 
📌 Gli errori non sono solo refusi: si parla di contenuti non supportati, affermazioni errate, e persino attribuzioni inventate.
⚠️ Messaggio importante: le AI generative non sono fonti giornalistiche, sono strumenti e come tutti gli strumenti, servono mani esperte, etica solida e occhi ben aperti.
🐋 Cetacean Code: quando l’AI traduce il canto delle balene
Sembra fantascienza, ma è già scienza: il progetto CETI – Cetacean Translation Initiative utilizza l’AI per analizzare, decifrare e rispondere ai vocalizzi dei capodogli.
🎧 Ecco come funziona:
- reti di idrofoni sottomarini catturano i suoni su km quadrati 
- l’AI analizza le sequenze sonore cercando schemi, grammatica e significato 
🚀 Obiettivo finale: iniziare un vero dialogo con le balene (senza Emoji, per ora 🐳)
💡 È un esempio bello di ciò che può nascere quando tecnologia e rispetto per il vivente si incontrano.
🎧 Vuoi capirci davvero qualcosa dell’AI, senza dover leggere 12 pagine di PDF?
💡Ascolta il podcast “Lavoro Meglio con l’AI”, troverai riflessioni , storie vere e strumenti utili per affrontare il cambiamento con consapevolezza e un pizzico di leggerezza.
