Questa settimana l’AI ha aggiornato Claude 🤖, scattato la foto più nitida del settore 📊 e confermato che solo 1 azienda su 5 sta davvero correndo 💸

Una settimana densa, con una notizia di prodotto che riguarda chiunque usi Claude quotidianamente e due ricerche che, messe una accanto all’altra, raccontano la stessa cosa con parole diverse: il divario tra chi sta usando l’AI davvero e chi sta ancora aspettando il momento giusto si sta trasformando in qualcosa di strutturale. C’è anche una startup tedesca che ha deciso di far parlare i personaggi dei romanzi. Vale la pena leggere


🤖 Claude Opus 4.7 è disponibile, ma i vecchi prompt potrebbero non funzionare più

Anthropic ha rilasciato Claude Opus 4.7, disponibile su Claude.ai, API, Bedrock, Vertex AI e Microsoft Foundry senza variazione di prezzo. Le migliorie dichiarate riguardano coding avanzato, instruction following, affidabilità su task lunghi, memoria nelle sessioni estese e capacità multimodale con immagini fino a 2.576 pixel. Sul fronte della sicurezza, Opus 4.7 è il primo modello Anthropic usato come strumento di cyber-safeguard più ampio — un segnale di continuità con Project Glasswing.

Il dettaglio che merita attenzione è uno in particolare. Anthropic avverte esplicitamente che Opus 4.7 è “substantially more literal” rispetto ai modelli precedenti: dove Opus 4.6 interpretava le istruzioni con una certa flessibilità — o semplicemente le saltava — 4.7 le esegue alla lettera. Questo significa che i prompt scritti per versioni precedenti potrebbero produrre risultati inaspettati, non perché il modello sia peggiorato, ma perché ora fa esattamente quello che gli si chiede. Chi ha prompt strutturati su flussi di lavoro consolidati farebbe bene a testarli. Anthropic lo dice senza giri di parole: “re-tune your prompts accordingly.” Vale anche la pena notare che Opus 4.6 non è più disponibile su Claude.ai dall’uscita di 4.7.


 

📊 Stanford AI Index 2026: i modelli più potenti sono anche i meno trasparenti

Stanford ha rilasciato il suo AI Index annuale, e quest’anno la fotografia è più nitida che mai. Alcuni numeri di contesto: l’AI generativa ha raggiunto il 53% di adozione nella popolazione in tre anni, più velocemente del personal computer e di internet. Il valore stimato degli strumenti AI generativi per i consumatori americani ha già toccato i 172 miliardi di dollari all’anno, con il valore medio per utente triplicato tra il 2025 e il 2026. Su SWE-bench Verified, il principale benchmark per il coding, le performance dei modelli sono passate dal 60% a quasi il 100% in un singolo anno.

Ma il dato più scomodo del report riguarda la trasparenza. Il Foundation Model Transparency Index è sceso da 58 a 40 punti quest’anno: i modelli più capaci sono quelli che rivelano di meno su come funzionano, su quali dati sono stati addestrati, su come vengono valutati. Stiamo correndo verso sistemi sempre più potenti con sempre meno visibilità su cosa c’è dentro. C’è poi un dato che dovrebbe far riflettere chi si occupa di politica industriale: il numero di ricercatori e sviluppatori AI che si spostano negli Stati Uniti è crollato dell’89% dal 2017, con un calo dell’80% nell’ultimo anno soltanto. La Cina ha intanto raggiunto e in alcuni casi superato gli USA su patent e pubblicazioni scientifiche. La gara non si gioca solo sui chip.


💸 PwC: il 20% delle aziende cattura il 74% del valore AI e il gap si allarga

Il nuovo studio PwC su 1.217 executive in 25 settori arriva a una conclusione che, formulata così, è difficile da ignorare: quasi tre quarti del valore economico generato dall’AI sta andando a un quinto delle organizzazioni. Le restanti si trovano ancora in fase sperimentale, con pilot che non scalano e strumenti AI sovrapposti a processi invariati.

La differenza tra i due gruppi non è nel budget destinato all’AI. È nel metodo. Le aziende che stanno vincendo ridisegnano i flussi di lavoro attorno all’AI, invece di aggiungere uno strato AI sopra quello che già esiste. Sono 2,8 volte più propense a far prendere decisioni all’AI in autonomia, senza intervento umano, su processi che prima richiedevano supervisione costante. PwC avverte che il gap probabilmente crescerà: chi è avanti sta imparando più velocemente, scala i casi d’uso che funzionano e accumula un vantaggio organizzativo che i ritardatari faticano a colmare con la sola tecnologia. Non è una questione di strumenti. È una questione di quanto sei disposto a cambiare il modo in cui lavori.


 

📖 “Unwritten”: la startup che fa parlare i personaggi dei romanzi dopo l’ultima pagina

Una startup di Norimberga, composta da venti persone con background in letteratura, pedagogia e psicologia, ha costruito qualcosa di insolito: un sistema che permette di conversare con i personaggi di un romanzo dopo averlo finito. Il progetto si chiama Unwritten, e il primo libro che ha “aperto alla conversazione” è Pantopia di Theresa Hannig, una scrittrice che è anche ex sviluppatrice software e che ha collaborato attivamente al progetto per mesi chattando con il bot finché le risposte non le sono sembrate fedeli al personaggio.

È una storia che vale la pena leggere non perché il prodotto sia rivoluzionario — la stessa autrice dice che funziona bene solo per narrativa con trame lineari, e che non toccherebbe mai Kafka — ma perché mette in luce una direzione possibile: l’AI come strumento per prolungare l’esperienza culturale, non per sostituirla. E i limiti che emergono non sono tecnici: sono concettuali. Cosa significa “fedeltà a un personaggio” quando il personaggio vive solo nelle parole di qualcun altro? La tendenza per questo tipo di chatbot letterari è già in calo, riconosce lo stesso CEO. Ma il tentativo dice qualcosa di interessante su dove stiamo cercando di portare questa tecnologia.


Se questi temi ti interessano, li esploro ogni settimana su Lavoro Meglio con l’AI: non un podcast tecnico, non un catalogo di strumenti. Un posto dove fermarsi a pensare cosa sta succedendo davvero. Lo trovi su Spotify e su tutte le piattaforme audio.