E-Mail: [email protected]
- Claude Opus 4.5 completa task di coding in 5 ore.
- Incertezza: task da 2 a 20 ore per gli umani.
- Modelli peggiori nei task “confusi” (Kwa, Von Arx).
## L’Ascesa e le Insidie dell’Automatizzazione: Un’Analisi Approfondita
L’avanzamento dell’intelligenza artificiale (AI) è un tema centrale nel dibattito tecnologico contemporaneo. Un indicatore chiave di questo progresso è il grafico prodotto da METR (Model Evaluation & Threat Research), un’organizzazione no-profit specializzata nella valutazione dei rischi associati ai sistemi di AI avanzati. Questo grafico, divenuto iconico, suggerisce che le capacità di alcune AI si stanno sviluppando a un ritmo esponenziale, con modelli recenti che superano persino le previsioni più ottimistiche.
Un esempio emblematico è Claude Opus 4.5, l’ultima versione del modello più potente di Anthropic. Nel dicembre 2025, METR ha annunciato che Opus 4.5 sembrava in grado di completare autonomamente un compito che avrebbe richiesto circa cinque ore a un essere umano, un miglioramento significativo rispetto alle stime basate sulla tendenza esponenziale. Questa notizia ha suscitato reazioni contrastanti, con alcuni ricercatori che hanno espresso preoccupazione per le implicazioni future dell’AI.

## La Complessità Dietro l’Apparenza: Un’Analisi Critica del Grafico METR
Nonostante l’entusiasmo generato, è fondamentale analizzare criticamente il grafico METR. Innanzitutto, le stime delle capacità dei modelli specifici presentano margini di errore considerevoli. Nel caso di Opus 4.5, METR ha specificato che il modello potrebbe essere in grado di completare regolarmente solo compiti che richiedono circa due ore agli umani, oppure potrebbe avere successo in compiti che richiedono fino a 20 ore. Queste incertezze intrinseche al metodo rendono difficile trarre conclusioni definitive.
Inoltre, il grafico METR non misura le capacità dell’AI in senso lato. METR testa i modelli principalmente su compiti di codifica, valutando la difficoltà di ciascuno misurando o stimando il tempo necessario agli umani per completarlo. Questa metrica, tuttavia, non è universalmente accettata. Il fatto che Claude Opus 4.5 possa completare determinati compiti che richiedono cinque ore agli umani non significa che sia in grado di sostituire un lavoratore umano.
## L’Impatto Sociale dell’AI: Tra Ottimismo e Preoccupazione
L’interpretazione del grafico METR ha generato diverse prospettive sull’impatto sociale dell’AI. Alcuni sostengono che la tendenza esponenziale indichi che l’AI porterà presto a un’era di crescita economica radicale. La società di venture capital Sequoia Capital, ad esempio, ha pubblicato un post intitolato “2026: This is AGI”, in cui si afferma che l’AI in grado di agire come un dipendente o un appaltatore arriverà presto.
Tuttavia, è importante considerare le limitazioni del grafico METR. I compiti su cui i modelli vengono valutati non riflettono le complessità e la confusione del lavoro nel mondo reale. In uno studio, Kwa, Von Arx e i loro colleghi hanno quantificato la “confusione” di ciascun compito in base a criteri quali la conoscenza da parte del modello di come viene valutato e la possibilità di ricominciare facilmente in caso di errore. Hanno scoperto che i modelli ottengono risultati peggiori nei compiti confusi, sebbene la tendenza generale al miglioramento valga sia per i compiti confusi che per quelli non confusi.
## Oltre l’Hype: Una Visione Realistica del Progresso dell’AI
Nonostante le sue limitazioni, il grafico METR rappresenta uno strumento scientifico che quantifica il senso intuitivo del progresso dell’AI. Come ammettono gli stessi dipendenti di METR, il grafico è tutt’altro che perfetto. Tuttavia, in un dominio nuovo e in rapida evoluzione, anche gli strumenti imperfetti possono avere un valore enorme.
Sydney Von Arx, membro dello staff tecnico di METR, ha affermato: “Questo è un gruppo di persone che cerca di fare del proprio meglio per creare una metrica in molte condizioni. È profondamente imperfetta in molti modi. Penso anche che sia una delle cose migliori del suo genere”.
## Navigare nel Mare dell’Informazione: Verità, Fiducia e AI
L’avvento dell’AI ha sollevato preoccupazioni riguardo alla diffusione di contenuti falsi e alla conseguente erosione della fiducia sociale. Il Dipartimento della Sicurezza Nazionale degli Stati Uniti (DHS) ha confermato di utilizzare generatori di video AI di Google e Adobe per creare contenuti da condividere con il pubblico. Questa notizia è giunta in un momento in cui le agenzie per l’immigrazione hanno inondato i social media con contenuti a sostegno dell’agenda di deportazione di massa dell’ex Presidente Trump, alcuni dei quali sembrano essere realizzati con l’AI.
Le reazioni a questa notizia sono state diverse. Alcuni non si sono sorpresi, poiché la Casa Bianca aveva pubblicato una foto alterata digitalmente di una donna arrestata durante una protesta contro l’ICE. Altri non hanno visto alcun motivo per segnalare l’uso dell’AI da parte del DHS per modificare i contenuti condivisi con il pubblico, poiché anche le testate giornalistiche stavano apparentemente facendo lo stesso.
Tuttavia, è importante distinguere tra questi due casi. Il primo riguarda il governo degli Stati Uniti che condivide una foto chiaramente alterata con il pubblico e si rifiuta di rispondere se sia stata intenzionalmente manipolata. Il secondo riguarda una testata giornalistica che trasmette una foto che avrebbe dovuto sapere essere alterata, ma che ha adottato alcune misure per rivelare l’errore.
## *Verso un Nuovo Paradigma: Oltre la Verifica della Verità
Le reazioni a questi eventi rivelano un difetto nel modo in cui ci stavamo preparando collettivamente a questo momento. Gli avvertimenti sulla crisi della verità dell’AI ruotavano attorno a una tesi centrale: che l’incapacità di distinguere ciò che è reale ci distruggerà, quindi abbiamo bisogno di strumenti per verificare autonomamente la verità. Tuttavia, questi strumenti stanno fallendo e la verifica della verità non è più in grado da sola di produrre la fiducia sociale che ci era stata promessa.
Iniziative come la Content Authenticity Initiative, co-fondata da Adobe e adottata da importanti aziende tecnologiche, miravano ad allegare etichette ai contenuti che rivelassero quando sono stati realizzati, da chi e se l’AI fosse coinvolta. Tuttavia, Adobe applica etichette automatiche solo quando il contenuto è interamente generato dall’AI. Altrimenti, le etichette sono facoltative da parte del creatore. E piattaforme come X possono rimuovere tali etichette.
Inoltre, anche quando le persone sanno che il contenuto che stanno guardando è falso, rimangono emotivamente influenzate da esso. Uno studio pubblicato sulla rivista Communications Psychology ha rilevato che i partecipanti che hanno guardato una “confessione” deepfake a un crimine, anche quando è stato detto loro esplicitamente che la prova era falsa, si sono basati su di essa quando hanno giudicato la colpevolezza di un individuo.
## L’Imperativo di un Nuovo Approccio: Resilienza e Consapevolezza
Gli strumenti di AI per generare e modificare contenuti stanno diventando più avanzati, più facili da usare e più economici da gestire. Eravamo ben consapevoli di questo, ma abbiamo risposto preparandoci a un mondo in cui il pericolo principale era la confusione. Invece, stiamo entrando in un mondo in cui l’influenza sopravvive all’esposizione, il dubbio viene facilmente armato e stabilire la verità non funge da pulsante di ripristino.
Di fronte a questa realtà, è necessario sviluppare un nuovo approccio che vada oltre la semplice verifica della verità. Dobbiamo concentrarci sulla costruzione della resilienza, promuovendo la consapevolezza critica e incoraggiando il pensiero indipendente. Solo così potremo navigare nel mare dell’informazione e preservare la fiducia sociale nell’era dell’AI.
## Oltre l’Orizzonte: Un Futuro di Coesistenza tra Umani e AI*
L’automazione, la scalabilità produttiva e la trasformazione digitale sono processi interconnessi che stanno ridefinendo il panorama industriale e sociale. L’articolo che abbiamo analizzato mette in luce come l’AI, in particolare attraverso modelli linguistici avanzati, stia accelerando questi processi, offrendo nuove opportunità ma anche sollevando interrogativi etici e pratici.
Una nozione base di automazione è che essa mira a ridurre l’intervento umano in determinati compiti, aumentando l’efficienza e la produttività. Nel contesto dell’AI, questo si traduce nella capacità di automatizzare compiti complessi come la codifica, la creazione di contenuti e l’analisi dei dati.
Una nozione avanzata è che l’automazione basata sull’AI non si limita a sostituire il lavoro umano, ma può anche potenziarlo, creando nuove forme di collaborazione tra umani e macchine. Questo richiede un ripensamento dei processi lavorativi e una formazione adeguata per consentire agli umani di sfruttare al meglio le capacità dell’AI.
In definitiva, il futuro dell’automazione, della scalabilità produttiva e della trasformazione digitale dipenderà dalla nostra capacità di affrontare le sfide etiche e sociali poste dall’AI, garantendo che questa tecnologia sia utilizzata per il bene comune e non per amplificare le disuguaglianze esistenti.
E tu, come immagini il futuro del lavoro nell’era dell’AI? Sei più incline a vedere opportunità di crescita e collaborazione, o rischi di sostituzione e disoccupazione?








