13 Febbraio 2026
3 min. lettura

La singolarità tecnologica è vicina

Il 5 febbraio Mrinank Sharma, responsabile della sicurezza dell’intelligenza artificiale presso Anthropic, la società statunitense che sviluppa il modello Claude, ha annunciato le proprie dimissioni con una lettera pubblica dai toni netti. Nel testo Sharma afferma che l’intelligenza artificiale “ci è sfuggita di mano” e che la velocità con cui vengono sviluppati modelli sempre più avanzati sta superando la capacità di controllarne i rischi.

Anthropic, fondata nel 2021 da ex dirigenti e ricercatori di OpenAI, è oggi una delle principali aziende nel settore dei modelli linguistici di grandi dimensioni. Claude è utilizzato da imprese, sviluppatori e organizzazioni per attività di analisi, scrittura, programmazione e supporto decisionale. Le ultime versioni del modello sono in grado di elaborare enormi quantità di testo, generare codice complesso, sintetizzare dati tecnici e sostenere conversazioni articolate su tematiche specialistiche.

Nella sua lettera, Sharma evidenzia alcuni pericoli specifici. Tra questi, la possibilità che sistemi sempre più autonomi possano essere impiegati per scopi dannosi, inclusa la generazione di istruzioni tecniche sensibili, la manipolazione informativa su larga scala e l’automazione di attività critiche senza adeguata supervisione umana. Il riferimento è anche al rischio di modelli capaci di apprendere e ottimizzarsi in modo progressivamente indipendente dagli input umani.

Secondo Sharma, la corsa globale tra aziende tecnologiche per sviluppare modelli più potenti sta comprimendo i tempi dedicati ai test di sicurezza e alle verifiche sulle conseguenze a lungo termine. Il timore espresso è che la pressione competitiva possa ridurre la centralità delle salvaguardie tecniche rispetto agli obiettivi di mercato.

Il dibattito si inserisce in una fase in cui l’intelligenza artificiale generativa ha compiuto progressi significativi. I modelli attuali sono in grado di superare esami professionali, redigere documenti legali, generare codice eseguibile e interagire con altri software in modo integrato. Alcuni sistemi sono già collegati a strumenti operativi esterni, ampliando la loro capacità di incidere su processi reali.

Nel suo intervento, Sharma richiama indirettamente anche il tema della “singolarità tecnologica”, l’ipotesi secondo cui l’intelligenza artificiale possa raggiungere o superare l’intelligenza umana generale, innescando un’accelerazione esponenziale dello sviluppo tecnologico difficilmente controllabile. Pur non indicando una tempistica precisa, il messaggio è che l’evoluzione dei modelli sta riducendo la distanza tra sistemi altamente specializzati e forme di intelligenza sempre più generaliste.

Le dimissioni del responsabile della sicurezza di Anthropic rappresentano uno dei segnali più rilevanti provenienti dall’interno dell’industria sull’urgenza di rafforzare i meccanismi di governance e supervisione. Il caso riporta al centro del dibattito internazionale la questione dell’equilibrio tra innovazione, controllo e responsabilità in un settore che, negli ultimi due anni, ha conosciuto un’accelerazione senza precedenti.

Lascia un commento

Your email address will not be published.

Storia precedente

Cala la produzione industriale in Italia

Le ultime da Blog

Crolla il mercato delle Crypto

In pochi giorni miliardi di capitalizzazione sono evaporati, travolgendo piccoli investitori, startup fintech e fondi altamente esposti.

Supereroi: Fabrizio Lobasso ci parla di Leadership

La leadership non è una parola da convegno. È una responsabilità quotidiana. È decisione, visione, capacità di guidare persone e processi nei momenti semplici, ma soprattutto in quelli complessi. È da questo
Tornasu

Da Non Perdere

Il Washington Post licenzia un terzo dei giornalisti

Un colpo durissimo per una testata che per oltre un

L’invasione cinese non si ferma

Dopo l’automotive arrivò il fast fashion. La tanto silenziosa quanto