Il 5 febbraio Mrinank Sharma, responsabile della sicurezza dell’intelligenza artificiale presso Anthropic, la società statunitense che sviluppa il modello Claude, ha annunciato le proprie dimissioni con una lettera pubblica dai toni netti. Nel testo Sharma afferma che l’intelligenza artificiale “ci è sfuggita di mano” e che la velocità con cui vengono sviluppati modelli sempre più avanzati sta superando la capacità di controllarne i rischi.
Anthropic, fondata nel 2021 da ex dirigenti e ricercatori di OpenAI, è oggi una delle principali aziende nel settore dei modelli linguistici di grandi dimensioni. Claude è utilizzato da imprese, sviluppatori e organizzazioni per attività di analisi, scrittura, programmazione e supporto decisionale. Le ultime versioni del modello sono in grado di elaborare enormi quantità di testo, generare codice complesso, sintetizzare dati tecnici e sostenere conversazioni articolate su tematiche specialistiche.
Nella sua lettera, Sharma evidenzia alcuni pericoli specifici. Tra questi, la possibilità che sistemi sempre più autonomi possano essere impiegati per scopi dannosi, inclusa la generazione di istruzioni tecniche sensibili, la manipolazione informativa su larga scala e l’automazione di attività critiche senza adeguata supervisione umana. Il riferimento è anche al rischio di modelli capaci di apprendere e ottimizzarsi in modo progressivamente indipendente dagli input umani.
Secondo Sharma, la corsa globale tra aziende tecnologiche per sviluppare modelli più potenti sta comprimendo i tempi dedicati ai test di sicurezza e alle verifiche sulle conseguenze a lungo termine. Il timore espresso è che la pressione competitiva possa ridurre la centralità delle salvaguardie tecniche rispetto agli obiettivi di mercato.
Il dibattito si inserisce in una fase in cui l’intelligenza artificiale generativa ha compiuto progressi significativi. I modelli attuali sono in grado di superare esami professionali, redigere documenti legali, generare codice eseguibile e interagire con altri software in modo integrato. Alcuni sistemi sono già collegati a strumenti operativi esterni, ampliando la loro capacità di incidere su processi reali.
Nel suo intervento, Sharma richiama indirettamente anche il tema della “singolarità tecnologica”, l’ipotesi secondo cui l’intelligenza artificiale possa raggiungere o superare l’intelligenza umana generale, innescando un’accelerazione esponenziale dello sviluppo tecnologico difficilmente controllabile. Pur non indicando una tempistica precisa, il messaggio è che l’evoluzione dei modelli sta riducendo la distanza tra sistemi altamente specializzati e forme di intelligenza sempre più generaliste.
Le dimissioni del responsabile della sicurezza di Anthropic rappresentano uno dei segnali più rilevanti provenienti dall’interno dell’industria sull’urgenza di rafforzare i meccanismi di governance e supervisione. Il caso riporta al centro del dibattito internazionale la questione dell’equilibrio tra innovazione, controllo e responsabilità in un settore che, negli ultimi due anni, ha conosciuto un’accelerazione senza precedenti.
