Nell’ultima settimana il codice Claude trapelato ha riacceso i riflettori sui rischi di sicurezza per gli strumenti di sviluppo basati su intelligenza artificiale. Anthropic ammette la diffusione ac…
Nell’ultima settimana il codice Claude trapelato ha riacceso i riflettori sui rischi di sicurezza per gli strumenti di sviluppo basati su intelligenza artificiale. Anthropic ammette la diffusione accidentale del codice di Claude Code
Martedì Anthropic ha confermato di aver pubblicato per errore una parte del codice interno di Claude Code, il proprio assistente AI per programmatori. L’azienda ha parlato di un “problema di packaging del rilascio causato da errore umano, non da una violazione di sicurezza”. stando a gli analisti di cybersicurezza, l’incidente ha esposto circa 1. Claude Code opera direttamente negli ambienti di sviluppo degli sviluppatori, con accesso potenziale a informazioni sensibili, elemento che ha alimentato le preoccupazioni degli esperti. La viralità del leak e l’analisi del codice da parte degli sviluppatori
Un post su X con il link al materiale diffuso risulta essere diventato virale in poche ore, superando i 30 milioni di visualizzazioni nella mattinata di martedì. Inoltre, numerosi sviluppatori hanno iniziato a esaminare il codice per capire come funziona Claude Code e quali siano i piani evolutivi di Anthropic. Detto ciò, alcuni ricercatori di sicurezza hanno sollevato dubbi su come attaccanti malevoli potrebbero sfruttare queste informazioni.
Fonte: The Cryptonomist
Articolo elaborato automaticamente dal sistema TechTok Autosummary