Mondo Anthropic

Anthropic, nota per l’etica e la sicurezza nell’IA, e nella sua tecnologia, ha subito una seconda fuga di dati in una settimana. Giovedì scorso, circa 3.000 file interni, inclusa la bozza di un annuncio di un nuovo modello potente, erano stati resi pubblici per errore. Questo contrasta con l’immagine di azienda attenta, persino in conflitto con il Dipartimento della Difesa su questioni di responsabilità.

Martedì, un errore di confezionamento nel rilascio della versione 2.1.88 del pacchetto software Claude Code ha esposto quasi 2.000 file di codice sorgente e oltre mezzo milione di righe. Il codice, essenzialmente il progetto architettonico completo di uno dei suoi prodotti chiave, è stato individuato rapidamente da un ricercatore di sicurezza. Anthropic ha liquidato l’accaduto come “problema di confezionamento dovuto a errore umano”, non una violazione.

Claude Code non è un prodotto minore; è uno strumento potente per sviluppatori che ha già influenzato i rivali. Le informazioni trapelate riguardano il software di contorno, non il modello AI stesso, rivelando un’“esperienza per sviluppatori di livello produttivo”. L’impatto a lungo termine sui competitori rimane incerto, data la rapida evoluzione del settore. Resta l’interrogativo sulle ripercussioni interne per chi si è dimenticato di spuntare la casella, per la seconda volta.