Claude fallisce. Ma ci serve?

Anthropic ha condiviso i fallimenti di Claude. Hanno fatto gestire a Claude un’azienda ed è stato un delirio. Questo esperimento ha mostrato una IA che va in tilt, produce risposte sbagliate, elude prompt o cade in tranelli logici. È raro vedere un’azienda buttare fuori i propri punti deboli. Qui c’è qualcosa di diverso. Una specie di trasparenza chirurgica, come se ci stessero dicendo: ecco fin dove possiamo arrivare, il resto è ancora umano.

C’è qualcosa di intimo in questi errori. Claude risponde con la sicurezza di chi non sa di mentire. Forse è proprio lì il problema: l’illusione di coerenza. Eppure questi errori ci raccontano più di mille comunicati stampa. Rivelano il punto cieco di ogni modello: la presunzione di completezza.

Il punto non è correggere Claude. Il punto è cosa vogliamo farci, con un’intelligenza così. Se ci serve un motore infallibile, abbiamo già gli algoritmi. Ma se vogliamo un alleato imperfetto, vulnerabile e adattabile, allora sì. I fallimenti di Claude non sono bug. Sono confini.