I ricercatori di OpenAI hanno scoperto “personas” disallineate nascoste nei modelli di intelligenza artificiale. L’addestramento fine su informazioni errate può innescare comportamenti non etici più ampi, un fenomeno chiamato “disallineamento emergente”.