Ho letto questa cosa interessante sui siti che trasformano foto normali in immagini nude usando l’AI. Prendi una foto di una persona vestita, la carichi e in pochi click ottieni una versione pornografica falsa. Questi servizi fanno milioni di dollari all’anno e hanno 18.5 milioni di visitatori al mese, usando tutti i servizi di Google, Amazon e Cloudflare.
Il problema è che la gente usa queste app per creare materiale esplicito di colleghe, compagne di classe, ex fidanzate – chiunque di cui abbiano una foto. È cyberbullismo sessuale puro e le vittime sono principalmente donne e ragazze. Ma continua a prosperare perché le big tech fanno finta di niente.
Per maggiori informazioni l’articolo letto è qui