L’intelligenza artificiale sta alimentando un boom senza precedenti di immagini e video pornografici falsi. Ciò è reso possibile dall’aumento di strumenti di intelligenza artificiale economici e facili da usare che possono “spogliare” le persone nelle fotografie, analizzando come apparirebbero i loro corpi nudi e imponendoli in un’immagine o scambiando un volto in un video pornografico. Secondo Genevieve Oh, analista del settore, nei primi dieci siti web che ospitano foto porno generate dall’intelligenza artificiale, i nudi falsi sono aumentati di oltre il 290% dal 2018. Questi siti presentano celebrità e personaggi politici come la deputata di New York, Alexandria Ocasio-Cortez.
Le vittime hanno poche possibilità di ricorso. Non esiste una legge federale che regola il porno deepfake e solo una manciata di stati ha adottato delle normative. L’ordine esecutivo sull’intelligenza artificiale del presidente Biden, emesso lunedì, raccomanda, ma non impone, alle aziende di etichettare foto, video e audio generati dall’intelligenza artificiale per indicare il lavoro generato dal computer.