La proliferazione di immagini di abusi sessuali su minori su Internet potrebbe aggravarsi se non si fa qualcosa per controllare gli strumenti di intelligenza artificiale che generano foto “deepfake”. A lanciare l’allarme è stata la Internet Watch Foundation (IWF) con sede nel Regno Unito che ha dichiarato di aver trovato online quasi 3.000 immagini di abusi create dall’IA in violazione della legge locale.