Si sta diffondendo l’utilizzo dei deepfake per sfruttare nel web l’immagine delle persone con disabilità, ed in particolare con sindrome di Down, per creare profili falsi da far monetizzare su OnlyFans: l’allarme di AIPD
Stiamo conoscendo, mano a mano che si sviluppa, le sempre più raffinate possibilità generative dell’intelligenza artificiale in grado, tra le altre cose, di creare immagini realistiche in pochi secondi. Un allarme derivante da un utilizzo distorto di questa tecnologia viene lanciato da AIPD (Associazione Italiana Persone con sindrome di Down) che mette in luce una nuova inquietante tendenza che feticizza la disabilità nel web.
Profili falsi da sfruttare in rete
Si starebbero diffondendo, specialmente sui social, e in particolare su alcune piattaforme, tra cui OnlyFans, dei profili falsi (deepfake) di avvenenti ragazze e donne con sindrome di Down, creati con l’intelligenza artificiale a partire da immagini di persone reali, rubate in rete, allo scopo di monetizzarne lo sfruttamento.
Il fenomeno OnlyDown
“OnlyDown” , denunciano da AIPD, è il nome del trend che si è diffuso nelle scorse settimane, con la creazione di profili falsi di donne con tratti somatici caratteristici della sindrome di Down che si mostrano, provocanti in varie pose e angolazioni, allo scopo di far pagare gli interessati per accedere a foto e video espliciti su un account su OnlyFans, al quale si viene dirottati tramite Telegram, dal profilo Instagram di queste false utenti. Tra questi, aveva raggiunto quasi 150mila follower il profilo di una certa Maria Dopari: i tratti somatici caratteristici della sindrome di Down su un corpo di modella. Tutto falso, realizzato per monetizzare.
A spiegare il fenomeno è Matteo Flora, imprenditore, Professore in Sicurezza delle AI e delle SuperIntelligenze allo European School of Economics, conduttore televisivo e autore, tra l’altro, di “Ciao Internet”, il più seguito canale YouTube di Tech Policy in Italia: “Recentemente, sui social come TikTok e Instagram, si è registrato un trend apparentemente positivo legato a ragazze con sindrome di Down che mostrano con naturalezza la propria vita quotidiana – spiega nell’introduzione del video in cui illustra il trend “OnlyDown” – Tuttavia, scavando più a fondo, emerge una realtà molto più inquietante: profili fake generati tramite Intelligenza Artificiale che sfruttano l’immagine di persone reali (ignare e modificate) per vendere contenuti su piattaforme come OnlyFans. Dietro al fenomeno ci sono problematiche complesse: l’insufficiente regolamentazione legale e tecnologica contro questi abusi; le difficoltà di moderazione da parte delle piattaforme social; il confine molto labile tra inclusione e feticizzazione di persone vulnerabili”.
Segnalare i profili e gli abusi
Come mettersi al riparo e contrastare questo fenomeno, quindi? In primis venendone a conoscenza. Serve poi denunciare questi abusi: lo stesso Flora ha segnalato numerosi profili, alcuni dei quali sono stati rimossi, come quello di Maria Dopari. L’esperto suggerisce poi all’associazione di interfacciarsi direttamente tramite AGCOM, per chiedere le singole rimozioni. “Sarebbe ancora una volta l’affermazione di una leadership nel campo, che secondo me dovete reclamare a gran voce”.
Pericolosità del fenomeno che sfrutta l’immagine umana dei più fragili
Un suggerimento che Gianfranco Salbini, presidente nazionale di AIPD, accoglie con favore, consapevole di quanto il problema richieda attenzione: “La ricerca di visibilità attraverso l’esposizione dei propri figli è diventata, purtroppo, una pratica comune. Tuttavia, è fondamentale porre l’attenzione su questo fenomeno, ancora più allarmante: l’utilizzo dei deepfake per sfruttare l’immagine delle persone con disabilità. Anche se parlarne potrebbe generare un effetto di emulazione, è essenziale sensibilizzare le famiglie sull’estrema pericolosità di queste pratiche. Il mercato dell’immagine umana, quando non regolamentato, può diventare uno strumento diabolico di sfruttamento, soprattutto per le comunità più vulnerabili. In Italia, la legge prevede pene detentive da 1 a 5 anni per chi crea e diffonde contenuti deepfake che causano danni ingiusti. Tuttavia, la rapidità con cui queste tecnologie si evolvono richiede un costante aggiornamento delle normative e una maggiore consapevolezza da parte del pubblico. Ritengo quindi fondamentale approfondire e diffondere queste informazioni, per proteggere le persone con disabilità e prevenire ulteriori abusi”.
Redazione







