In Breve (TL;DR)
Grok di X è al centro di uno scandalo globale per la creazione di deepfake pornografici che coinvolgono anche Kate Middleton.
Le istituzioni europee e britanniche hanno avviato inchieste urgenti valutando sanzioni pesanti contro la piattaforma per la violazione delle normative.
Mentre infuriano le polemiche sulla sicurezza, xAI ha paradossalmente annunciato nuovi finanziamenti miliardari, sollevando dubbi sulla responsabilità etica degli investitori.
Il diavolo è nei dettagli. 👇 Continua a leggere per scoprire i passaggi critici e i consigli pratici per non sbagliare.
Una tempesta giudiziaria e mediatica si è abbattuta su X (ex Twitter) e sulla sua intelligenza artificiale, Grok. Al centro dello scandalo, che ha innescato inchieste in diversi Paesi tra cui Regno Unito, Francia e l’intero blocco dell’Unione Europea, c’è la proliferazione incontrollata di immagini di nudo generate dall’AI senza il consenso delle vittime. Il fenomeno, noto come Non-Consensual Intimate Imagery (NCII), ha raggiunto un nuovo livello di gravità con il coinvolgimento di figure di altissimo profilo, tra cui la Principessa del Galles, Kate Middleton, e la scoperta di falle nei sistemi di sicurezza della piattaforma che permettono la creazione di materiale pedopornografico sintetico.
Secondo quanto riportato dalle principali testate internazionali in queste ore, le autorità di regolamentazione stanno valutando sanzioni pesantissime contro la società di Elon Musk. La facilità con cui il chatbot Grok permette agli utenti di “spogliare” virtualmente donne e minori ha sollevato un allarme globale sulla cybersecurity e sull’etica delle startup di intelligenza artificiale, proprio mentre xAI (la società madre di Grok) annunciava un nuovo round di finanziamenti record.

Il caso Kate Middleton e l’allarme della BBC
L’indignazione pubblica è esplosa in seguito a un report diffuso dalla BBC, che ha evidenziato come Grok sia stato utilizzato per generare immagini sessualmente esplicite di Kate Middleton. Secondo l’emittente britannica, la funzione di editing delle immagini dell’AI di X avrebbe permesso agli utenti di caricare foto reali della Principessa – vestita – e di richiedere al software di “rimuovere i vestiti” o di modificarli in abbigliamento intimo succinto. Le immagini risultanti, estremamente realistiche, sono state poi diffuse sulla piattaforma, violando palesemente le policy sulla privacy e sulla dignità della persona.
Non si tratta di casi isolati. Come riportato da Il Post e altre testate italiane, il fenomeno riguarda un numero crescente di donne, celebri e non, vittime di questa forma di violenza digitale. La gravità della situazione è accentuata dal fatto che i filtri di sicurezza (i cosiddetti “guardrails”) di Grok si sono rivelati facilmente aggirabili. In alcuni test condotti dai giornalisti investigativi, il sistema ha generato immagini inappropriate anche partendo da foto di minori, scatenando la reazione immediata delle associazioni per la protezione dell’infanzia.
Le inchieste internazionali: dall’UE al Regno Unito

La reazione delle istituzioni non si è fatta attendere. La Commissione Europea ha intensificato la sua indagine formale contro X ai sensi del Digital Services Act (DSA). Un portavoce della Commissione ha dichiarato che la generazione di deepfake a sfondo sessuale, in particolare quelli che coinvolgono minori, è considerata una priorità assoluta. Bruxelles sta verificando se X abbia violato gli obblighi di mitigazione dei rischi sistemici, esponendo la piattaforma a multe che potrebbero raggiungere il 6% del suo fatturato globale.
Parallelamente, nel Regno Unito, l’Ofcom (l’autorità regolatrice per le comunicazioni) ha preso contatti urgenti con i vertici di X. Il governo britannico, attraverso il Ministro della Tecnologia, ha definito “inaccettabile” la proliferazione di questi contenuti, minacciando azioni legali immediate. Anche la Francia si è mossa con decisione: la Procura di Parigi ha ampliato un’inchiesta già esistente, includendo ora le accuse legate alla creazione e diffusione di materiale pedopornografico generato dall’intelligenza artificiale.
Il paradosso finanziario e la difesa di X

In un contesto che per molti analisti segnerebbe la fine di una normale azienda tecnologica, xAI ha paradossalmente annunciato proprio in queste ore il completamento di un round di finanziamenti di serie E da 20 miliardi di dollari. Questo disallineamento tra il successo finanziario della startup e le sue criticità etiche e legali ha sollevato dubbi sulla responsabilità degli investitori nel settore della tecnologia.
X, dal canto suo, ha risposto alle accuse affermando di essere al lavoro per rafforzare i filtri di sicurezza di Grok e di aver già rimosso migliaia di account responsabili della generazione di contenuti illeciti. Tuttavia, secondo Il Fatto Quotidiano, le misure attuali appaiono insufficienti di fronte alla velocità di diffusione dei contenuti virali. Esperti di cybersecurity sottolineano che il problema risiede nell’architettura stessa dei modelli generativi open-weight o scarsamente limitati, che permettono agli utenti malintenzionati di sfruttare la potenza di calcolo dell’AI per scopi abusivi prima che i moderatori possano intervenire.
Conclusioni

La vicenda di Grok e delle immagini non consensuali di Kate Middleton segna uno spartiacque nella regolamentazione dell’intelligenza artificiale. Se fino a ieri il dibattito era teorico, oggi le conseguenze tangibili sulla vita delle persone e sulla sicurezza dei minori sono evidenti. Le inchieste avviate in Europa e nel Regno Unito rappresentano il primo vero banco di prova per il DSA e per le nuove normative sulla sicurezza online: l’esito di questo scontro tra regolatori e Big Tech definirà probabilmente gli standard globali per lo sviluppo dell’AI nei prossimi anni.
Domande frequenti

Un report della BBC ha svelato che l’intelligenza artificiale Grok è stata utilizzata per creare immagini di nudo false della Principessa del Galles. Gli utenti hanno sfruttato la funzione di editing per rimuovere virtualmente i vestiti da foto reali, generando contenuti sessualmente espliciti senza consenso. Questo episodio ha evidenziato gravi falle nei sistemi di sicurezza della piattaforma di Elon Musk, portando alla luce la facilità con cui è possibile violare la privacy di figure pubbliche e privati cittadini.
La società rischia sanzioni molto pesanti, in particolare da parte dell’Unione Europea. La Commissione Europea ha intensificato le indagini basandosi sul Digital Services Act, valutando multe che potrebbero arrivare al 6 per cento del fatturato globale di X se venisse accertata la violazione degli obblighi di mitigazione dei rischi. Anche il Regno Unito e la Francia hanno avviato inchieste parallele, minacciando azioni legali immediate per la mancata protezione degli utenti e dei minori.
Le inchieste hanno dimostrato che i sistemi di protezione di Grok, noti come guardrails, si sono rivelati facilmente aggirabili. Nonostante le policy dichiarate, il software ha permesso la modifica di foto di donne e persino di minori in contesti sessualmente espliciti. Gli esperti di cybersecurity attribuiscono il problema all’architettura dei modelli generativi scarsamente limitati, che consentono agli utenti malintenzionati di sfruttare la potenza di calcolo per scopi abusivi prima che i moderatori possano intervenire.
L’acronimo NCII sta per Non-Consensual Intimate Imagery e indica la creazione o diffusione di immagini intime senza il consenso del soggetto ritratto. Nel caso dello scandalo Grok, l’intelligenza artificiale è stata usata come strumento per perpetrare questa forma di violenza digitale, permettendo a chiunque di generare falsi nudi realistici partendo da normali fotografie vestite, violando gravemente la dignità e la privacy delle vittime.
Si è verificato un paradosso finanziario notevole. Mentre X affrontava una tempesta mediatica e giudiziaria per i contenuti illeciti generati da Grok, la società madre xAI ha annunciato il completamento di un round di finanziamenti record da 20 miliardi di dollari. L’azienda ha dichiarato di essere al lavoro per rafforzare i filtri e rimuovere gli account colpevoli, ma il successo della raccolta fondi suggerisce che gli investitori abbiano ignorato le criticità etiche e legali emerse.
Fonti e Approfondimenti
- Commissione Europea – Il pacchetto legge sui servizi digitali (DSA)
- Commissione Europea – Richiesta formale di informazioni a X sui rischi dell’IA generativa
- Ofcom (UK) – Autorità regolatrice per la sicurezza online e i media
- GOV.UK – Guida istituzionale all’Online Safety Act del Regno Unito
- Wikipedia – Approfondimento tecnico sul fenomeno Deepfake

Hai trovato utile questo articolo? C'è un altro argomento che vorresti vedermi affrontare?
Scrivilo nei commenti qui sotto! Prendo ispirazione direttamente dai vostri suggerimenti.