E-Mail: [email protected]
- X Corp. accusata di negligenza per la rimozione di CSAM.
- Un tredicenne segnalò il contenuto, rimosso 9 giorni dopo.
- Australia multa X per 385.000 dollari USA per mancata trasparenza.
- Legislazione australiana vieterà ai minori di 16 anni l'accesso a X.
## X Corp. di Nuovo Sotto Accusa per Negligenza nella Rimozione di Materiale Pedopornografico
La società X Corp., precedentemente nota come Twitter, si trova nuovamente al centro di una controversia legale negli Stati Uniti. Un giudice della Corte d’Appello ha stabilito che X Corp. dovrà difendersi dalle accuse di negligenza nella rimozione di materiale pedopornografico (CSAM) dalla sua piattaforma e nella gestione delle segnalazioni relative a tali contenuti. La decisione rappresenta un colpo di scena in una causa intentata nel 2021, prima del rebranding a X, da due minori che sostengono che Twitter abbia agito con lentezza nella rimozione di contenuti pornografici in cui erano stati costretti a esibirsi da un trafficante.
In precedenza, un collegio di tre giudici aveva riconosciuto a X l’immunità legale grazie alla Sezione 230 del Communications Decency Act, che protegge le piattaforme online dalla responsabilità per i contenuti pubblicati dagli utenti. Tuttavia, il giudice Forrest ha concordato solo parzialmente con questa decisione, ritenendo che X debba rispondere alle accuse di aver reso “troppo difficile segnalare la pornografia infantile pubblicata su Twitter”.
Il caso specifico riguarda due ragazzi, di 13 e 14 anni, ingannati da trafficanti online per inviare foto sessualmente esplicite, poi pubblicate su Twitter. Secondo la denuncia, il tredicenne segnalò il contenuto tramite l’interfaccia di segnalazione di Twitter, ma la madre, dopo aver ricevuto solo una risposta automatica, dovette insistere per ottenere una risposta in cui Twitter dichiarava di non aver riscontrato violazioni delle policy. Il post fu rimosso solo nove giorni dopo la segnalazione iniziale.

## La Battaglia Legale si Estende all’Australia: X Corp. Perde l’Appello sulla Sicurezza dei Minori
Parallelamente, in Australia, X Corp. ha subito un’altra sconfitta legale in un caso riguardante la sicurezza dei minori online. Un tribunale d’appello ha respinto il ricorso di X contro le richieste di un’autorità di controllo australiana, l’eSafety Commissioner, di fornire dettagli sulle misure adottate per contrastare la diffusione di materiale pedopornografico sulla piattaforma.
I giudici hanno anche ordinato a X di pagare le spese legali del commissario. L’eSafety Commissioner, guidato da Julie Inman Grant, si definisce la prima agenzia governativa al mondo dedicata alla sicurezza online. Inman Grant ha promosso una legislazione innovativa che vieterà ai minori australiani di età inferiore ai 16 anni l’accesso alle piattaforme di social media, inclusa X, a partire da dicembre.
La vicenda risale all’inizio del 2023, quando Inman Grant chiese alle principali aziende tecnologiche di riferire sulle azioni intraprese per contrastare il materiale pedopornografico sulle loro piattaforme. Un avviso di segnalazione, emesso ai sensi dell’Online Safety Act australiano, fu inviato a Twitter Inc. nel febbraio di quell’anno. Twitter si è poi fusa con X il mese successivo.
X ha contestato l’obbligo di conformarsi all’ordine di Inman Grant, sostenendo che Twitter non esisteva più come entità legale e che X non aveva ereditato gli obblighi normativi del suo predecessore in Australia.
## Trasparenza vs. Immunità: Un Equilibrio Precario
La decisione del tribunale australiano sottolinea l’importanza della trasparenza e della responsabilità delle piattaforme online nella lotta contro lo sfruttamento minorile. Inman Grant ha accolto con favore la sentenza, affermando che “questo giudizio conferma che gli obblighi di conformarsi alle normative australiane si applicano ancora, indipendentemente dalla fusione di una società straniera con un’altra società straniera”.
Nel 2023, l’ufficio di Inman Grant ha multato X per 610.500 dollari australiani (circa 385.000 dollari USA) per non aver spiegato in modo esaustivo come affrontava i contenuti di sfruttamento minorile. La risposta di X è stata considerata incompleta o fuorviante. X si è rifiutata di pagare e la sanzione è oggetto di un’altra causa federale in corso.
## Verso un Futuro Più Sicuro: Riflessioni sull’Automazione e la Responsabilità Digitale
Le vicende legali che coinvolgono X Corp. in America e Australia sollevano interrogativi cruciali sul ruolo delle piattaforme online nella protezione dei minori e sulla necessità di bilanciare la libertà di espressione con la responsabilità sociale.
*L’automazione dei processi di segnalazione e rimozione dei contenuti illeciti è un aspetto fondamentale per garantire una risposta tempestiva ed efficace. Tuttavia, l’automazione non può sostituire completamente la supervisione umana, soprattutto in casi complessi che richiedono un’analisi contestuale e una valutazione etica.
La scalabilità delle misure di sicurezza è un’altra sfida cruciale, considerando la vastità e la velocità con cui i contenuti vengono condivisi online. Le piattaforme devono investire in tecnologie e risorse umane adeguate per monitorare e moderare i contenuti in modo proattivo.
La trasformazione digitale in atto richiede un ripensamento del modello di business delle piattaforme online, incentivando la creazione di ambienti digitali più sicuri e responsabili. La trasparenza, la collaborazione con le autorità e la responsabilizzazione degli utenti sono elementi chiave per costruire un futuro digitale più sicuro per tutti.
## Conclusione: Un Bivio per l’Ecosistema Digitale
Questi casi rappresentano un punto di svolta per l’ecosistema digitale. Le piattaforme non possono più nascondersi dietro l’immunità legale per giustificare la negligenza nella protezione dei minori.* La società civile, i governi e le aziende devono collaborare per creare un ambiente online più sicuro e responsabile, dove la libertà di espressione non sia un pretesto per lo sfruttamento e l’abuso.
Amici, parliamoci chiaro: l’automazione è fantastica, ma non può essere l’unica risposta. Immaginate un sistema di segnalazione automatizzato che, per eccesso di zelo, blocca anche contenuti innocui. Serve un equilibrio, una sorta di “intelligenza aumentata” dove l’automazione supporta il giudizio umano, non lo sostituisce. Questo è un concetto base, ma fondamentale.
E ora, alziamo un po’ l’asticella. Pensate a un sistema di intelligenza artificiale che non solo identifica i contenuti illeciti, ma prevede anche i comportamenti a rischio, analizzando i pattern di interazione e i segnali predittivi. Un sistema del genere potrebbe intervenire in modo proattivo, offrendo supporto e risorse a chi ne ha bisogno, prima che si verifichi un danno. Questa è automazione avanzata, una vera trasformazione digitale che mette al centro la sicurezza e il benessere delle persone.
Ma la vera domanda è: siamo pronti a fidarci di un sistema del genere? Siamo disposti a cedere un po’ di privacy in cambio di una maggiore sicurezza? La risposta non è semplice, e richiede una riflessione profonda e collettiva. Perché, alla fine, la tecnologia è solo uno strumento. Sta a noi decidere come usarlo.