LOTTA AL CSAM
In2me lotta contro la creazione e la distribuzione di materiale di abuso sessuale su minori (CSAM).
In2me sta costruendo la piattaforma di media digitali più sicura al mondo. Non tolleriamo il CSAM sulla nostra piattaforma e lavoriamo attivamente per bloccarlo. La creazione o la distribuzione di CSAM è immorale, sbagliata, illegale e contraria ai nostri Termini di servizio e alla nostra Politica d'uso accettabile.
We have a dedicated team of people who work around the clock to prevent and swiftly remove any suspected CSAM from our platform.
Cos'è il CSAM?
Il CSAM è qualsiasi immagine o video di contenuti sessualmente espliciti, inclusa la nudità, che coinvolga una persona di età inferiore ai 18 anni. Queste immagini equivalgono ad abusi sessuali e sfruttamento di minori.
Quanto spesso appare il CSAM su In2me?
In2me prende di mira e segnala con decisione le persone che creano o tentano di usare la nostra piattaforma per distribuire CSAM.
Gli incidenti di CSAM sospetto costituiscono meno dello 0,0002% di tutti i contenuti inviati dai creatori per essere pubblicati su In2me. Segnaliamo tutti i casi sospetti di CSAM al NCMEC. Ogni immagine o video sospetto viene bloccato e rimosso dalla piattaforma durante l’indagine. Molte di queste immagini sospette non risultano essere CSAM e/o vengono bloccate prima di apparire su In2me.
Come identifica In2me il CSAM sulla sua piattaforma?
Scansioniamo continuamente la nostra piattaforma per impedire la pubblicazione di CSAM. Tutti i nostri moderatori di contenuti sono addestrati a identificare e segnalare rapidamente qualsiasi sospetto CSAM.
Prima che il contenuto appaia nel feed di notizie, lo ispezioniamo con tecnologie digitali all’avanguardia per verificare se il contenuto è consentito sulla piattaforma. Tutti i contenuti che superano questa prima revisione vengono poi esaminati manualmente dai nostri moderatori umani entro 24 ore. I nostri moderatori addestrati identificano e segnalano immediatamente qualsiasi contenuto sospetto di essere CSAM.
Cosa cerca In2me quando cerca di identificare il CSAM?
Prima che qualsiasi contenuto possa apparire nel feed di notizie di un creatore, lo confrontiamo con database e strumenti utilizzati dalle forze dell’ordine per prevenire la distribuzione di CSAM noti.
Il CSAM può essere più difficile da identificare se si tratta di “nuovo” CSAM, cioè materiale non ancora presente nei database e negli strumenti delle forze dell’ordine. Perciò ispezioniamo attentamente immagini, testi e file audio alla ricerca di possibili “nuovi” CSAM. La nostra tecnologia e il nostro personale lavorano insieme per segnalare il CSAM sospetto che non è stato precedentemente identificato. Quando confermato, passiamo queste informazioni alle forze dell’ordine e alle organizzazioni non governative per aiutare a identificare i responsabili.
Cosa succede quando In2me trova CSAM sospetto sulla sua piattaforma?
Quando identifichiamo CSAM sospetto, lo rimuoviamo immediatamente e facciamo una segnalazione tramite la “CyberTipline” al National Center for Missing & Exploited Children (NCMEC).
NCMEC esamina queste segnalazioni e le condivide con le forze dell’ordine competenti in tutto il mondo affinché possano combattere il CSAM. Collaboriamo strettamente con le forze dell’ordine per investigare, perseguire e punire chiunque tenti di usare la nostra piattaforma per creare o distribuire CSAM.
Indaghiamo immediatamente su qualsiasi utente che tenta di condividere CSAM sospetto su In2me e prendiamo le misure appropriate. Banniamo chiunque tenti di creare o distribuire CSAM su In2me.
Come può In2me sapere se un messaggio diretto o un altro post privato contiene materiale CSAM? Questi post e contenuti sono criptati?
In2me non usa la crittografia end-to-end. Tutto sul sito è visibile al nostro team di revisori addestrati. Non ci sono post “nascosti”, aree “segrete” o messaggi che scompaiono su In2me.
Possiamo rivedere e rimuovere qualsiasi immagine o video condiviso su In2me in qualsiasi momento, inclusi tutti i messaggi diretti.
Il modello di abbonamento di In2me consente la distribuzione di CSAM?
No. Il nostro modello di abbonamento rende più difficile per le persone creare e distribuire CSAM.
Per iscriversi a contenuti o per pubblicare contenuti su In2me, gli utenti devono superare i nostri rigorosi controlli di verifica dell’identità. A differenza di molte altre piattaforme digitali, conosciamo l’identità legale di tutti i nostri utenti. Nessuno può postare in modo anonimo su In2me.
Poiché i nostri utenti non sono anonimi e non usiamo la crittografia end-to-end, è meno probabile che gli utenti di In2me provino a creare o distribuire CSAM. Se un utente prova a farlo, sappiamo chi è, lo segnaliamo e lo banniamo da In2me.
Come posso segnalare CSAM sospetto?
Ogni post e account su In2me ha un pulsante per segnalare. Se vedi contenuti su In2me che sospetti siano CSAM, segnalali usando il pulsante di segnalazione. Se ricevi un messaggio diretto su In2me contenente CSAM o contenuti sospetti, puoi segnalarlo cliccando sull’opzione “Segnala” nel messaggio. support@in2me.com.
Come posso fidarmi che In2me prenda sul serio questa problematica?
In2me si impegna a costruire la piattaforma social media più sicura al mondo. Ci assumiamo la responsabilità delle nostre azioni e pubblichiamo regolarmente dati che dimostrano i passi che stiamo compiendo. Questi dati si trovano nei nostri Rapporti di Trasparenza..
Abbiamo anche fatto un ulteriore passo avanti istituendo un monitor indipendente di terze parti per controllare i processi che abbiamo messo in atto per combattere la creazione e la distribuzione di CSAM.
Cos’altro fate per prevenire la creazione o distribuzione di CSAM?
Collaboriamo strettamente con governi, regolatori, forze dell’ordine, organizzazioni non governative, enti di beneficenza e altre aziende nella lotta contro il CSAM.
Riceviamo e agiamo in base alle informazioni fornite dai nostri partner per la sicurezza su nuove tendenze relative alla sicurezza dei minori e alla prevenzione degli autori. Lavoriamo inoltre proattivamente con ricercatori e analisti per identificare tattiche, tecniche e procedure usate dagli autori di CSAM online, per impedirne il successo.
Oltre a collaborare con NCMEC per segnalare qualsiasi caso di CSAM sulla nostra piattaforma tramite la CyberTipline di NCMEC, facciamo anche parte dell’iniziativa Take It Down di NCMEC. Take It Down è un servizio di supporto disponibile per individui sotto i 18 anni preoccupati che contenuti espliciti auto-generati (considerati CSAM) possano essere condivisi online. Gli individui possono usare lo strumento per “hashare” l’immagine di cui sono preoccupati e impedire che venga pubblicata online: Take It Down – NCMEC
Se desideri saperne di più sulla nostra lotta contro la creazione e distribuzione di CSAM, ti preghiamo di scrivere a compliance@in2me.io.