COMBATE AL CSAM

In2me lucha contra la creación y distribución de material de abuso sexual infantil (CSAM).
In2me está construyendo la plataforma de medios digitales más segura del mundo. No toleramos el CSAM en nuestra plataforma y trabajamos activamente para bloquearlo. La creación o distribución de CSAM es inmoral, errónea, ilegal y va en contra de nuestras Condiciones de servicio y nuestra Política de uso aceptable.
We have a dedicated team of people who work around the clock to prevent and swiftly remove any suspected CSAM from our platform.

Qué es el CSAM?

El CSAM es cualquier imagen o video de conducta sexual explícita, incluida la desnudez, que involucre a una persona menor de 18 años. Estas imágenes constituyen abuso y explotación sexual infantil.

Con qué frecuencia aparece el CSAM en In2me?

In2me actúa agresivamente contra las personas que crean o intentan usar nuestra plataforma para distribuir CSAM.
Los incidentes sospechosos de CSAM representan menos del 0.0002% de todo el contenido enviado por los creadores para publicarse en In2me. Reportamos todos los incidentes sospechosos de CSAM a NCMEC. Cada imagen o video sospechoso es bloqueado y eliminado de la plataforma mientras lo investigamos. Muchas de esas imágenes sospechosas no resultan ser CSAM y/o son bloqueadas antes de aparecer en In2me.

Cómo identifica In2me el CSAM en su plataforma?

Escaneamos continuamente nuestra plataforma para prevenir la publicación de CSAM. Todos nuestros moderadores de contenido están capacitados para identificar y reportar rápidamente cualquier CSAM sospechoso.
Antes de que el contenido aparezca en un feed de noticias, lo inspeccionamos con tecnologías digitales de última generación para verificar si el contenido está permitido en la plataforma. Todo contenido que pase esta revisión inicial es luego revisado manualmente por nuestros moderadores humanos capacitados dentro de las 24 horas. Nuestros moderadores entrenados identifican y escalan inmediatamente cualquier contenido que sospechen pueda ser CSAM.

Qué busca In2me al intentar identificar el CSAM?

Antes de que cualquier contenido pueda aparecer en el feed de noticias de un creador, lo comparamos con bases de datos y herramientas usadas por las fuerzas del orden para prevenir la distribución de CSAM conocidos.
El CSAM puede ser más difícil de identificar si es “nuevo” CSAM, es decir, material que aún no forma parte de las bases de datos y herramientas usadas por las fuerzas del orden. Por eso inspeccionamos minuciosamente imágenes, textos y archivos de sonido para buscar posibles “nuevos” CSAM. Nuestra tecnología y nuestro personal trabajan juntos para reportar el CSAM sospechoso que no ha sido identificado previamente. Cuando se confirma, pasamos esta información a las fuerzas del orden y organizaciones no gubernamentales para ayudar a identificar a los perpetradores.

Qué sucede cuando In2me encuentra CSAM sospechoso en su plataforma?

Cuando identificamos CSAM sospechoso, lo eliminamos inmediatamente y hacemos un reporte a la “CyberTipline” del National Center for Missing & Exploited Children (NCMEC).
NCMEC revisa estos reportes y los comparte con las fuerzas del orden adecuadas en todo el mundo para que puedan combatir el CSAM. Trabajamos estrechamente con las fuerzas del orden para investigar, enjuiciar y castigar a cualquier persona que intente usar nuestra plataforma para crear o distribuir CSAM.
Investigamos de inmediato a cualquier usuario que intente compartir CSAM sospechoso en In2me y tomamos las medidas apropiadas. Prohibimos a cualquiera que intente crear o distribuir CSAM en In2me.

Cómo puede In2me saber si un mensaje directo u otra publicación privada contiene material CSAM? ¿Están cifrados estos mensajes y contenido?

In2me no usa cifrado de extremo a extremo. Todo en el sitio es visible para nuestro equipo de revisores entrenados. No hay publicaciones “ocultas”, áreas “secretas” ni mensajes que desaparecen en In2me.
Podemos revisar y eliminar cualquier imagen o video compartido en In2me en cualquier momento, incluyendo en todos los mensajes directos.

El modelo de suscripción de In2me facilita la distribución de CSAM?

No. Nuestro modelo de suscripción dificulta que las personas creen y distribuyan CSAM.
Para suscribirse a contenido o publicar contenido en In2me, los usuarios deben pasar nuestras estrictas verificaciones de identidad. A diferencia de muchas otras plataformas digitales, conocemos la identidad legal de todos nuestros usuarios. Nadie puede publicar de forma anónima en In2me.
Porque nuestros usuarios no son anónimos y no usamos cifrado de extremo a extremo, es menos probable que intenten crear o distribuir CSAM. Si alguien lo intenta, sabemos quién es, lo reportamos y lo bloqueamos de In2me.

Cómo reporto CSAM sospechoso?

Cada publicación y cuenta en In2me tiene un botón para reportar. Si ves contenido en In2me que sospechas es CSAM, repórtalo usando el botón de reporte. Si recibes un mensaje directo en In2me que contiene CSAM o contenido sospechoso, también puedes reportar ese mensaje haciendo clic en la opción “Reportar” en el mensaje. support@in2me.com.

Cómo puedo confiar en que In2me toma este problema en serio?

In2me está comprometido con construir la plataforma de redes sociales más segura del mundo. Asumimos la responsabilidad de nuestras acciones y publicamos regularmente datos que prueban los pasos que estamos tomando. Estos datos se encuentran en nuestros Informes de Transparencia..
También hemos dado un paso más estableciendo un monitor independiente de terceros para verificar los procesos que tenemos en marcha para combatir la creación y distribución de CSAM.

Qué más hacen para prevenir la creación o distribución de CSAM?

Trabajamos estrechamente con gobiernos, reguladores, fuerzas del orden, organizaciones no gubernamentales, organizaciones benéficas y otras empresas en la lucha contra el CSAM.
Recibimos y actuamos sobre inteligencia de nuestros socios de seguridad sobre tendencias emergentes relacionadas con la seguridad infantil y la prevención de infractores. También trabajamos proactivamente con investigadores y analistas para identificar tácticas, técnicas y procedimientos utilizados por actores maliciosos que crean y distribuyen CSAM en línea, para impedir que tengan éxito.
Además de colaborar estrechamente con NCMEC para reportar cualquier caso de CSAM en nuestra plataforma a través de la CyberTipline de NCMEC, también formamos parte de la iniciativa Take It Down de NCMEC. Take It Down es un servicio de apoyo disponible para personas menores de 18 años preocupadas por contenido explícito auto-generado (considerado CSAM) que se pueda compartir en línea. Las personas pueden usar la herramienta para “hashear” la imagen que les preocupa y evitar que se publique en línea: Take It Down – NCMEC

Si deseas saber más sobre nuestra lucha contra la creación y distribución de CSAM, por favor escríbenos a compliance@in2me.io.

es_ESSpanish