BEKÄMPFUNG VON CSAM

In2me kämpft gegen die Erstellung und Verbreitung von kinderpornografischem Material (CSAM).
In2me ist dabei, die sicherste digitale Medienplattform der Welt aufzubauen. Wir dulden keine CSAM auf unserer Plattform und arbeiten aktiv daran, sie zu blockieren. Die Erstellung oder Verbreitung von CSAM ist unmoralisch, falsch, illegal und verstößt gegen unsere Nutzungsbedingungen und unsere Acceptable Use Policy.
We have a dedicated team of people who work around the clock to prevent and swiftly remove any suspected CSAM from our platform.

Was ist CSAM?

CSAM ist jedes Bild oder Video von sexuell expliziten Handlungen, einschließlich Nacktheit, die eine Person unter 18 Jahren zeigen. Diese Bilder stellen sexuellen Missbrauch und Ausbeutung von Kindern dar.

Wie oft erscheint CSAM auf In2me?

In2me geht aggressiv gegen Personen vor und meldet sie, die versuchen, unsere Plattform zur Verbreitung von CSAM zu nutzen.
Verdächtige CSAM-Vorfälle machen weniger als 0,0002 % aller von Erstellern eingereichten Inhalte zur Veröffentlichung auf In2me aus. Wir melden alle verdächtigen CSAM-Vorfälle an das NCMEC. Jedes verdächtige Bild oder Video wird blockiert und von der Plattform entfernt, während wir es untersuchen. Viele dieser verdächtigen Bilder entpuppen sich tatsächlich nicht als CSAM und/oder werden blockiert, bevor sie auf In2me erscheinen.

Wie erkennt In2me CSAM auf seiner Plattform?

Wir scannen unsere Plattform kontinuierlich, um die Veröffentlichung von CSAM zu verhindern. Alle unsere Inhaltsmoderatoren sind geschult, verdächtige CSAM schnell zu erkennen und zu melden.
Bevor Inhalte in einem Newsfeed erscheinen, prüfen wir diese mit modernster digitaler Technologie, um zu kontrollieren, ob die Inhalte auf der Plattform erlaubt sind. Alle Inhalte, die diese Erstprüfung bestehen, werden innerhalb von 24 Stunden von unseren geschulten menschlichen Moderatoren manuell überprüft. Unsere Moderatoren erkennen und melden sofort jegliche Inhalte, die sie für CSAM halten.

Worauf achtet In2me bei der Identifikation von CSAM?

Bevor Inhalte im Newsfeed eines Erstellers erscheinen können, vergleichen wir sie mit Datenbanken und Werkzeugen der Strafverfolgungsbehörden, um die Verbreitung bekannter CSAM zu verhindern.
CSAM kann schwerer zu erkennen sein, wenn es sich um „neues“ CSAM handelt, also Material, das noch nicht in den Datenbanken und Werkzeugen der Strafverfolgungsbehörden enthalten ist. Deshalb überprüfen wir Bilder, Texte und Audiodateien genau auf mögliche „neue“ CSAM. Unsere Technologie und unser Personal arbeiten zusammen, um verdächtiges CSAM zu melden, das bisher nicht identifiziert wurde. Nach Bestätigung geben wir diese Informationen an Strafverfolgungsbehörden und NGOs weiter, um die Täter zu identifizieren.

Was passiert, wenn In2me verdächtiges CSAM auf seiner Plattform findet?

Wenn wir verdächtiges CSAM identifizieren, entfernen wir es sofort und melden es über die „CyberTipline“ an das National Center for Missing & Exploited Children (NCMEC).
Das NCMEC überprüft diese Meldungen und teilt sie mit den zuständigen Strafverfolgungsbehörden weltweit, damit sie gegen CSAM vorgehen können. Wir arbeiten eng mit den Strafverfolgungsbehörden zusammen, um Personen zu untersuchen, zu verfolgen und zu bestrafen, die versuchen, unsere Plattform zur Erstellung oder Verbreitung von CSAM zu nutzen.
Wir untersuchen sofort jeden Nutzer, der versucht, verdächtiges CSAM auf In2me zu teilen, und ergreifen geeignete Maßnahmen. Wir sperren jeden, der versucht, CSAM auf In2me zu erstellen oder zu verbreiten.

Wie kann In2me feststellen, ob eine Direktnachricht oder ein anderer privater Beitrag CSAM enthält? Sind diese Beiträge und Inhalte verschlüsselt?

In2me verwendet keine End-to-End-Verschlüsselung. Alles auf der Seite ist für unser Team von geschulten Prüfern sichtbar. Es gibt keine „versteckten“ Beiträge, „geheimen“ Bereiche oder sich selbst löschenden Nachrichten auf In2me.
Wir können jederzeit jedes Bild oder Video, das auf In2me geteilt wird, einschließlich in Direktnachrichten, überprüfen und entfernen.

Ermöglicht das Abonnementmodell von In2me die Verbreitung von CSAM?

Nein. Unser Abonnementmodell macht es schwieriger für Personen, CSAM zu erstellen und zu verbreiten.
Um Inhalte zu abonnieren oder auf In2me Inhalte zu posten, müssen Nutzer unsere strengen Identitätsprüfungen bestehen. Im Gegensatz zu vielen anderen digitalen Medienplattformen kennen wir die rechtliche Identität aller unserer Nutzer. Niemand kann anonym auf In2me posten.
Da unsere Nutzer nicht anonym sind und wir keine End-to-End-Verschlüsselung verwenden, ist es für In2me-Nutzer weniger wahrscheinlich, dass sie versuchen, CSAM zu erstellen oder zu verbreiten. Falls ein Nutzer versucht, CSAM auf unserer Plattform zu erstellen oder zu verbreiten, wissen wir, wer er ist, melden ihn und sperren ihn von In2me.

Wie melde ich verdächtiges CSAM?

Jeder Beitrag und jedes Konto auf In2me hat eine Meldefunktion. Wenn Sie auf In2me Inhalte sehen, die Sie für CSAM halten, melden Sie diese bitte mit der Meldefunktion. Wenn Sie eine Direktnachricht auf In2me erhalten, die CSAM oder verdächtige Inhalte enthält, können Sie auch diese Nachricht melden, indem Sie die Option „Melden“ in der Nachricht wählen. support@in2me.com.

Wie kann ich darauf vertrauen, dass In2me dieses Problem ernst nimmt?

In2me hat sich verpflichtet, die sicherste Social-Media-Plattform der Welt zu schaffen. Wir übernehmen Verantwortung für unser Handeln und veröffentlichen regelmäßig Daten, die belegen, welche Schritte wir unternehmen. Diese Daten sind in unseren Transparenzberichten zu finden..
Wir sind noch einen Schritt weiter gegangen und haben einen unabhängigen Dritten beauftragt, die Prozesse zu überprüfen, die wir zum Kampf gegen die Erstellung und Verbreitung von CSAM implementiert haben.

Was tun Sie sonst noch, um die Erstellung oder Verbreitung von CSAM zu verhindern?

Wir arbeiten eng mit Regierungen, Aufsichtsbehörden, Strafverfolgungsbehörden, Nichtregierungsorganisationen, Wohltätigkeitsorganisationen und anderen Unternehmen im Kampf gegen CSAM zusammen.
Wir erhalten und handeln auf Basis von Informationen unserer Sicherheits-Partner über aktuelle Trends im Bereich Kindersicherheit und Täterprävention. Außerdem arbeiten wir proaktiv mit Forschern und Analysten zusammen, um die Taktiken, Techniken und Vorgehensweisen der Personen zu identifizieren, die CSAM online erstellen und verbreiten, um deren Erfolg zu verhindern.
Neben der engen Zusammenarbeit mit NCMEC zur Meldung von CSAM-Fällen über die CyberTipline von NCMEC sind wir auch Teil der „Take It Down“-Initiative von NCMEC. Take It Down ist ein Unterstützungsdienst für Personen unter 18 Jahren, die sich Sorgen machen, dass selbst erstellte explizite Inhalte (die als CSAM gelten) online geteilt werden. Betroffene können das Tool nutzen, um das betreffende Bild „zu hashen“ und so dessen Veröffentlichung im Internet zu verhindern: Take It Down – NCMEC

Wenn Sie mehr über unseren Kampf gegen die Erstellung und Verbreitung von CSAM erfahren möchten, senden Sie bitte eine E-Mail an compliance@in2me.io.

de_DEGerman