Als die EU-Kommission vor fast vier Jahren den Entwurf eines Gesetzes für ein „besseres Internet“ vorstellte, dachte wohl niemand zuerst an Pornoplattformen. Das Gesetz sollte die Grundrechte derjenigen besser schützen, die auf großen Plattformen und Online-Shops unterwegs sind, sollte strafbarer Hetze und politischer Radikalisierung einen Riegel vorschieben. Gemeint waren: TikTok, Instagram, Amazon, Google.
Dann aber trat das Digitale-Dienste-Gesetz (DSA) vergangenes Jahr in Kraft und kurz darauf ernannte die Kommission auch drei Pornoseiten zu „sehr großen Online-Plattformen“ („VLOPs“) – Seiten also, die viele nicht als Tech-Riesen auf dem Schirm hatten.
Pornhub, XVideos und die Seiten rund um xHamster sind zweifellos Giganten im Netz. Gemessen an der Zahl der Aufrufe liegen die meistbesuchten Pornoseiten weit vor Netflix. Weil sie aber Pornografie zeigen, gehören sie in der öffentlichen Wahrnehmung zu den Außenseitern. Es sind Websites, die viele wohl schnell zumachen, wenn jemand anderes am Bildschirm vorbeigeht, und um die auch viele Nachrichtenmedien einen Bogen machen.
Die Branche gilt als schwer zu regulieren. Zahlungsdienstleister wie Visa und Mastercard waren in der Vergangenheit weitaus effektiver als Regierungen, wenn es darum geht, Pornhub zu strikterer Moderation von Inhalten und der Prüfung von Einvernehmlichkeit zu bewegen.
Das könnte sich nun ändern, denn aus Sicht der EU ist es egal, ob eine Plattform Einrichtungstipps, politische Meinungen oder Pornografie zeigt: Wenn sie in der EU aktiv ist, gilt für sie seit Kurzem das Digitale-Dienste-Gesetz. Und wenn sie mehr als 45 Millionen monatliche Nutzer:innen in der EU hat, gilt sie zusätzlich als „sehr große Online-Plattform“ und muss noch striktere Auflagen erfüllen.
Hier kommt der Überblick, welche Auflagen nun für Pornoseiten gelten, und wie sie sich auswirken; einerseits für die Menschen, die sich auf diesen Seiten beim Sex zeigen; andererseits für die Menschen, die ihnen dabei zusehen.
1. Transparenz schaffen – etwa über Moderations-Teams
Pornoplattformen gewähren ungern Einblicke: In ihre Moderationspraktiken, die Zahl der Mitarbeiter:innen oder ihre Einnahmen. Im Fall von XVideos oder dem Konkurrenten xHamster war lange nicht mal klar, wer hinter den verschlungenen Firmenkonstrukten steht.
Schon gar nicht geben Plattformen gerne Auskunft dazu, wie häufig bestimmte Straftaten auf ihrer Seite entdeckt werden, etwa wenn jemand Aufnahmen ohne das Einverständnis der Gezeigten hochgeladen hat oder Minderjährige in Videos zu sehen sind. In der Vergangenheit landete solches strafbare Material wiederholt über die großen Pornoseiten öffentlich im Netz.
Diese Geheimnistuerei soll sich mit dem neuen Gesetz ändern. Demnach müssen Anbieter in Zukunft einen jährlichen Bericht erstellen (Artikel 15). Darin werden sie eine Fülle von Details auflisten müssen, etwa wie viele Löschanordnungen sie für welche Art von illegalen Inhalten bekommen haben und aus aus welchem Land diese kamen. Außerdem müssen sie Auskunft darüber geben, wie sie selbst diese Inhalte moderieren, wie sie Mitarbeitende dafür schulen und welche automatisierten Verfahren – Stichwort „Künstliche Intelligenz“ – sie dabei verwenden, inklusive deren Fehlerquoten bei der Erkennung. Diese Regeln gelten für alle Plattformen, die in der EU aktiv sind. Ausnahmen gibt es nur für „Kleinunternehmen“ mit wenigen Mitarbeitenden.
2. Noch mehr Transparenz schaffen – wenn man „sehr groß“ ist
Für die „sehr großen“ Plattformen gelten noch viel weiter reichende Transparenzauflagen (Artikel 42). Sie müssen darüber hinaus etwa auch bekannt geben, wie viel Personal sie in der Moderation beschäftigen und welche Sprachen die Angestellten sprechen. Sie müssen regelmäßig zur Zahl ihrer monatlichen Nutzer:innen in der EU informieren. Ihre Berichte müssen sie außerdem im schnelleren Takt veröffentlichen: alle sechs Monate statt jährlich.
Ende vergangenen Jahres hat die EU-Kommission Pornhub und XVideos und Stripchat – eine Seite aus der xHamster-Familie – zu solche Riesen erklärt. Stripchat und Pornhub kämpfen derzeit vor Gericht gegen diese Einschätzung. Beide behaupten, weniger als 45 Millionen Nutzer:innen in der EU zu haben und haben das zuständige Gericht gebeten, die Auflagen auszusetzen. Die Kommission nimmt ihnen das nicht ab und hatte auf Grundlage eigener Nachforschungen entschieden, die Plattformen gehörten dennoch in den Club der Riesen.
Auch XVideos, das 160 Millionen monatliche EU-Nutzer:innen angibt, hat Berichten zufolge Klage eingereicht. Anlass ist etwa die Verpflichtung, Werbe-Anzeigen offenzulegen, wie Politico berichtete. Auf Anfrage hat XVideos sich bislang nicht dazu geäußert.
3. Risiken einschätzen – etwa für bildbasierte Gewalt
Die Berichte der VLOPs müssen auch deswegen wesentlich umfangreicher ausfallen, weil sie darin zwei weitere Auflagen bedienen müssen. Sie müssen systemische Risiken auf ihren Seiten selbst einschätzen (Artikel 34). Und sie müssen gleichzeitig eigene Lösungswege dafür vorstellen, wie sie diesen Risiken begegnen (Artikel 35) – etwa durch schnellere Moderation oder Änderungen ihrer Geschäftsbedingungen.
Als Beispiele für Risiken, die hier auftreten könnten, nennt das Gesetz etwa: die „Verbreitung rechtswidriger Inhalte“, aber auch das Grundrecht der Achtung des Privatlebens, der Schutz von persönlichen Daten oder die nachteilige Auswirkung auf Wahlen.
Wahlmanipulation dürfte für Pornoplattformen wohl eher eine untergeordnete Rolle spielen, politische Werbung ist auf Pornhub nach eigenen Angaben ohnehin verboten. Umso bedeutsamer könnte dafür dieses Risiko werden, für das betroffene Plattformen Lösungswege vorstellen müssen: „alle tatsächlichen oder absehbaren nachteiligen Auswirkungen in Bezug auf geschlechtsspezifische Gewalt“.
Dies wird vor allem auf sogenannten Tube-Seiten wie XVideos und Pornhub eine Rolle spielen, wo praktisch alle Nutzer:innen einen Account anlegen und nach Belieben Inhalte hochladen können, ähnlich wie bei YouTube. Regelmäßig landeten dadurch nicht-einvernehmliche Deepfakes oder anderes Material gegen den Willen der Gezeigten im Netz. Fachleute bezeichnen diese Phänomene als bildbasierte Gewalt.
Mehr Einblick in diesen undurchsichtigen Bereich ist wohl einer der größten Vorteile, den das neue Gesetz in Bezug auf die Pornoplattformen bietet. Durch die Berichte hätte man erstmals statistische Daten über das Ausmaß geschlechtsspezifischer Gewalt auf solchen Plattformen, sagt etwa Elizabeth Ávila González vom Bundesverband der Frauenberatungsstellen und -notrufe (bff).
Wir hatten für eine frühere Recherche auf XVideos stichprobenartig mutmaßlich illegale Videos gemeldet; es ging um Material, das offenbar sexualisierte Gewalt zeigt. Die Plattform hatte die gemeldeten Videos nach der Recherche entfernt. Doch ob verdächtige Aufnahmen möglicherweise einvernehmlich sind, lässt sich von Außen nicht eindeutig erkennen.
Auch Pornhub hat eine lange Geschichte mit sexualisierter Gewalt. Betroffene von nicht-einvernehmlichen Uploads berichten, dass sie noch vor wenigen Jahren bei der Plattform darum betteln mussten, dass Videos von ihnen entfernt werden. Pornhub hatte außerdem eine öffentlich beworbene Zusammenarbeit mit der Produktionsfirma Girls Do Porn, gegen die zu diesem Zeitpunkt schon mehrere Frauen geklagt hatten, weil sie für Filmaufnahmen zum Sex gezwungen wurden.
Nachdem Medien über diese Missstände berichtet hatten und die Kreditkartenunternehmen den Druck erhöhten, hat Pornhub in einer Hauruck-Aktion mehrere Millionen Videos von nicht verifizierten Nutzer:innen gelöscht. Heute gehören Pornhubs Verfahren zur Prüfung von Einvernehmlichkeit zu den strengsten in der Branche. Seit Anfang des Jahres müssen Darsteller:innen nicht nur für sich und alle Co-Darsteller:innen Identitätsnachweise liefern, bevor sie Videos hochladen dürfen, sondern auch deren schriftliche Zustimmung nachweisen.
Auch Stripchat hält die EU für eine VLOP. Das ist ist eine Cam-Seite, das heißt Darsteller:innen performen dort live vor der Kamera. Das Zuschauen ist zunächst kostenlos, Nutzer:innen können aber Trinkgeld geben oder für private Vorführungen bezahlen. Die Gefahr bei diesem Geschäft besteht vor allem darin, dass Menschen gegen ihren Willen zur Arbeit auf der Plattform gedrängt werden. Auch Lösungen für solche Risiken müsste Stripchat laut Digitale-Dienste-Gesetz wohl entwerfen.
4. Risiken mindern – womöglich mit Alterskontrollen
Die Vorschriften zur Risikominimierung bergen zugleich die größte Gefahr, die das Digitale-Dienste-Gesetz für Grundrechte birgt – in einem unscheinbaren Halbsatz. Denn um Kinder und Jugendliche von Pornos fernzuhalten, könnte das Gesetz Pornoplattformen dazu bringen, Alterskontrollen einzuführen. Das würde dann nicht nur Minderjährige treffen, sondern alle Nutzer:innen, und damit viele Millionen Menschen, die täglich diese Seiten aufrufen.
Das Digitale-Dienste-Gesetz schreibt Plattformen nicht vor, dass sie Alterskontrollen einführen müssen, es ist nur eine ausdrücklich genannte Option, um systemische Risiken zu mindern. Wörtlich ist im Gesetz die Rede von „gezielten Maßnahmen zum Schutz der Rechte des Kindes, darunter auch Werkzeuge zur Altersüberprüfung und zur elterlichen Kontrolle“. Wenn VLOPs hierzu gar nichts unternehmen, riskieren sie Strafen von bis zu sechs Prozent ihres globalen Umsatzes.
Pornos gelten in der EU als schädliche Inhalte für Minderjährige, so steht es in der Richtlinie über audiovisuelle Mediendienste (AVMD-RL). Die Plattformen müssten eigentlich heute schon dafür sorgen, dass Kinder und Jugendliche diese Inhalte nicht einfach aufrufen können.
Wie genau Plattformen in der EU das Alter überprüfen, ist zunächst nicht einheitlich festgelegt. In Deutschland gibt die zuständige Kommission für Jugendmedienschutz klare Linien vor: Die Plattformen könnten etwa von allen Nutzer:innen Ausweisdokumente verlangen oder ihr Alter mit biometrischen Verfahren einschätzen.
Das Problem: Jede Maßnahme, die über die bloße Frage „Bist du mindestens 18 Jahre alt“ hinausgeht, greift tief in Grundrechte ein; zum Beispiel das Grundrecht, sich anonym und damit möglichst frei im Netz bewegen zu können. Nicht nur Ausweiskontrollen sind bedenklich. Ähnlich invasiv ist es, wenn Kinder wie Erwachsene künftig ihre Gesichter scannen lassen sollen, um im Netz ihr Alter nachzuweisen. Gerade biometrische Daten gelten als besonders schützenswert, weil sie einen Menschen ein Leben lang identifizieren können.
Noch dazu können all diese Maßnahmen oft kinderleicht umgangen werden. In Australien hat sich die Regierung aus diesem Grund vorläufig gegen die Einführung von Alterskontrollen entscheiden. Keine der bisher existierenden Technologien zu Alterskontrolle sei ausgereift genug, um Minderjährige mit Sicherheit von Seiten fernzuhalten, erklärte das zuständige Ministerium. Alterskontrollen müssten außerdem „ein Gleichgewicht zwischen Privatsphäre und Sicherheit herstellen, ohne die persönlichen Daten von Erwachsenen zu gefährden, die sich für den Zugang zu legaler Pornografie entscheiden“.
Zusätzlich zur bereits länger geltenden AVMD-Richtlinie wird nun auch das Digitale-Dienste-Gesetz Druck auf Pornoseiten ausüben. Die Kommission hat das Thema offenbar zur Chefsache erklärt und pocht auf strenge Alterskontrollen. „Pornhub, Stripchat und XVideos haben eine große Verantwortung“, schrieb etwa die zuständige Kommissarin Margrethe Vestager in einem Post auf X (vorher Twitter). „Als VLOPs im Rahmen der DSA müssen sie illegale Inhalte wie z. B. sexuellen Kindesmissbrauch oder Deepfake-Pornos bekämpfen und Kinder z. B. mit einer Altersverifizierung schützen.“
Das heißt aber nicht, dass die Ausweiskontrolle für beispielsweise Pornhub unweigerlich kommt: In den USA hat sich Pornhub gerade aus mehreren US-Bundesstaaten zurückgezogen, nachdem dort Gesetze zur Alterskontrolle eingeführt wurden. In Texas oder Utah ist die Seite seitdem nicht mehr ohne Weiteres zu erreichen. Auch in der EU könnten Pornoplattformen diesen Schritt gehen. Dann würden sie allerdings einen großen Teil ihres Publikums einbüßen.
5. Straftaten an Behörden melden
Neu ist auch die Meldepflicht, die mit dem DSA für sehr große Online-Plattformen – und damit die drei großen Pornoseiten – gelten würde. Sollten Plattformen den Verdacht hegen, dass es sich bei einem Video um eine Straftat handeln könnte, müssten sie das in Zukunft direkt an eine Strafverfolgungsbehörde melden. Das gilt laut dem Gesetz für alle Straftaten, „die eine Gefahr für das Leben oder die Sicherheit einer Person“ darstellen (Artikel 18).
Indirekt besteht so ein Kanal zumindest für einige der Pornoplattformen heute schon. Pornhub etwa meldet bereits seit einigen Jahren Material, das mutmaßlich Minderjährige zeigt, an eine US-amerikanische NGO namens National Center for Missing and Exploited Children (NCMEC). Das Zentrum meldet Fälle außerhalb der USA weiter an die nationalen Behörden, etwa das BKA.
Nach den neuen Regeln müsste Pornhub jetzt selbst die Daten an das BKA melden, wenn es vermutet, dass der strafbare Inhalt etwas mit Deutschland zu tun hat. Ist unklar, von wo aus ein Inhalt hochgeladen wurde, geht die Meldung an Europol oder an die Behörden der Landes, in dem das Unternehmen registriert ist. Im Fall von Pornhub und Stripchat wäre das Zypern, im Fall von XVideos Tschechien.
Neben mutmaßlichen Darstellungen von Gewalt an Kindern werden im Fall der Pornoplattformen auch mögliche Straftaten relevant sein, die sich gegen Erwachsene richten. Aufnahmen etwa, die ohne das Einverständnis auf die Plattform hochgeladen wurden. Sexualisierte Deepfakes. Aufnahmen ohne Einverständnis. Über all das hatten Betroffene in den vergangenen Jahren berichtet.
Ob die Plattformen diese Inhalte bei Verdacht nun melden werden? Hier wird es große Unterschiede bei der Auslegung geben, vermutet Svea Windwehr, die bei der Gesellschaft für Freiheitsrechte (GFF) zum Digitale-Dienste-Gesetz arbeitet, je nachdem, welchen Stellenwert der Schutz von Nutzer:innendaten hat. Aktuell sei nicht klar, was die Erwartungen an Plattformen sind. Was und wie viel letztlich an Strafverfolgungsbehörden gemeldet wird, werde man erst sehen, wenn das Bundeskriminalamt seinen ersten Bericht zum Thema veröffentlicht. Dazu ist die Behörde in Deutschland verpflichtet.
Die sehr breite Definition dessen, was schon bei Verdacht gemeldet werden muss, sieht die Bürgerrechtsorganisation als Gefahr für Grundrechte. Der Katalog der bei Verdacht meldungspflichtigen Straftaten müsse eingeschränkt werden, sagt Svea Windwehr, sonst drohe die massenhafte Meldung an Behörden, die auch viele unbescholtene Nutzer:innen treffen würde. Zumindest das BKA scheint sich auf eine Flut von Meldungen vorzubereiten.
Theoretisch könnte das auch für Uploads auf Pornoplattformen die Gefahr bergen, dass Nutzer:innen übermäßig ins Visier der Behörden geraten – auch dann wenn sie einvernehmliche Amateur-Aufnahmen ins Netz stellen. Windwehr sieht hier aber weniger eine Gefahr von übermäßigen Meldungen.
Aus Windwehrs Sicht ist der Artikel ein gutes Beispiel dafür, dass Pornoplattformen ursprünglich im Gesetz nicht mitgedacht wurden. „Die Historie des Artikels war eine andere“, sagt sie. Nach den Anschlägen von Christchurch und Paris sei es eher um Radikalisierung und Terrorpropaganda gegangen.
6. Nutzer:innen könnten abwandern
Auch in den USA sind Pornoseite im Visier von Regulierungsbehörden; strenge Ausweiskontrollen sind in mehreren Bundesstaaten Pflicht. Mike Stabile, Sprecher der US-amerikanischen Branchenorganisation Free Speech Coalition hat darüber mit dem US-Medium 404 Media gesprochen. Die Gesetze sind andere, doch ein Vergleich mit der EU lässt sich ziehen.
Stabile warnt: „Perverserweise treiben diese neuen Gesetze zur Altersüberprüfung das Wachstum illegaler Seiten in die Höhe“. Im Blick hat er kleinere Pornoseiten, die ihren Sitz in Ländern haben, auf die Behörden kaum Zugriff haben. „Plötzlich wenden sich 90 Prozent der Nutzer von legalen, gesetzeskonformen Websites ab, weil sie Angst haben, einen Ausweis hochzuladen oder biometrische Daten zu übermitteln“, sagt Stabile. „Und wohin sollen sie dann gehen?“
Wenn Nutzer:innen zum Schutz ihrer Privatsphäre invasive Alterskontrollen meiden, könnte das Gesetz sein Ziel verfehlen. Betroffene bildbasierter Gewalt müssten damit rechnen, dass Plattformen mit deutlich weniger gründlicher Inhaltsmoderation mehr Zulauf bekommen. Plattformen also, die Aufnahmen auf Anfrage möglicherweise nicht löschen.
Die „sehr großen“ Porno-Plattformen könnten deutlich an Zulauf verlieren, wodurch sie unter die Marke von 45 Millionen monatlichen EU-Nutzer:innen rutschen. Damit würden viele Transparenz-Pflichten wieder verlöschen. Und nicht zuletzt würden auch Porno-Darsteller:innen Nachteile haben, weil sie versuchen müssten, ihr Einkommen auf weniger verlässlichen Websites zu bestreiten.
Stabile warnt: „Plötzlich wenden sich 90 Prozent der Nutzer von legalen, gesetzeskonformen Websites ab, weil sie Angst haben, einen Ausweis hochzuladen oder biometrische Daten zu übermitteln“, sagt Stabile. „Und wohin sollen sie dann gehen?“
Also wer – berechtigter Weise – biometrische Erkennung und Identifikation mittels Ausweis im Internet verweigert, sollte dann doch noch Rest-Verstand übrig haben, IT-Sicherheit auch bei halbseidenen Angeboten im rechtsfreien Raum nicht außer Acht zu lassen. Bei sexualisierten Angeboten ist der Verstand jedoch emotionell in seiner Wirkung herabgesetzt, was alle großen digitalen Plattformen gnadenlos zum Datamining ausnutzen.
Ja wohin sollen „sie“ denn gehen?
„Geht zum Kiosk und kauft euch für ein paar Groschen analoge Wixvorlagen!“ möchte man rufen wollen, solange Bargeld eben noch lacht.
Das macht keinen Sinn, bisher konnte man auf solchen Seiten sich komplett anonym mit Fanatsienamen und mail anmelden. Dann ist Datenschutz unrelevant, weil es sind ja nicht meine Daten. Sobald ich mich mit Perso anmelden muss beginnt ein komplett neues Terrain. Meine Onlinetätigkeiten sind dann mit meiner Identität verbunden und das ist mir schon hier zuviel – auch dein Name scheint nicht dein echter zu sein.
Letztlich ist das Datensammeln „gefährlicher“ je näher es in dem dem Staat in dem du wohnst staatfindet. Oder kurz gesagt, ich hätte als Whistleblower mehr Angst vorm CIA als vor dem FSB. Daher ist eine anonyme Pronoseite in Timbuktu von dem Aspekt der Datensicherheit gefahrloser (das die dann aber auch eher Angriffe auf deinen Rechner starten könnten, ist eine andere Sache, hat aber nichts mit Datensammeln zu tun). Wer aber solche Seiten nicht mit einem sicheren Rechner (z.b. Linux VM) besucht, hat es aber nicht anders verdient.
mutant77 sagt: „ich hätte als Whistleblower mehr Angst vorm CIA als vor dem FSB.“
Der FSB ist supergut im orchestrieren von psychologischer Kriegsführung. Dazu gehört auch das Schüren von Angst, und das Verdrehen von Fakten um 180 Grad.
Das Sammeln von Komporomat, das Foltern und Töten politischer Gegner gehört ebenfalls zum Aufgabenbereich des KGB. Wer glaubt, sich gegenüber dem KGB sicher fühlen zu können ist entweder unterirdisch dumm, ideologisch verblendet, oder mit seinen Diensten verbandelt.
Was die Geheimdienste der Russischen Föderation mit Whistleblowern, Kritikern, LGBTQ+ gemacht haben, war für jeden ersichtlich, und sollte auch ganz offen für jeden ersichtlich sein, zum Zweck der Einschüchterung.
Man muss schon sehr naiv sein, um zu glauben, dass westliche Geheimdienste auf diese ganzen Methoden verzichten würden.
Wenn es wirklich um Jugendschutz ginge, würde man auf längst verfügbare Lösungen zurückgreifen, die ganz ohne Zwangsmaßnahmen, Einschränkungen von Grundrechten oder Zwangsregistrierungen mit Personalausweis oder Kreditkarte funktionieren.
So gibt es „RTA“-Markierungen, die Webseitenbetreiber mit ihren Webseiten mitschicken, damit nicht jugendfreie Seiten (auf Wunsch) automatisch weggefiltert werden können, im Router oder in Endgeräten (Link unten).
Ebenso gibt es frei verfügbare DNS-Server, die jugendgefährdende Inhalte (adult content) gar nicht durchlassen. Etwa von Cloudflare (
Primary DNS: 1.1.1.3, Secondary DNS: 1.0.0.3).
Und natürlich das gigantische Angebot an kommerziellen Lösungen, auf die Eltern zurückgreifen können.
Eine EU, eine USA oder auch jede der „Jugendschutzorganisationen“, die gerne für für Zensur und Überwachung trommeln, könnten natürlich auch freiwillige Jugendschutz-Kennzeichnungen einführen, mit denen Anbieter Webseiten kennzeichnen, die für Kinder oder Jugendliche gedacht oder besonders geeignet sind und durch die Markierung dann von (Kinder-)Endgeräten als geeignet erkannt und durchgelassen werden.
Aber damit würde man nur die Kinder schützen und sein bestes (einziges?) Argument für Überwachung und Zensur aus der Hand geben. Das ist wohl nicht im Interesse der „Jugendschützer“.
RTA (restricted to adults) Markierung: https://davidwalsh.name/rta-label
Das Problem dabei ist, die meisten Eltern gehen nicht davon aus, dass ihre Kinder so etwas schauen/so einen Filter brauchen oder denken gar nicht darüber nach. Da hat der Staat als Bildungsträger Verantwortung, der er nicht nachkommt. Schließlich kann man als Pädagogin auch Elternabende entsprechend einsetzen/die Eltern, die nicht kommen, auch direkt einladen. Beruflich weiß ich, Eltern installieren so gut wie nie solche Sperren/Filter. Mehr als die Hälfte der Kinder, mit denen wir zu tun haben, ist inzwischen diesbezüglich auffällig. Die Frau Müller hat nur mal wieder einen Einblick in den digitalen Alltag unserer Kinder und Jugendlichen gegeben.
https://www.ndr.de/kultur/buch/Wir-verlieren-unsere-Kinder-Was-Kinder-im-Netz-sehen-und-tun,wirverlierenunserekinder100.html
WEnn man Eltern bestrafen kann wenn das Kind im Auto nicht angeschnallt ist, dann sollte das so doch auch mit Internet-Filtern funktionieren, oder? Statt dessen drückt man den Kleinen das iPhone in die Hand und fängt dann direkt an zu jammern, dass der Staat was tun müsse.
> Wenn man Eltern bestrafen kann wenn das Kind im Auto nicht angeschnallt ist, dann sollte das so doch auch mit Internet-Filtern funktionieren, oder?
Wie häufig kann man seinen Nachwuchs „auf dem Schleudersitz“ durch die Landschaft fahren, ohne mit einem Knöllchen bedacht zu werden? Ohne technologischen Zwang (z.B. Starterunterbrechung) doch ziemlich lange, denn es müsste zunächst bemerkt werden und dann auch noch zur Anzeige gebracht werden. Dies geschieht in der Praxis bei diesem Delikt fast ausschließlich bei Polizeikontrollen.
> Statt dessen drückt man den Kleinen das iPhone in die Hand und fängt dann direkt an zu jammern, dass der Staat was tun müsse.
Jetzt haben Sie aber ihre Chance verpasst, der „Elternwelt“ einen konstruktiven Vorschlag zu unterbreiten, wie diese schlimme Zeit des „Elternglücks“ einigermaßen überstanden werden könnte, ohne vorzeitig zu altern, und bei voller Erhaltung der Kreditwürdigkeit und Konsumfähigkeit.
Die technologische Lösung wäre, das so sehr smarte Phone bemerkt, dass es von Kinderhand bedient wird oder im Kinderbett gelandet ist. Dann schaltet es in einen gehärtetes Kindermodus und nach einer Stunde sich vollständig ab. Im Wiederholungsfall kann das Gerät nur noch durch den Hersteller kostenpflichtig (Sanktion) betriebsbereit gemacht werden können. Was fehlt wären nur noch ein paar Lobbyisten, die eine unverwässerte Regulierung in die Köpfe der Regulierer nachhaltig einbimsen. Mittels geofencing könnte einer unterschiedlichen föderalen Gesetzgebung auch noch Rechnung getragen werden.
Die EU-Kommission täte gut daran, für etwas mehr Transparenz in den eigenen Reihen zu sorgen.
It’s all so tiresome.
Off-Topic
FOIA Bruce Schneier vs. NSA
Declassified NSA Newsletters
https://www.governmentattic.org/53docs/NSAkryptosSocNwsltrs1994-2003.pdf
(Bitte diese Fassung vorziehen)
„Pornhub etwa meldet bereits seit einigen Jahren Material, das mutmaßlich Minderjährige zeigt“
Kommt wieder auf die Definition an, oder? Diese Webseiten werben ganz offen mit bestimmten Begriffen, die klar machen welche Fantasie angesprochen werden soll.
„Jugendschutz“ war bisher immer nur Zweck zur Mittelumsetzung.
Bestes Beispiel die Cannabis-Sache. (Ja ich weiß, themenfremd, aber durch den Jugendschutz halt doch nicht )
Ist von vorneherein „für Erwachsene“.
Was wird getan?
LAUTSTARK wird die Jugendschutztrommel geschlagen.
LAUTSTARK!
Dass Deutschland aber das einzige Land ist, in welchem Minderjährige Alkohol kaufen und konsumieren dürfen, also PER GESETZ…. das interessiert niemand.
Da ist „Jugendschutz“ völlig egal.
Auch dass viele Jugendliche schon in frühen Jahren zu Alkoholikern werden, auch das ist egal. Da kümmert sich niemand drum.
ABer Hauptsache der Alkohol fließt.
Wenn man bei nem Fest nen „Kotzhügel“ hat, dann weiß man, was für Problemfälle zu diesem „Fest“ gehen.
Das Oktoberfest ist ne alljährliche Vollversammlung von Alkoholikern.
Und das wird noch gefeiert, als „Tradition“ gekennzeichnet.
Deutschland (und auch die EU) ist so ein bigotter Haufen, man könnte 24/7 kotzen.
Kann man was dran ändern?
Nö.
Du hast als „kleiner Mann“ überhaupt keine Möglichkeit IRGENDWAS zu ändern, nicht mal durch Wahlen.
>> „Jugendschutz“ war bisher immer nur Zweck zur Mittelumsetzung.
https://www.tagesschau.de/inland/gesellschaft/jugendliche-komasaufen-100.html
Zu Jahresbeginn hatte sich der Sucht- und Drogenbeauftragte der Bundesregierung, Burkhard Blienert, dafür ausgesprochen, dass Jugendliche ab 14 Jahren auch in Begleitung ihrer Eltern keinen Alkohol in der Öffentlichkeit trinken dürfen – was in Deutschland erlaubt ist: „Wenn Kinder und Jugendliche neben ihren Eltern sitzen, ist und bleibt die Wirkung von Alkohol dieselbe und katastrophal in diesem Alter.“
https://www.dkfz.de/de/krebspraevention/Downloads/pdf/AdWfdP/AdWfdP_2023_Zustimmung-Verbot-Werbung-fuer-alkoholische-Getraenke.pdf
> Kann man was dran ändern? Nö.
> Du hast als „kleiner Mann“ überhaupt keine Möglichkeit IRGENDWAS zu ändern, nicht mal durch Wahlen.
Wirf dich nicht selbst weg, und zieh andere nicht runter.
Dass man als einzelne/r gar nichts tun kann, stimmt überhaupt nicht.
Was Du formulierst wäre gelernte Hilfslosigkeit im depressiven Endstadium.
Wach auf und geh zur nächsten Demo gegen Rechts: Nie wieder ist JETZT!
Ich finds komisch, dass der Trend immer mehr zur Ausweispflicht geht und „echte Menschen“ statt eine KI Maschine das prüft. Du kannst da keinen Datenschutz sichern, das ist nicht möglich. Man kann ganz easy mit dem Handy oder Snipping Tool arbeiten.
Wie aber auch immer öfter den Menschen was unterstellt und denen das Wort abgeschnitten wird, nur weil sie ein 2. Profil haben oder einen Account der nicht Ausweis-geprüft ist. Hammer. Andererseits muss man sagen, ist aus dem „Weißen Internet“ in den letzen Jahren einiges aus dem Darknet übertragen worden. Auf Reddit siehst du für alle zugänglich harte SM Praktiken und was Frauen sich alles an ihrem Körper antun. Sowas sehen Menschen, die Gewaltdarstellungen nicht in der Öffentlichkeit haben wollen. Die Plattformen selbst sind halt mitverantwortlich für die negative Entwicklung vor allem weil immer öfter mit Sexinhalten und harte Politik Leute ran geholt werden
Mir fehlt völlig das Thema, dass in solchen Fällen gelöscht wird, ohne rechtmäßig zu prüfen. Das ist bei allen bisherigen Versuchen staatliche Aufgaben der Judikative und Exekutive, die von Rechtswegen immer getrennt sein müssen und das im Privaten nie sind, der Fall.
Und nach wie vor bleibt eben die Auslagerung und Zusammenlegung von Judikative und Exektive, zu eigenen Regeln der Privaten(also rechtslos, für alle Betroffenen!) der eigentliche Skandal.
Selbst die wenigstens scheinbar noch in Staatshand liegende Legislative, ist ja schon durch komplett durch Lobbyisten erstellte Gesetzestexte aufgefallen.
Der Staat wird privatisiert und wir schauen zu, ja die 4. Gewalt erwähnt das nicht mal, sondern gewährt durch Nichtnennung.
> Selbst die wenigstens scheinbar noch in Staatshand liegende Legislative, ist ja schon durch komplett durch Lobbyisten erstellte Gesetzestexte aufgefallen.
Das wird immer wieder behauptet, aber wenn man konkret nach Gesetzen fragt, welche denn „komplett durch Lobbyisten“ geschrieben wurden, dann kann nicht mal ein einziges Beispiel benannt werden.
Wer hat eine Liste mit zitierfähigen Beispielen?
> Mir fehlt völlig das Thema, dass in solchen Fällen gelöscht wird, ohne rechtmäßig zu prüfen.
Wenn ein Nutzer etwas auf eine kommerzielle Plattform stellt, dann hat die Plattform das Hausrecht im Rahmen der Nutzungsregeln und AGB zu handeln, bzw. auch zu löschen. Das geschieht nicht im luftleeren Raum, sondern basiert auch schon auf Gesetzen. Und wenn Nutzer meinen, ihnen sei Unrecht widerfahren, dann steht ihnen der Rechtsweg offen, dies letztlich auch gerichtlich prüfen zu lassen.
Das Problem scheint eher zu sein, dass behördlichen Löschanordnungen nicht zeitnah genug nachgekommen wird, von Seiten mancher Plattformen.