Jugendmedienschutz auf dem Weg in die Zukunft? (Nachtrag, 01.03.)

Der neue JMStV ist also so gut wie durch. Prima, dann darf ich ja mal eine Utopie Dystopie in den Raum stellen. Keine Sorge, mit der Realität hat diese Utopie Dystopie nichts zu tun. Es ist kaum mehr als der feuchte Traum eines durchgeknallten Verschwörungstheoretikers. Kann und sollte man also ignorieren:

[Edit]Mal angenommen[/Edit], der neue JMStV würde tatsächlich auf providerseitige Filterprogramme setzen, die besorgte Eltern zum Schutz ihrer Kinder passend zur Flatrate buchen können. Man muss das nicht negativ sehen. So eine Filterschablone hat ja auch Vorteile. Man muss sich als Erziehungsberechtigter z.B. keine Gedanken mehr machen, welche Programme der Nachwuchs im Internet schaut.

Überhaupt ist dieses Internet ja ziemlich unübersichtlich, wenn man das mal so sagen darf. Warum also nicht einen Sampler mit den besten Internethits von gestern, heute und morgen kaufen? Reicht doch. Beim Dudelfunk Formatradio funktioniert es doch auch!

Schon bald könnte es – das ist übrigens nicht meine Idee, sondern eine aus dem Jahr 2003Filterschablonen in verschiedenen Geschmacksrichtungen geben. Quasi „Kindernet On Demand“, präsentiert nach Wunsch:

Der Nutzer kann sich kostenlos den ICRA-Filter herunterladen und nach seinen eigenen Wertvorstellungen einstellen. […]

Dabei können die Nutzer auch aus einem Angebot von bereits eingestellten Filterschablonen (templates) auswählen. Diese werden von verschiedensten gesellschaftlich relevanten Gruppen – etwa Kirchen, Jugendschutz-Initiativen, Nichtregierungsorganisationen wie terre des hommes oder dem Bundeskriminalamt – angeboten. So gibt es beispielsweise eine Filterschablone von der Anti-Defamation League, Filterschablonen speziell für Acht- bis Zehnjährige oder feststehende Filter-Profile, die bestimmte Werte widerspiegeln.

Klingt prima, oder?

Aber moment mal, war das Problem der Regulierer nicht gerade, dass eine Filterung in letzter Konsequenz gar nicht nutzerautonom sein darf? Soweit ich es verstanden habe, muss uns der Staat doch vor „unzulässigen Inhalten“ schützen (vgl. Büssow, NRW), oder?

Also, wenn er kann. Bisher konnte er das nicht oder nur unzureichend, weil es schlicht keine technische Infrastruktur zur Filterrung von Inhalten gab (vgl. Befürchtung der Zensursula-Gegner). Ein – nach aussen wie ein Service wirkender – providerseitige Filter wäre in diesem Szenario wie ein trojanisches Pferd. Die Regulierer hätten eine – freundlicherweise von den Nutzern finanzierte – Plattform, wo Blacklisten mit „unzulässigen Inhalten“ (Neusprech: Filterschablonen) eingebunden werden können. Die wären dann freilich nicht abschaltbar.

Den nutzerautonomen Teil der Serviceleistung „Kindernet On Demand“ könnte man übrigens prima über ein ePass-Dongle regeln. Also über ein kleines Lesegerät für den elektronischen Personalausweis, das man mit dem heimischen Router oder seinen Endgeräten verbindet.

Ohne Authentifizierung käme ein kindgerecht gefiltertes Angebot aus der Leitung.  Sobald Papa seinen ePass in den Schlitz steckt, könnte er wieder auf holländischen Vollerotik-Seiten recherchieren. Wobei, nein, könnte er nicht. Seiten ohne Selfrating,* die sich dreist an der bundesdeutschen Sendezeitverordnung vorbeimogeln wollen, müsste man wohl auch als unzulässige Inhalte werten – und präventiv blocken. Zur Sicherheit. Naja, vielleicht reicht am Anfang auch ein Stoppschild.

Die Idee mit dem ePass-Dongle ist sinnfrei? Nicht doch, das brauchen wir demnächst ohnehin, um endlich sicher e-commercen und de-mailen zu können.

*PS: Was Selfrating betrifft, ist der Entwurf des JMStV durchaus unklar formuliert. Nicht nur als juristischer Laie (ich!) kann man § 24 (1) 3 b.), der die, Achtung!, Nicht- bzw. offensichtliche Falschkennzeichnung „entwicklungsbeeinträchtigender Angebote“ nach § 5 Abs. 2 als Ordnungswidrigkeit einstuft, missverstehen.

Nachtrag, 01.03.: Wer sich knapp 40 lesenswerte Kommentare sparen will, kann diese Abkürzung klicken und landet bei Kommentar #47. Dort gibt einen Verweis auf ein im Vorjahr vorgestelltes Konzept, das nicht so furchtbar weit weg von meiner Utopie Dystopie ist.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

52 Ergänzungen

  1. Lieber Jörg-Olaf,

    der neue JMStV setzt eben NICHT auf providerseitige Filterprogramme, sondern auf clientseitige, sprich Papi oder Mami installieren auf dem PC ihrer Kinder LOKAL eine Software, die das Filterung übernimmt.

    Die Provider kennzeichnen lediglich die angebotenen Inhalte, erstellen quasi eine Art von Metadaten, die dann als Grundlage für das clientseitige Filtering dienen.

    Wie das ganze aber konkret technisch umgesetzt werden will, ist mir bisher schleierhaft ;-)

    Hier noch mal die relavente Passage aus dem heise-Beitrag dazu:

    „Große Hoffnungen setzen die Länder auf technische Maßnahmen und den „Rating-und-Filtering-Ansatz“, nach dem Inhalte von Anbietern gekennzeichnet und so etwa durch Software auf dem PC der Minderjährigen gefiltert werden können“

  2. „…muss uns der Staat doch vor “unzulässigen Inhalten” schützen…“

    Schon klar. Und wer schützt uns vor dem Staat der unkontrolliert Inhalte filtert? Möglicherweise Inhalte die dem Staat unbequem werden könnten?

    Wer seine Kinder schützen will, kann dies auch jetzt schon in einfacher Weise und ausreichendem Maße tun. Dazu braucht es keine benutzerfinanzierte Infrastruktur! Und schon gar keinen Staatsvertrag.

    Viel wichtiger erscheint es mir, den Kindern und Jugendlichen den verantwortungsvollen Umgang mit den Medien beizubringen.

  3. @Bender: So eindeutig ist das nicht. Tatsächlich ist, wie du selber schreibst, die Implementierung noch offen. Wessen Hoffnungen Monika Ermert beschreibt, kann ich dir leider nicht sagen.

    Aber hee, es ist doch nur eine Utopie Dystopie. Ich formuliere es mal etwas um.

    Update, 01.03.: Wer sich knapp 40 lesenswerte Kommentare sparen will, kann diese Abkürzung klicken und landet bei Kommentar #47. Dort gibt einen Verweis auf ein im Vorjahr vorgestelltes Konzept, das nicht so furchtbar weit weg von meiner Utopie Dystopie ist.

  4. Wie willst du denn bei so einer Utopie regeln, ob der Provider filter soll oder nicht?
    Und jetzt sag nicht einfach nur, dass du nen Dongle nutzt. Ich meinte das jetzt auf die Verbindung bezogen. Wie soll der Provider herausbekommen, welcher Dongle drin steckt?

  5. @Jörg-Olaf:

    Seit dem das Thema „Providerhaftung“ aus dem JMStV herausgenommen wurde, ist es eigentlich eindeutig. Das sagt auch die Rechtsabteilung eines großen Providers, wie mir informelle Quellen bestätigt haben.

    Was die Umsetzung betrifft, habe ich mich eventl. etwas unglücklich ausgedrückt. Die technische Umsetzung ist nicht das primäre Problem, die kann man sich z.B. als Browser-Plugin ala Adblock Plus vorstellen. Das Fumktionsprinzip könnte 1:1 übernommen werden.

    Die Probleme liegen eher auf organisatorischer Ebene:

    Wer kennzeichnet denn überhaupt die ganzen Inhalte im Internet, die ja auch noch zu allem Übel stetig wachsen? Will man einen Blacklist- oder Whitelist-Ansatz wählen? Wie kann man garantieren, dass losgelöst vom gewählten Provider, alle Inhalte die selbe Alterskennzeichnung haben?

    Mir kommt es einfach so vor, als ob die guten Herrschaften einfach das bereits vorhandene Indixierungsystem (für z.B. DVDs, Computerspiele) 1:1 aufs Internet übertragen wissen wollen, das kann aber nicht wirklich funktionieren. Denn kein Contentprovider wird irgend einer Stelle seinen neuen Content zur „Überprüfung“ vorlegen. Aber genau so etwas könnte dann in Zukunft gefordert werden, wenn man merken sollte, dass der aktuell gewählte Ansatz auch nicht wirklich funktioniert.

    1. @bender: die „Providerhaftung“ (also: die Möglichkeit von Sperrverfügungen gegen Access-Provider) ist schon seit 2003 drin und auch im neuen Entwurf weiterhin enthalten. Nur eben nicht mehr ganz so deutlich, wie es sich das die KJM gewünscht hat.

  6. Was ist eigentlich erschreckender an diesen „Kinderschützern“?

    Ihre völlige Inkompetenz oder ihre Chuzpe, trotzdem normenbildend wirken zu wollen?

    Hanlon’s Razor folgendend, muss ich ja ein „gut gemeint“ unterstellen, gerade noch. Wo ist eigentlich der Unterschied zwischen so viel gefährlicher Dummheit und Boshaftigkeit?

    Viele Grüsse,
    VB.

  7. @Bender:

    Wer kennzeichnet denn überhaupt die ganzen Inhalte im Internet, die ja auch noch zu allem Übel stetig wachsen?

    Man könnte über crowdsourcing nachdenken.

    [Nachtrag]
    Oder, bitte festhalten, über automatische Echtzeitklassifizierung durch Semantik- und Mustererkennung. Die Phantasie hatte man 2003 nämlich auch schon:

    „Der dritte Siftpartner Filterix, eine Entwicklung des griechischen National Centre for Scientific Research, ist auf pornographische Texte und Nackt-Bilder trainiert und soll weiter „lernen“. Innerhalb von 10 Millisekunden, meint Archer, würde Filterix die Klassifikationen vergeben. „Es ist fast magisch.““
    [Nachtrag]

    Ich persönlich glaube aber auch nicht, dass Rating ausserhalb der oben angerissenen „Best of Internet“-Schablone (also ausserhalb einer übersichtlichen Whitelist-Empfehlung) funktionieren kann. Aber das dürfte kaum jemanden interessieren.

    Vor gut 10 Jahren hieß es bei ICRA noch, dass die „1000 wichtigsten Seiten“ für „80% des Traffics“ veranwortlich wären:

    „Leicht könnte ein „faktischer“ Rating-Zwang dadurch entstehen, dass große Unternehmen einfach durch ihre Marktposition ein Filtersystem durchsetzen. 80 Prozent des Internet-Verkehrs könnte durch eine Rating der 1000 wichtigsten Seiten erfasst werden, meint Hoff.“

    Kühne These: Das ist heute wieder so.
    Den Rest wollte man damals ggf. einfach blacklisten:

    „“Wenn Sie eine kommerzielle Seite betreiben, die kein oder wenig angreifbares Material enthält, wollen sie doch sicher nicht, dass Ihre Seite ‚by default‘ geblockt wird.“ Im Klartext: Wenn ICRA sich durchsetzt, bleibt den Anbietern nichts anderes übrig, als sich selbst nach dem ICRA-System einzustufen, wollen sie nicht Gefahr laufen, von vornherein ausgefiltert zu werden.“

    Klingt wahnwitzig? Sicher. Ich befürchte nur, dass man das in den Staatskanzleien anders sehen könnte.

    Will man einen Blacklist- oder Whitelist-Ansatz wählen?

    Ich befürchte, man wünscht sich Whitelisting, mag Blacklisting aber nicht ausschließen.

    Mir kommt es einfach so vor, als ob die guten Herrschaften einfach das bereits vorhandene Indixierungsystem (für z.B. DVDs, Computerspiele) 1:1 aufs Internet übertragen wissen wollen, das kann aber nicht wirklich funktionieren.

    Ja und ja.

  8. Sekunde mal.. erstmal taucht bei Fujitsu nur Warteseite auf (Fake?).. und zweitens ist das eine Webseite.

    Dann müsste man ja jedesmal wenn man nicht kinderfrei surfen will, diese Webseite aufrufen und sich einlogen. Worauf hin der Provider die Filter umstellt. Wenn man sie verlässt, dann würde der Filter umgestellt werden. Bisschen kompliziert oder? Ich bin jetzt nicht technischer Informatiker genug um zu wissen ob das wirklich in Echzeit klappen würde. Aber naja.. ist ja halt ne Utopie.

  9. @Alvar:

    Das ist korrekt, dass quasi die Provider „auf Zuruf“ (juristisch durch Sperrverfügung) Inhalte „unzugänglich“ machen müssen. Das ist aber auch nichts Neues, man kann/muss es durchaus auch weiterhin als problematisch einstufen (allg. Zensurmöglichkeit). Hier gehts aber eher um so Dinge wie z.B. Neonaziseiten.

    Providerhaftung im Sinne, „die Provider sind für die angebotenen Inhalte verantwortlich und haftbar“ und sie somit gewährleisten müssten, dass sie keine jugendgefährdenden Inhalte anbieten, ist aber draußen. Diesen Umstand wollte ich angesprochen.

  10. @KinNeko: Das war ein aktuelles Beispiel für den Einsatz des ePass.

    Es geht um’s Konzept. Und das Konzept ist simpel: $Content gibt’s erst, solange und nur, wenn $Bedingung erfüllt ist. Die $Bedingung kann ein Hardware-Token sein.

    Für die technische Umsetzung gäbe es verschiedene Ansätze. Vom transparenten Proxy, über spezielle Zugangssoftware oder Abfragen, wie sie wohl bei Onlinespielen gerade aufkommen:
    http://www.gamersglobal.de/news/18392

  11. @Bender: Um den Aspekt der Providerhaftung ging es mir oben aber noch nicht.

    Ob eine (providerseitige) Filterung letztendlich auf Zuruf (Sperrverfügung, Selbstverpflichtung), oder über die Einbindung einer externen Schablone (man beachte das zitierte BKA-Beispiel) realisiert wird, ist imo aber eher eine juristische und weniger eine technische Frage.

  12. „Den nutzerautonomen Teil der Serviceleistung “Kindernet On Demand” könnte man übrigens prima über ein ePass-Dongle regeln. Also über ein kleines Lesegerät für den elektronischen Personalausweis, das man mit dem heimischen Router oder seinen Endgeräten verbindet.“

    Genau dieses Verfahren wollte Frau von und zu G. mit ihrem ‚Innocent in Danger‘- Verein (Zensursula) am 9 Februar auf dem BMELV und BITKOM – Kongress in Berlin vorstellen. So wurde es jedenfalls auf der Omnicard angekündigt. Leider war die Dame dann auf meine explizite Nachfrage ohne Begründung ‚kurzfristig verhindert‘.

    Es könnte ja sein… dass so kurz vor der NRW-Wahl das Auftreten der Zensursula- Befürworterin strategisch etwas ungünstig ist.
    Das muss dann wohl auch Frau von und zu G. eingesehen haben.

    Fazit: Die Sache mit der EPA- Identifizierung ist also nicht vom Tisch. Aus welchem anderen Grund fordern einige Politiker bereits den EPA für sechsjährige Kinder?

    Und meine, bis in die Utopie riechende Nase sagt mir, dass der übernächste Schritt eine verpflichtende Nutzung des EPAs vorgeschrieben wird, um ins Internet zu gelangen…

  13. Irgendwie wird dabei immer eines vergessen:
    Jugendliche können keine DSL Verträge abschließen..lediglich Prepaid Handy Karten mit denen man ins Internet gehen kann werden schon ab 16 angeboten…
    3-15 jährige surfen somit immer (16-17 in der Regel auch) auf den Anschluss einer anderen Person.. meistens den der Eltern…Und letztere sind doch am ehesten Verantwortlich dafür was ihr Nachwuchs treibt.. erst wenn diese über den Elterlichen Anschluss surfen.. Man verbietet ja auch keine spitzen Haushaltsmesser nur weil ich damit ein Kind scheiden kann

  14. @Wolf: Nein, nein, nein! Das kann nicht sein! Das ist alles nur eine schreckliche Utopie Dystopie … Ich halte mir jetzt die Augen zu, ich will das nicht hören ,)

    @Christian: Das wäre zu einfach. Wir müssen die Kinder schützen, wo … wo die Eltern es nicht können, oder vergessen, oder was auch immer.

  15. Lassen wir die Details mal außen vor und gehen ganz pragmatisch an die Sache ran:

    Da liegt ein (finaler) Entwurf auf dem Tisch, der Gutes bewirken soll, dass unterstell ich den Politikern jetzt mal so (im positiven Sinne), aber wohl offensichtlich sein Ziel nicht erreichen wird/kann. Hierfür gibt es mehrere Gründe, die teilweise auch bereits angesprochen wurden.

    Jugendschutz ist ja nicht par tout eine schlechte Sache, ganz im Gegenteil. Meines Wissens ist der Staat sogar (per Gesetz oder gar GG-Artikel) zum Jugendschutz verpflichtet, also MUSS er hier sogar tätig werden, um seine geforderten Pflichten erfüllen zu können.

    Das Internet ist halt noch recht neu, also gibt es auf Seiten der Politik gewisse Know-How- und Erfahrungsdefizite. Das haben mittlerweile fast alle erkannt, darauf braucht man in Zukunft auch nicht mehr explizit hinweisen, da man dies kurz- bis mittelfristig wohl auch nicht ändern können wird.

    Die Politik behilft sich nun damit, und das ist auch plausibel und legitim, externe Experten in den Gesetzgebungsprozess miteinzubinden. Diese Experten sagen also der Politik, „was geht“ und „was nicht“ bzw. „wie man es machen muss“.

    Dummerweise hat man in der Vergangenheit wohl aber leider die falschen „Experten“ eingebunden, diese Erkenntnis vertritt sogar mittlerweile auch ein Teil der Politik selbst.

    Zum eigentlichen Thema, dieser „Filtersoftware“:

    Ich persönlich hätte überhaupt kein Problem damit, wenn es in Zukunft so ein Browser-Plugin gäbe, das ich mir bei Bedarf installieren kann, damit meine Kinder keine „bösen Inhalte“ aus dem Internet anschauen müssen/können. Ob ich dieses Plugin jetzt nutze oder nicht, ist ja meine freie Entscheidung, denn ich verstehe mich als mündigen Bürger. Bin ich der Meinung, dass meine erzieherische Kompetenz und die Medienempathie meiner Kinder (nocht) nicht ausreichend entwickelt ist, dann könnte dies eine gute Sache für mich/uns sein.

    Ich kenne jetzt die Plugin-APIs der einzelnen Browser nur oberflächlich, aber ich behaupte mal, das ganze ist lediglich durchschnittlich komplex und so ein Plugin lässt sich mit überschaubarem Kosten- und Resourcenaufwand realisieren. Wer die konkrete Implementierung (eventl. als OpenSource) übernimmt, ist dabei eher Nebensache. Also „Filtern“ könnte man jetzt schon.

    Wie mach ich mir jetzt so eine Filterliste? Ich entscheide mich da spontan für den Whitelist-Ansatz, im vollem Wissen darüber, dass ich damit erst einmal das komplette Internet aussperre und die Seiten jetzt (einzeln) freigeben muss, die ich als nicht jugendgefärdend ansehe. Bei meiner Firewall-Config mache ich es ja genau so, die ja ebenfalls eine Schutzfunktion zu erfüllen hat. Der andere Weg, über eine Blacklist, erachte ich um einiges komplexer, aufgrund der Fülle der Inhalte im Internet und der Gefahr, dass irrtümlich Inhalte gesperrt werden und man dafür dann quasi wieder eine Art „Einspruchsstelle“ einrichten müsste.

    So, an dieser Stelle kommt jetzt sicher der große Aufschrei, weil man erst einmal alles herausfiltert. Aber, genau das muss man den Eltern auch so kommunizieren! Wenn man die Filtersoftware nutzt, hat man halt quasi nur noch eine „eingeschränkte Wahrnehmung“, was ja ebenfalls entwicklungshemmend für seine Kinder sein könnte. Eventl. sogar stärker, als wenn man die Software nicht nutzen würde, aber billigend in Kauf nimmt, dass halt ab und zu doch „böse Inhalte“ konsumiert werden müssen/können.

    Hier muss ein individueller Abwägungsprozess auf Elternseite stattfinden, was ihn ihrem Sinne „besser“ für die Kinder ist. Hier können und dürfen die Politiker (und auch wir) keine Vorgaben machen. Freie und mündige Bürger treffen nunmal ihre Entscheidungen selbst. Das man losgelöst von dieser Filterung durch andere Maßnahmen gezielt die Erziehungskompetenz der Eltern und die Medienkompetenz der Kinder stärken kann/muss, ist zunächst mal genauso wichtig wie die hier diskutierten technischen Aspekte, aber eine andere Baustelle. Hier müsste also ein zusätzlicher Prozess für diese Kompetenzvermittlung angestoßen werden, der wohl aber erst in der mittleren Frist belastbare Erfolge erbringen kann.

    Wer definiert nun, was auf die Liste kommt? Das müssen staatliche Stellen tun, nach klar definierten Kriterien und im Rahmen eines transparenten Prozesses. Im besten Fall ist diese Liste sogar öffentlich einsehbar und es gibt eine Art „Vorschlagsmöglichkeit“ für Neuaufnahmen auf die Liste.

    An dieser Stelle braucht man natürlich einiges an Manpower, aber daran darf es nicht scheitern. „Wir müssen ja schliesslich unsere Kinder schützen!“. Erfahrungswerte dazu hätte man ggf. aus den bereits bestehenden Indixierungsprozessen im Bereich DVDs oder Computerspiele.

    In Summe hätte man meiner Meinung nun eine stimmige Lösung für das Problem, mit der eventl. beide Seiten gut leben könnten. Denn man muss sich auch dessen bewusst sein, dass ein politischer Meinungsbildungsprozess immer nur zu einem Konsens führen wird, der im besten Fall immer nur die zweitbeste Lösung darstellen wird, denn keine der Seiten wird sich mit ihrer 100%-Position durchsetzen können.

  16. @Bender: Nur kurz, da bereits unterwegs:

    „Ob ich dieses Plugin jetzt nutze oder nicht, ist ja meine freie Entscheidung, denn ich verstehe mich als mündigen Bürger.“

    Und genau das ist, vor allem mittelfristig, ein Punkt, der leider nicht so klar ist, wie wir uns das wünschen.

    Einen Aspekt hatte ich oben ja schon skizziert: Wenn ein Filter existiert, ist der Staat bei „unzulässigen Inhalten“ in der Verantwortung.

  17. Und genau das ist, vor allem mittelfristig, ein Punkt, der leider nicht so klar ist, wie wir uns das wünschen.

    Wie eingangs erwähnt, stütze ich meine Argumentation auf informelle Quellen aus dem Umfeld eines großen Providers, der bereits explizit um Klarstellung angefragt hat, wohl auf Ebene der Staatskanzleien.

    Outcome: keine Filterung bei Providern, eine neue Software ist zu entwickeln, die auf freiwilliger Basis genutzt werden kann oder auch nicht.

    Meiner Ansicht agiert die Politik sehr hilflos und ist eventl. sogar für jeden Input zum Thema dankbar. Fragt doch einfach mal bei der KJM oder der Staatskanzlei eures Vertrauens an und bitte im Präsizierung, mehr als offene Türen eintreten könnt ihr ja nicht ;-)

    Einen Aspekt hatte ich oben ja schon skizziert: Wenn ein Filter existiert, ist der Staat bei “unzulässigen Inhalten” in der Verantwortung.

    Passt doch. Oder wo siehst du hier das Problem?

  18. @Bender:

    Fragt doch einfach mal bei der KJM oder der Staatskanzlei eures Vertrauens an und bitte im Präsizierung

    Sagen wir mal, … ich schreibe auch Utopien Dystopien nicht aus dem hohlen Bauch.

    Passt doch. Oder wo siehst du hier das Problem?

    Darin, dass eine solche Schablone per Definition nicht nutzerautonom sein kann.

  19. Darin, dass eine solche Schablone per Definition nicht nutzerautonom sein kann.

    Bei diesem Punkt drehen wir uns glaube ich im Kreis.

    Eine Schablone kann doch nur angewendet werden, wenn zentral gefiltert wird, oder? Falls zentral gefiltert werden würde, dann teile ich deine Bedenken, da der Nutzer in seiner Autonomie eingeschränkt wäre.

    Findet aber eine Filterung dezentral statt, also lokal (siehe heise-Artikel), dann kann der User autonom entscheiden, ob er die Filtersoftware nutzt oder nicht. Nutzt er sie, kommt wiederum die Schablone zum Einsatz, dessen ist er sich aber bewusst und er nimmt deren Einschränkungen billigend in Kauf. Selber schuld, er hat sich selbst dafür entschieden.

  20. @Bender: Die Utopie Dystopie (und das alte ICRAplus-Konzept) geht davon aus, dass die Filtersoftware zentral verwaltete Schablonen einbindet. Einige Schablonen sind nutzerautonom („Geschmacksrichtungen“), andere vsl. nicht („unzulässige Inhalte“).

    Ob die Filtersoftware zentral (beim Provider) oder dezentral (daheim) läuft, ist eine Sache der Implementierung. Ob der Einsatz freiwillig ist, entscheidet der Gesetzgeber.

    Ist die Filterstruktur einmal etabliert und akzeptiert, ist der Schritt von einem freiwilligen dezentralen Einsatz zur Providerfilterung vergleichsweise klein.

    Aber keine Sorge, es ist nur eine Utopie Dystopie.

  21. @Jörg-Olaf:

    Aber keine Sorge, es ist nur eine Utopie.

    Was war denn jetzt eigentlich genau deine Intention hinter diesem Artikel? Einfach nur eine gepflegte Freitagabenddiskussion im luftleeren Raum (Stichwort: Utopie) damit anzustoßen?

    Ich finde es gut und unterstütze es ausdrücklich, dass man immer auf potentielle Risiken aufmerksam macht, man sollte es damit aber nicht übertreiben und schon gar nicht gezielt Ängste damit wecken oder Panik verbreiten wollen. Meiner Ansicht wird hier bereits dieser unerwünschte Grenzbereich gestreift, was ich für überaus bedenklich halte.

    Welches Risko geht man denn ein, wenn man sich von dieser abstrakten Metaebene der Utopie bewusst löst und sich mit der sachlichen Realität auseinander setzt?

    Über Gott und die Welt sinnieren kann die Politik schon ganz alleine, dazu braucht sie uns nicht. Sie braucht uns aber scheinbar für konkrete (Umsetzungs-)Vorschläge, wie man die Herausforderungen des Internetzeitalters lösen kann, auf Basis einer breiten allg. Akzeptanz.

    Wie heißt es so schön auf heise:

    Noch müssen zudem zentrale Fragen geklärt werden

    Aus dieser Aussage leite ich einen Gestaltungsspielraum ab, zu dem auch wir gerne Input liefern dürfen, wenn wir nicht schon sogar explizit durch die Politik dazu aufgefordert wurden (siehe z.B. Gesprächseinladung der neuen Familienministerin).

    Wir wären ja also dumm, wenn wir diese Chance „zum Mitgestalten“ nicht nutzen würden, oder? Sollte sich dann irgend wann doch herausstellen, dass das ganze nur Alibicharakter hatte, dann darf man gerne wieder um so fester auf die Politik eindreschen.

  22. Zitat:“Sind 13- bis 18-Jährige im Sinne des Jugendschutzes gefährdet, müssen die Inhalte für Filterlösungen entsprechend gekennzeichnet werden oder aber nur zu bestimmten „Sendezeiten“ angeboten werden.“

    Ich verstehe nicht wie so man das Internet versucht zu regeln, wenn im TV jeder schmarrn Nachmittags um 13 Uhr kommt.
    Im Moment RTL2 „Eis am Stiehl“ FSK:16
    Für mich sieht das eher so aus, das man das kostenlose Internet sperrt, damit die Titten im TV wieder interesannter werden

  23. Ich halte die Utopie auch für etwas unrealistisch.. erstmal werden hier technisch die verschiedenen Layer vermischt.

    Ausserdem ist eine clientseitige positive Filterung für Kinder nichts verwerfliches. Sie ist billig, einfach und sauber zu realisieren. Ausserdem verbirgt sich dahinter (zumindest denke ich das) eine gute Möglichkeit Geld zu machen. Denn für die Kinderchen gibt man gerne Geld aus.

    Ausserdem bewirken solche Utopien, dass wir von den Politikern und der Bevölkerung nicht ernst genommen werden.

  24. @KinNeko: Layer (auf Netzwerkebene) interessieren Politiker nicht [1]. Auch technisch sind sie nur eine Frage der Implementierung.

    Ausserdem ist eine clientseitige positive Filterung für Kinder nichts verwerfliches.

    Ich lehne Whitelisting nicht grundsätzlich ab. Aus medienpädagogischer Sicht ist Whitelisting aber ganz sicher nicht die Lösung, auf die wir alle gewartet haben. Die grundsätzlichen Probleme habe ich oben ja bereits angerissen.

    Mag sein, dass du meine Polemik nicht für angemessen hälst, das berührt die grundlegenden Argumente aber nicht (Und ja, natürlich sind die unvollständig).

    Grundsätzlich ist Whitelisting, bzw. sind Empfehlungssysteme, etwas, was der Kultur des Internet diametral entgegensteht. Darüber mag man aus Perspektive der Regulierer bzw. alten Medien lächeln, mit Blick auf Zukunft (Medienkompetenz!) ist das aber ein ziemlich elementarer Punkt.

    Sie ist billig, einfach und sauber zu realisieren.

    Nicht einmal das. Bevor Whitelisting überhaupt funktionieren kann, braucht es funktionierendes Rating. Wie bitte möchtest du ein nachhaltiges Rating realisieren? Und dann noch billig?

    Ausserdem verbirgt sich dahinter (zumindest denke ich das) eine gute Möglichkeit Geld zu machen.

    Ja, das hoffen viele. Zum Teil auch auf Providerseite.

    Denn für die Kinderchen gibt man gerne Geld aus.

    Da hingegen wäre ich mir nicht so sicher.

    Ausserdem bewirken solche Utopien, dass wir von den Politikern und der Bevölkerung nicht ernst genommen werden.

    Da mache ich mir weniger Sorgen [2]. Nicht zuletzt, weil manchem mitlesenden Politiker Teile der Utopie Dystopie ziemlich bekannt vorkommen dürften.

    [1] Übrigens ein Punkt, der bei dem Gespräch der Piraten mit Roland Koch einmal mehr deutlich geworden sein soll: „Der Staat könne sich nicht aus der Verantwortung herausnehmen. Also erst das Gesetz, dann die Technik, dann die Umsetzung.“
    [2] Eher schon auf Technikerseite.

    Aber keine Sorge, es ist nur eine Utopie Dystopie.

  25. @Jörg-Olaf:

    Was war denn jetzt eigentlich genau deine Intention hinter diesem Artikel?

    Zu dieser Frage würde ich mir schon noch eine konkrete Antwort von dir wünschen.

  26. Ich habe das ja an anderer Stelle schon mal gesagt, aber ich tu’s auch gerne noch mal: Der wichtigste Punkt ist erstmal zu erkennen, dass es zwei Fronten gibt. Nämlich auf der einen Seite diejenigen, die tatsächlich die Kommunikation von Erwachsenen kontrollieren und regulieren wollen, und auf der anderen diejenigen, die wirklich nur glauben, die Jugend müsse geschützt werden (bzw. als Politiker meinen, etwas dafür tun zu müssen, weil sie glauben, dass Jugendschutz vielen potentiellen Wählern wichtig wäre). Für diese zweite Gruppe gilt a.) dass sie viel, viel größer als die erste ist, und vor allem b.) viel zu groß, als das Ignorieren eine erfolgversprechende Option darstellt.

    Nichtstun ist also keine Option, dazu ist der Gedanke, Jugend(medien)schutz, also das Vorkauen einer gefilterten Realität gegenüber Heranwachsenden, wäre eine irgendwie sinnvolle oder erstrebenswerte Sache, in Deutschland viel zu weit verbreitet. Das ist einfach so, auch wenn es einem nicht gefällt (mir zB gefällt es überhaupt nicht, aber das ändert leider nichts daran).

    Unter diesem Aspekt sind nutzerautonome Filter und freiwilliges Self-Rating gar keine schlechte Idee, vor allem aber gibt es momentan keine bessere, die die Freiheit für Erwachsene erhält. Und die Argumente dagegen sind zum Teil auch wenig überzeugend: Welche potentiell mißbrauchsanfällige „Infrastruktur“ würde denn geschaffen, wenn man z.B. ein Browserplugin, oder einen Proxy, der auf ICRA oder wasauchimmer filtert, implementiert und verteilt? Offensichtlich kann niemand zu dessen Benutzung gezwungen werden, d.h. derjenige, der eine wie auch immer geartete Zwangsfilterung befürwortet, stände mit diesem Plugin genau an der selben Stelle wie ohne – nur mit dem ganz gewaltigen Unterschied, dass er nicht mehr den Jugendschutz als Argument vorschieben kann.

    Die Konsequenz muss mE sein einzusehen, dass wir (als diejenigen, die für uns Netzneutralität und Filterfreiheit wollen), der Politik einen Brocken hinwerfen müssen – genau wie bei Zensursula, da hieß es ja nicht „Sperren ist scheiße“, sondern „Löschen statt sperren“, und genau das war dann der Ansatz, der sich „verkaufen“ ließ – und der diejenigen, die lieber sperren wollten, in Erklärungsnöte brachte.

    Genauso sollte im Fall JMStV die Parole lauten „Filtern ja, aber nur nutzerautonom“. Dann sollen diejenigen, die zwangsfiltern wollen, nämlich mal erklären, wieso das nicht ausreicht, und *dann* kann man auch mit dem Argument kommen, dass man ja schließlich volljährig sein muss, um DSL, Kabel oder Mobilfunkverträge abzuschließen. Nur kann man sich halt nicht hinstellen und sagen Eltern/Bildungsinstitutionen/… sollen’s richten, und nicht erklären, wie sie das denn machen sollen, genausowenig wie man (leider, leider!) auf „Medienkompetenz“ etc. verweisen kann, wenn die BILD farbig illustriert, welche „schlimmen Sachen“ man auf ogrish, youporn & Co. zu sehen kriegt.

  27. Da ich Softwaretechnik als Studienschwerpunkt gewählt habe, kann ich das nicht 100% sagen. Ich werde mich aber demnächst mal mit einem zusammensetzen. Tut mir leid, dass ich dir jetzt nicht glaube, aber ich habe keine Ahnung ob du in dem Bereich Ahnung hast oder studiert bist. Implementierung sind nicht immer einfach.. vorallem nicht in einem standadisierten Netzwerk.

    Du kannst dich bei Kindern unter 12Jahren nicht auf Medienkompetenz verlassen. Und der Content für Kinder ist schon geratet bzw ist extra darauf angepasst. Es gibt da privatwirtschaftliche und gemeinnützige Initiaven. Das einzige Problem dabei ist, die Kinder so zu fesseln, dass sie auch gleichzeitig was lernen. Dazu gabs übrigens auch vor kurzem ne Tagung wo ich anwesend war.

    Wie die Gesetzgebung wirkt wissen wir doch aus dem Internetzensurgesetz.. die Politik wünscht sich was und raus kommen vollkommen unwirksame DNS-Sperren.

    Aber ich sehe schon..du wirst deine Utopie auf biegen und brechen verteidigen auch wenn es ganz offensichtlich Schwachpunkte gibt. An dir ist echt ein CDUler verloren gegangen ;)

  28. @Bender: Meine Intention ist irrelevant für diese Debatte. Reicht es, wenn ich sage, dass ich in 3 bis 5 Jahren auf meine Utopie Dystopie verweisen können möchte?

    @NinNeko:

    Implementierung sind nicht immer einfach

    In diesem Fall ist es vergleichsweise simples Accounting. (Providerseitig) gefiltertes Kindernet gab’s in Deutschland übrigens bereits 2002. Arcor-JuniorNet hieß das damals.

    Du kannst dich bei Kindern unter 12Jahren nicht auf Medienkompetenz verlassen

    Ich würde Kinder unter 12 Jahren auch nicht unbeaufsichtigt vor’s Internet setzen. Der Einwand ist aber trotzdem interessant. Wenn wir über Jugendschutz reden, brauchen wir nämlich eine Differenzierung, welche Kinder man wovor schützen will.

    Und da würde ich in erster Annäherrung zwei Gruppen unterscheiden: Die, die man nicht alleine vor’s Internet setzen sollte und die, die einen Webfilter a) lächelnd umgehen und b) ihn anschließend aus pädagogischen Gründen so einstellen, dass Papa betteln muss, um wieder die Seiten besuchen zu können, von denen Mutti nichts wissen darf.

    Und der Content für Kinder ist schon geratet bzw ist extra darauf angepasst.

    Bleib bitte mal ernst. Abgesehen von ein paar vergessenen Feldversuchen gibt es nicht einmal ein etwas breiter akzeptiertes Rating-/ Labelingverfahren. Die, die es gibt, bewegen sich irgendwo zwischen lächerlich, naiv und gescheitert. Und da hat dann noch nicht einmal jemand über den kulturellen Tellerand geschaut.

    Oder willst mir tatsächlich Frag-Finn und Co präsentieren? Und nein, gated communitys (oben: „Sampler“) sind keine Alternative. Das ist kein Internet, das sind bestenfalls Onlinedienste.

    Es gibt da privatwirtschaftliche und gemeinnützige Initiaven.

    Sach bloß?

    Dazu gabs übrigens auch vor kurzem ne Tagung wo ich anwesend war.

    Dazu gibt es seit ~15 Jahren Tagungen. Nur brauchbare Ergebnisse gibt’s nicht. Was – Achtung, kühne These! – zum Teil in der Natur der Sache liegen könnte.

    http://kris.koehntopp.de/artikel/rating_does_not_work.html ist von 1999 und nach wie vor aktuell.

    http://www.w3.org/2007/powder/ und RDFa sind noch weit, weit weg. Vor allem von dieser Debatte hier.

    Aber ich sehe schon..du wirst deine Utopie auf biegen und brechen verteidigen auch wenn es ganz offensichtlich Schwachpunkte gibt

    Ich muss meine Utopie Dystopie gar nicht verteidigen. Das ist das schöne an einer Utopie Dystopie. Und ja, sie hat Schwachpunkte. Bisher konntest du allerdings noch keinen wirksam angreifen.

    1. Wie kann ich eigentlich quoten? :)

      Arcor-JuniorNet ist eine Lösung auf dem Applicationlayer. Lösungen auf dem Applicationlayer sind noch leichter zum umgehen als sonst was.

      Aber ich sehe schon.. wir diskutieren hier auf einem unterschiedlichen technischen Niveau. Du redest von Applicationlayer-Filtern, deren Inhalte vom Provider gesteuert werden.. ich hatte sowas schon gedacht, nachdem die Beispiele mit Spiel und Webseite kamen.

      Denk dran.. die CDUler glauben auch noch, dass die Internetsperren per DNS nicht umgeht werden können ;)

  29. @KinNeko:

    Wie kann ich eigentlich quoten? :)

    Mit dem Tag blockquote. WordPress hat keine eigene Markupsyntax, sondern setzt auf HTML. Allerdings ist da noch das vorwitzige Netzpolitik-Stylesheet …

    Aber ich sehe schon.. wir diskutieren hier auf einem unterschiedlichen technischen Niveau.

    *seufz* Ja, das befürchte ich schon länger. Ich weiß aber echt nicht, wie ich es noch einfacher erklären kann ,)

    Ich wiederhole mich aber gern: Der Layer/die Implementierung ist irrelevant, die technische Seite ist lösbar, bzw. bereits gelöst (Nur nochmal zur Sicherheit: Das ist der marginale Teil der Debatte):

    http://techliberation.com/2008/07/28/australian-isp-level-content-filtering-report-released/

    Anbieter findest du auch unter http://www.google.com/Top/Computers/Internet/Access_Providers/Filtered/ (Und ja, da sind auch Anbieter dabei, die lediglich auf Layer 7 filtern)

    die CDUler glauben auch noch, dass die Internetsperren per DNS nicht umgeht werden können ;)

    Nö, die Regulierer wussten zum Teil schon vorher, dass sie eigentlich was besseres brauchen (DNS-Manipulation war nicht zuletzt als juristischer/vermittelbarer Brückenkopf gedacht). Zu dem Thema gab’s ja schon bei Büssow eine Menge Papier. Nach dem Zensursula-Debakel wissen sie nur nicht, wie sie es bekommen können.

  30. @chrisv:

    Genauso sollte im Fall JMStV die Parole lauten “Filtern ja, aber nur nutzerautonom”.

    Sign, aber warum nicht noch einen Schritt weiter gehen? Sprich, der Politik gleich auch die konkreten Tools (z.B. Browser-Plugin + Infrastruktur dahinter) im Sinne eines Proof-of-Concept in die Hand geben, mit der man diese Parole auch umsetzen bzw. implementieren könnte, das Know-How und die Ressourcen dafür wären ja vorhanden, oder? Damit würde man die „Gleichschaltungsfanatiker“ nicht nur in Erklärungsnöte bringen, sondern man hätte quasi bereits selbst vollendete Tatsachen geschaffen, gegen die es ja noch schwerer zu argumentieren wäre.

    Wie KinNeko schon sagte, wenn das Ganze dann auch noch einfach, billig und sauber zu realieren ist, dann kommt dies fast schon einem K.O.-Kriterium gleich, gegenüber allen anderen weitaus teueren und komplexeren (Gleichschaltungs-)Lösungen. Denn bessere „Verkaufsargumente“ gibt es nicht, gerade in Zeiten, wo die öffentlichen Kassen leer sind.

    @Jörg-Olaf:

    Sorry, aber du argumentierst doch auch nur mit von der Leyen-Rhetorik. Du berufst dich auf externe Expertenmeinungen, ein schlüssiges Gesamtkonzept kannst auch du nicht liefern. Was die „Experten“ sagen gilt für dich und das, was sie dir sagen, wird auch genau so kommen (müssen). So etwas kommt fast schon einer Ohnmachtshaltung gleich:

    Meine Intention ist irrelevant für diese Debatte. Reicht es, wenn ich sage, dass ich in 3 bis 5 Jahren auf meine Utopie verweisen können möchte?

    Ich dagegen bin der Meinung, es ist noch nicht zu spät, wenn man sich nur mal aktiv und ergebnisorientiert am Gestaltungsprozess beteiligen würde mit der Zielsetzung, am Ende ein konkretes Umsetzungskonzept für die aktuellen Problemstellungen auf den Tisch legen zu können, das auch Akzeptanz bei der Gegenseite finden könnte.

    Wenn ich mir aber unsere Diskussion hier anschaue, dann ist dieser Wunsch eventl. auch nur eine Utopie ;-(

  31. Nur mal zur sprachlichen Klarstellung: Was hier leichtfertig als „Utopie“ bezeichnet wird, ist eine klassische Dystopie.

  32. Zweierlei:
    1. „Unzulässige Inhalte“? Das ist ganz genau der Jargon, den auch China und Iran und dergleichen anwenden. Auch dort wird ja nur die Bevölkerung vor unzulässigen, die Entwicklung gefärdenden Inhalten geschützt.

    2. Eine Klassifizierung ohne Zwang zur Filterung: Das wäre interessant. Allerdings aufgrund sich ständig ändernder Inhalte niemals vollständig machbar. Und auch hier wäre die Frage, wer klassifiziert? Und nach welchen Regeln? In den USA wären z.B. Gewaltscenen problemlos jugendfrei, während ein versehentlich aus dem Kleid gerutschter Busen einer Janet Jackson einer nationalen Katastrophe gleichkommt. Hier ist das (noch) andersrum. Wer also klassifiziert nach welchen Werten?

    Eine Möglichkeit wären unabhängige Klassifizierer, die man je nach Gusto frei wählen könnte. Im Prinzip genau so, wie man heute bereits vor Anzeige einer Seite Anfragen bei Phisching-Datenbanken machen kann. Das Prinzip ist das Gleiche. Und, wer will, könnte auch stattdessen einen eigenen Klassifizierer aufsetzen oder eben auf Klassifizierung verzichten. Prinzipiell jedoch könnten solche Klassifizierer ein Segen sein, genauso wie Phishing-Datenbanken oder Spamfilter bei e-mail. Aber nur, so lange Jeder selbst entscheiden kann, a) welchen und b) ob überhaupt er Klassifizierer nutzt.

    Übrigens, im Prinzip wären auch Meta-Klassifizierer möglich, die einfach mehrere Klassifizierer abfragen und das Ergebnis aus einer gewichteten Mehrheitsentscheidung berechnen.

    Aber Nanny-Staat? Nein danke!

  33. @Valentin: Ich hatte es bereits im Programm gesehen. Klasse Idee und begrüßenswert. Danke auch für die Organisation!

    Die Sache hat nur einen Haken (für den ihr nichts könnt): Die Debatte auf dem Politcamp wird weitgehend im luftleeren Raum stattfinden. Das Politcamp ist am 20. März (ein Samstag), der JMStV soll aber bereits am 25. März (Donnerstag) den Ministerpräsidenten der Länder zu Unterschrift vorgelegt werden.

    Selbst wenn über Kritikpunkte Einigkeit erzielt werden kann, wird diese Kritik also wohl keine Berücksichtigung mehr finden können.

    @Bender:

    der Politik gleich auch die konkreten Tools […] im Sinne eines Proof-of-Concept in die Hand geben.

    Tja, wenn das so einfäch wäre ,) Ich sehe weiterhin zwei Problemfelder:

    1) Labeling/Rating. Labeling wäre noch denkbar (der Aufwand imo aber nur schwer vermittelbar: Forschung, kostet Geld, allenfalls eher mittelfristiger Erfolg), das anschließende Rating hingeben dürfte auch mit Crowdsourcing kaum zu lösen sein. Es sei denn, wir beschränken uns auf BestOf-Empfehlungssysteme („Internet-Sampler“).

    2) Nutzerautonomie: Eine für die Politik akzeptable Lösung kann nicht 100% nutzerautonom sein. Daraus ergeben sich eigentlich weitere Punkte, aber die hatten wir ja oben schon.

    Lösungen, die die beiden Problemfelder ausblenden – wie die drei Affen – gibt es bereits.

    Allerdings hörte ich, nicht nur aus informellen Quellen aus dem Umfeld eines großen Providers, dass wohl entsprechende Paper mit neuen und nicht ganz so neuen Ideen vorbereitet werden.

    wenn das Ganze dann auch noch einfach, billig und sauber zu realieren ist

    Das wird es nicht sein. Die Frage ist allenfalls, wer zahlt …

    Denn bessere “Verkaufsargumente” gibt es nicht, gerade in Zeiten, wo die öffentlichen Kassen leer sind.

    … und genau deshalb haben wir ein Problem.
    Erneut auf eine Lösung zu setzen, die billig ist und schnellen Erfolg verspricht, wird nicht helfen.

    Sorry, aber du argumentierst doch auch nur mit von der Leyen-Rhetorik. Du berufst dich auf externe Expertenmeinungen, ein schlüssiges Gesamtkonzept kannst auch du nicht liefern.

    Definiere Ironie: Leyen-Rheoterik mit einem Leyen-Argument zu unterstellen -> „Ich tue wenigstens was, Sie haben nichtmal ein schlüssiges Gesamtkonzept“ – Herrje.

    Woher kommt eigentlich dieser merkwürdige Gedanke, man dürfe nur aufFehler hinweisen, wenn man eine (bessere) Lösung für ein Problem hat? Ok, ja, aus der politischen Kultur, ich weiß.

    Ich dagegen bin der Meinung, es ist noch nicht zu spät, wenn man sich nur mal aktiv und ergebnisorientiert am Gestaltungsprozess beteiligen würde

    Auf Kritikerseite mangelt es weder an Gesprächsbereitschaft, noch an Vorschlägen. Einladungen, die über Sondierungen hinausgingen, gab es bisher meines Wissens aber nicht.

    Ich habe eher das Gefühl, dass die Staatskanzleien alles daran setzen, den Staatsvertrag möglichst an der kritischen Öffentlichkeit vorbei in trockene Tücher zu bringen.

    @Ein Mensch: Endlich mal jemand, dem ich zustimmen kann, obwohl ich einen Fehler gemacht habe ,) Danke. Stimmt natürlich.

  34. @Siegfried:

    “Unzulässige Inhalte”? Das ist ganz genau der Jargon, den auch China und Iran und dergleichen anwenden.

    Richtig. In der Diskussion um Internetsperren in Deutschland geht der Begriff vor allem auf den Düsseldorfer Regierungspräsidenten Büssow bzw. den damals einschlägigen Staatsvertrag über Mediendienste (kurz Mediendienste-Staatsvertrag oder MDStV) zurück.

    Thomas Dreher schrieb damals in seinem äusserst empfehlenswerten Hintergrund-Aufsatz „Link, Filter und Informationsfreiheit: ODEM“:

    Die Medienaufsichtsstelle stützt ihre Verfügung auf den von den Bundesländern 1997 verabschiedeten Mediendienstestaatsvertrag (MDStV). In diesem Vertrag sind in §8 die unzulässigen Angebote aufgeführt, darunter „Haß gegen Teile der Bevölkerung“, Verherrlichung von Gewalt und Krieg, Pornographie und Verletzung der Menschenwürde.

    Vgl. die Begründung der Sperrverfügungen in NRW: http://odem.org/material/verfuegung/

    Wer also klassifiziert nach welchen Werten?

    Ja, auch das ist ein Problem (Übrigens auch für die „Löschen statt Sperren“-Debatte!). Oben sprach ich ja auch schon vom kulturellen Tellerrand. Ich befürchte allerdings, dass ein in den Methoden der alten Medien gefangener Jugendschutz, der Sendezeitbeschränkung im Internet für eine gute Idee hält, auch in diesem Fall nicht über den Tellerrand der eigenen Zeitzone schauen wird.

  35. @Jörg-Olaf:

    Deine unangebrachte Polemik außen vor:

    Tja, wenn das so einfäch wäre ,)

    Wo siehst du hier konkret die Probleme? Würde es deiner Ansicht am Know-How oder an den Ressourcen fehlen?

    Zu den verbleibenden Kernproblemfeldern:

    1.) Userautonomie

    Die ergibt sich für mich, wie oben bereits mehrfach angesprochen explizit dadurch, dass die Verwendung einer Filtersoftware auf freiwilliger Basis erfolgt. Diese Argumentation ist für mich nicht ganz abwägig, denn auch der heise-Artikel geht in diese Richtung. Diese Möglichkeit, also die Freiwilligkeit der Nutzung, stellst du aber per se in Abrede und gehst sogar noch einen Schritt weiter und behauptest:

    Eine für die Politik akzeptable Lösung kann nicht 100% nutzerautonom sein.

    Könntest du hier eventl. eine Quelle angeben, die deine Behauptung unterstützt?

    2) Labeling/Rating

    Her mit dem „Internet-Sampler“. Wer die Bild liest ist eventl. auch der Ansicht, dass seine Kinder genau so etwas brauchen, um nicht mit zu viel (kritischer) Information überflutet zu werden.

    Als Leser der Zeit werde ich mich ja höchstwahrscheinlich gegen die Installation der Filtersoftware entscheiden, also genießen meine Kinder dann den ungefilterten Zugang zur Information, inkl. aller etwaigen Nebenwirkungen.

    Fazit: Mit so einem „faulen Kompromiss“ könnte ich (gut) leben, denn er schränkt meine Rechte nicht grundlegend ein. Ich sehe mich nicht als Weltverbesserer, der alle Bild-Leser zur Zeit bekehren möchte und starte deshalb auch keinen Kreuzzug dafür. Darüber hinaus hat sich bei mir, wenn auch schmerzlich, bereits die Erkenntnis durchgesetzt, dass ein politischer Meinungsbildungsprozess in einem pluralistischem System immer nur auf einen Konsens hinauslaufen kann, indem sich alle Beteiligten wiederfinden müssen.

    Allerdings hörte ich, nicht nur aus informellen Quellen aus dem Umfeld eines großen Providers, dass wohl entsprechende Paper mit neuen und nicht ganz so neuen Ideen vorbereitet werden.

    Hast du hier etwas konkretes anzubieten oder kannst du uns zumindest sagen, aus welcher Richtung du da was gehört haben möchtest?

    Auf Kritikerseite mangelt es weder an Gesprächsbereitschaft, noch an Vorschlägen. Einladungen, die über Sondierungen hinausgingen, gab es bisher meines Wissens aber nicht.

    Nicht immer nur passiv auf Einladungen warten, sondern seine Lösungen aktiv an die Politik „verkaufen“. An überzeugenden Konzepten und Leuten, die diese dann auch glaubwürdig vertreten könnten, scheint es ja nicht zu mangeln. Oder glaubst du wirklich, die Herrschaften von McKinsey, Roland Berger, T-Systems oder Accenture werden alle „eingeladen“.

  36. @Bender:

    Wo siehst du hier konkret die Probleme?

    Die habe ich nun mehrfach benannt.

    Sastre/Herr Schneider, sind sie es? Ach, wohl nicht. Sorry, ich hatte gerade schon wieder ein Déjà-vu ,)

    […] kannst du uns zumindest sagen, aus welcher Richtung du da was gehört haben möchtest?

    Ebenso wenig, wie du es tun würdest.

    Nicht immer nur passiv auf Einladungen warten, sondern seine Lösungen aktiv an die Politik “verkaufen”.

    Sag mal, was glaubst du, was die in diesem Bereich engagierten zivilgesellschaftlichen Initiativen den lieben langen Tag so machen? Däumchen drehen?

    Anyway, ich denke, es ist alles gesagt. Wie drehen uns im Kreis.

  37. @Jörg-Olaf:

    Ich habe keine Probleme damit, meine Quelle weiter einzugrenzen. Die Infos, auf die ich mich bezogen habe, kommen aus der Rechtsabteilung von 1&1.

    Noch ein letztes Wort zum Thema „Däumchendrehen“:

    Ich habe mit keinem Wort gesagt, dass man nur untätig rumsitzt, sondern lediglich auf mögliche neue Strategien hingewießen um sich damit eventl. veränderten Realitäten anzupassen oder damit schneller/einfacher ans Ziel zu kommen.

    Denn, wie wir alle wissen sollten, in der Realität ist alles grau und nur auf dem Papier lässt sich leicht mit Schwarz und Weiß argumentieren.

  38. @Bender: Tja, manchmal ist es wie beim Schattenboxen. Ich kenne die (aktuelle) 1&1-Position nur zum Teil (werde bei Gelegenheit aber gerne nochmal nachfragen), aber offenbar ist/war man auch bei 1&1 unschlüssig, was die Freiwilligkeit betrifft:

    In der Anhörung selbst und in der Berichterstattung im Anschluss wurde der Eindruck erweckt, es ginge nur um “freiwillige” Lösungen, es handele sich um ein “Missverständnis”. Richtig daran ist, dass in Gesprächsrunden im Vorfeld auch nur von freiwillligen Lösungen die Rede war. Aber es erklärt überhaupt nicht, wieso jetzt von einer Verschärfung des JMStV die Rede ist […] Bei diesen und weiteren Punkten bestehen also erhebliche Unklarheiten und weiterer Diskussionsbedarf – für eine “Entwarnung” ist es also noch zu früh.

    Obiges Zitat stammt aus einem Blogeintrag vom 29.01., also 2 Tage, nachdem nach Ansicht der Staatskanzlei RLP die Missverständnise ausgeräumt wurden.

  39. Es ist sehr wohl relevant,auf welchem Layer das ganze stattfinden soll.
    Aber ich versteh sowieso nicht,wie man solche Dystopien ueberhaupt „diskutieren“ kann.

    Dass es die Politiker „gut“ meinen,ist kein Argument. Ich mein es auch nur gut,wenn ich Nachbarshund Blindenhund erschiesse,um ihn zu schuetzen.

    Die Verhaeltnismaessigkeit laesst mittlerweile bei _allem_ zu wuenschen uebrig.

    Die Politik findet kein Mass mehr,wenn es um Schutz/Sicherheit ,Panikmache etc geht,um ihren Polizeistaat zu etablieren.

    und es gibt da nen Artikel im Grundgesetz,nachdem Zensur nicht stattfindet.

    Alleine daran wird das ganze Raenkelspielchen schon scheitern,da sich jeder Mensch Journalistisch betaetigen darf (ZUM GLUECK!) und sich in dem Feld auch an keine Behoerde wenden muss,bevor er etwas als journalistisches Produkt in die Oeffentlichkeit bringt (solange er sich an die Gesetze halt haelt…das ist aber auch heut schon so.)

    Ergo,entweder ,ich stell jeden Journalismus unter staatliche Alterskontrolle und demontiere damit die 4. Saeule einer freien Republik,oder aber ich halte mich an das Grundgesetz,ausnahmseweise mal (aus Politikersicht) und lass endlich die Eltern wieder das machen,wozu sie da sind. Ihre Kinder grossziehen zu freien Individuen,die abermals freie Kinder in die Welt setzen koennen.

    Dazu muss sich allerdings scheinbar mehr aendern,als man will :-/

  40. @Bender & @KinNeko: Herrje, was bin ich vergesslich. Aber gut, es gibt ja Menschen, die für mich mitdenken (Danke Christian!).

    Tatsächlich gab es ja letztes Jahr bereits von 1&1 den Vorschlag, Netzsperren „nutzerautonom“ via Router vorzunehmen (Jaja, schon wieder ein Déjà-vu ,):

    http://www.netzpolitik.org/2009/netzpolitik-interview-eine-weitere-alternative-zu-netz-sperrungen/
    http://netzpolitik.org/wp-upload/sperralternative.pdf

    Nochmal, der Fairness halber (und bevor die mitlesenden 1&1-Justitiare mich missverstehen): Die Lösung wurde von 1&1 explizit als nutzerautonom beworben. Wie nah sie gleichwohl an meiner Utopie Dystopie ist, ist aber hoffentlich klar erkennbar.

    Wir haben:

    a) Extern eingebundene Filter
    b) Optionale Whitelistfilterung
    c) Filterung auf Netzwerkebene (ja, erstmal beim Kunden, aber …)

    Was wir noch nicht haben:

    a) ein individuelles Endgeräte-Dongle für graduierte Filterung. Das wäre in obigem Setup aber trivial zu implementieren.

    Und nein, „Kauft man halt einen anderen Router oder flasht die F-Box um!“ ist leider kein Gegenargument. Ebenso wenig – das liegt bei staatlicher Regulierung in der Natur der Sache – ein Wechsel des Providers.

    PS: Puh, und fürchtete schon, die Utopie Dystopie wäre tatsächlich allein der feuchte Traum eines durchgeknallten Verschwörungstheoretikers.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.