Öffentlichkeit

Der Staat, die Zensur und der Müll – effektive Alternativen zum obrigkeitsstaatlichen Internet-’Schutz’

Dieser Gastbeitrag stammt von meinem Kollegen Andreas Schmidt, der an der Technischen Universität Delft zu institutionellen und organisatorischen Aspekten von Internet-Sicherheit forscht. Weiterführende Literaturverweise finden sich am Ende. (RB)

Wir finanzieren uns zu fast 100 % aus Spenden von Leserinnen und Lesern. Unterstütze unsere Arbeit mit einer Spende oder einem Dauerauftrag.

Neue Technologien schaffen neue Möglichkeiten. Bestehendes kann dank neuer Technologien auf neue Weise getan werden, und gänzlich Neues wird durch neue Technologien möglich: neue und andere Produkte, Gegenstände, neue Verfahren, neue Abläufe und neue Wege, Herkömmliches und Anderes neu zu tun.

Im Privaten hat das Internet uns neue Kommunikationsformen ermöglicht, im Wirtschaftsleben sind qualitativ andere Formen der Kooperation zwischen Geschäftspartnern geschaffen worden. Im Politischen sind neue Arten von Bürgerinitiativen und Formen der politischen Auseinandersetzung entstanden. Die Anti-Sperrbewegung der letzten Monate ist ein Ausdruck dessen.

Mit welchen Mittel, Methoden und Institutionen ist das Problem der Missbrauchsabbildungen im Internet (vgl. Bleich/Kossel und Günter/Köhler) in den Griff zu bekommen?

Sicherheit durch Aufbau einer Zensurinfrastruktur?

In all den frühen Debatten zur Globalisierung und zum Internet war stets die Rede davon, dass diese die Souveränität des Staates untergraben würden. In der Tat: Das Problem der Missbrauchsabbildungen im Internet ist ein transnationales, die Server liegen oft außerhalb der deutschen Jurisdiktion und Strafverfolgung. Missbrauchsabbildungen sind ein Angriff auf die seelische Würde der Betroffenen und sie werden zudem als Anreiz für weitere Missbräuche gesehen (vgl. Günter/Köhler). Somit ist der Staat nicht mehr in der Lage, den Schutz seiner Kinder zu gewährleisten. Diese Unfähigkeit ist ein frontaler Angriff auf die raison d’être des modernen Staates. In dessen Hände, so die übliche Legitimationsformel, legen die Staatsbürger alle Gewalt, auf dass er sie im Gegenzug notfalls mit dieser Gewalt beschütze, im Inneren wie nach außen. Bei der Gefahr, die von Internetservern ausgehen könnte, wähnt oder stellt er sich machtlos.

Mit dem Sperrgesetz plant die Bundesregierung, den alten, klassischen Sicherheitsbehörden wieder die Macht über den Kommunikationsraum zu geben, die ihnen seit Mitte der 90er Jahre entglitten ist. Er greift mit einem technologisch-administrativen Verfahren in die Architektur des Internet ein und schafft auf diese Weise wieder Grenzen, innerhalb derer er alles im Griff zu haben glaubt. Vorerst noch löchriger als ein Schweizer Käse, lassen sie sich in ein mittelfristig mit Deep Packet Inspection zur Great Wall of Germany aufrüsten.

Das Sperrgesetz sieht eine Zensurinfrastruktur von einer Machtfülle und Reichweite nicht gekannten Ausmaßes vor, mit der Gefahr der Strafverfolgung von zu Unrecht Verdächtigten, Gefahren für die Freiheit der Meinungsäußerung und der Presse. Das ist die innovatorische Leistung des Gesetzentwurfs zu den Internetsperren: den obrigkeitsstaatlichen Kontrollanspruch ins 21. hinüberzuretten und zu diesem Zweck eine neue, unselige Form von Private-Public-Partnership zu erschaffen – eine Art Headquarter-Governance, bei der der Staat plant und vorgibt und die ISPs als private Sicherheitslieferanten staatliche Planung Sperrzeile für Sperrzeile umsetzen. Der Staat schafft ein Instrument, das die Sicherheit von Kindern gewährleisten soll (aber nicht kann, vgl. Bleich/Kossel), und opfert der anderen Bürger Sicherheit – vor der monopolisierten staatlichen Gewalt.

Die grundsätzliche Frage, die sich eine Gesellschaft immer wieder stellen muss, ist: Wie viel Macht und welche Macht möchte ein Land seinen Sicherheitsbehörden geben? Und welche Kontrolle verlangt die Gesellschaft im Gegenzug? Wie gewährleistet sie, dass die Bevölkerung auch vor dem Staat sicher ist?

Das geplante Gesetz schafft ein operatives Zentrum bei einer Behörde, die geographisch, inhaltlich und technologisch weit vom Problem entfernt ist. Es schafft eine Zensurinfrastruktur mit hohem Missbrauchspotential. Und bei all dem bleibt die politische Verantwortung im Ungefähren, für den Bürger jedenfalls kaum nachvollziehbar.

Praktische Maßnahmen

Wie sind die Schutzinteressen der potentiellen und realen Opfer mit den Grund- und Freiheitsrechten aller übrigen Internetnutzer in Einklang zu bringen? Wie könnte eine gute Lösung aussehen?

Eine Reihe von Aktivitäten sind erforderlich, die einen wichtiger gegen illegale Inhalte, die anderen weniger. Voraussetzung aller Maßnahmen ist natürlich das Erkennen von möglicherweise illegalen Inhalten. Um sicher gehen, dass solche Inhalte auch wirklich illegal sind, kann optional das Verifizieren der illegalen Qualität erfolgen. Der entscheidende Schritt ist natürlich das Löschen der illegalen Inhalte, die Herausnahme aus dem Internet. Auch das Filtern von Inhalten ist eine denkbare Lösung, aber eben eine, die eine Zensurinfrastruktur erfordert. Schließlich können Täter und Tatbestände im Rahmen der Forensik ermittelt werden. Dann bleibt noch die etwaige Sanktion von Tätern etwa im Rahmen von Gerichtsverfahren. Und schließlich sollte jede politische Maßnahme regelmäßig politisch überprüft werden.

Der Gesetzentwurf der Bundesregierung konzentriert sich auf den Aspekt des Sperrens. Ich will im Folgenden auf das Erkennen und Löschen von illegalen Inhalten eingehen.

Erkennen & Verifizieren

Die Meldefunktion übernehmen derzeit Internet-User mit Zufallsfunden, es gibt auch bei den Landespolizeien feste Stellen zu Internetkriminalität. Bei den zahlreichen Kinderschutzverbänden findet man gelegentlich eine Hotline-Nummer.

Auf europäischer Ebene haben sich einige Internet-Hotlines zusammengeschlossen. INHOPE versteht sich als Anlaufstelle bei Internetproblemen wie illegale Inhalte, „Hate Speech“ und eben auch bildliche Darstellungen von Kindesmissbrauch. Wie effektiv INHOPE arbeitet, wie viele Meldungen sie an wen weiterleiten, wo die operativen Probleme liegen – dazu gibt es meines Wissens keine Studien. In Diskussionen auf dem Blog der Security Research-Gruppe des Computer Laboratory and der University of Cambridge wird die Effektivität von INHOPE allerdings in Zweifel gezogen. (Vgl. Kommentar 2 dort )
Auch über die Aktivitäten des Branchenverbandes deutscher Internetprovider, eco, auf diesem Feld liegen keine Studien vor.

Deutsche Polizeidienststellen sind seit den neunziger Jahren im Internet auf Suche nach Strafdelikten. Der Focus schrieb schon 1999 von “19 Kollegen beim Bundeskriminalamt”, die anlassunabhängig ermitteln würden. (Focus, Nr. 38, 1999 , “Auf Streife im Netz”) Das LKA Niedersachsen hat acht Mitarbeiter für freie Internetrecherche abgestellt. (Heise online , 9.2.2009) Das LKA Nordrhein-Westfalen hat zu diesem Zweck die Abteilung “Zentrale Internetrecherchen” geschaffen. (Polizei NRW, Computerkriminalität – Lagebild 2008 )

Bei Problemstellungen wie Markenschutz oder nicht-lizensierten Kopien medialer Inhalte gibt es solche laufenden gezielten Recherchen. Finanzinstitute und Markeninhaber lassen das Internet von Brand-Protection-Dienstleistern wie MarkMonitor oder Cyveillance durchsuchen, um dort nicht-lizensierte Nutzungen ihrer Logos auf Webseiten oder die Verwendung ihrer Markennamen in URLs ausfindig zu machen.

Ein weiteres grundlegendes Problem des Erkennens-Prozesses ist es, herauszufinden wie viel man weiß, um die Dunkelziffern abzuschätzen. Das derzeit Verlässlichste dazu findet man wohl bei Bleich/Kossel.

Löschen: 4 Stunden bis Takedown

Das Löschen kinderpornographischer Inhalte dauert derzeit im Schnitt etwa zwischen vierzig bis fünfzig Stunden, je nachdem welche Studien und Autoren man liest. Es wäre heute möglich, das binnen vier Stunden zu erreichen. Das ist die Zeit, die es in etwa durchschnittlich braucht, bis Banken und deren Dienstleister ihnen bekannte Phishing-Seiten vom Netz bekommen. (Moore/Clayton 2008, Tabelle 2; Moore 2008, Juni)

Warum ist das Problem des dokumentierten Kindesmissbrauchs dann nicht schon lange und mit denselben Methoden gelöst? Die Ursachen sind nicht technischer Natur. Dass man illegale Inhalte schnell und effizient aus dem Internet entfernen lassen kann, zeigt sich daran, wie mit einem anderen Internet-Problem umgegangen wird: Phishing.

Als Phishing werden kriminelle Handlungen bezeichnet, mit denen Internet-User zumeist durch Spam-Mails dazu gebracht werden, Webseiten zu besuchen die vortäuschen, zu ihrer Bank zu gehören, und dort vertrauliche Daten wie Konto-, Kundennummer und Passwörter preiszugeben. (Vgl. Mueller/Schmidt/Ku)

Der technische Ansatz, den das Anti-Phishing-Netzwerk gewählt hat, das lose durch die Anti Phishing Working Group (APWG) vertreten wird, ist das Löschen der falschen Bank-Webseiten. Dazu werden die Hosting-Provider kontaktiert, auf deren Server die falschen Bankseiten liegen; Administratoren der Hosting-Provider nehmen dann diese Seiten vom Netz. „Notice&Takedown“ wird dieses schlichte Verfahren genannt, das in der Praxis freilich eine komplexe Angelegenheit sein kann.

“[T]he take-down defense requires cooperation between many independent actors with conflicting motivations, from the banks impersonated to the ISPs inadvertently hosting the phishing websites.” (Moore, 2008, S. 88)

Die Erfahrungen mit Phishing zeigen, dass das Löschen illegaler Inhalte unabhängig vom Serverstandort im Schnitt binnen vier Stunden möglich ist. Voraussetzung dafür ist, dass

  • man von der Existenz der Inhalte weiß,
  • die Entdecker der Inhalten wissen, wie und an wen sie ihr Wissen kommunizieren müssen,
  • es bei den Hosting-Providern eingeübte Takedown-Verfahren gibt und
  • ein rechtlicher und institutioneller Rahmen gegeben ist, der den Handelnden ein effektives Tun ermöglicht.

Edit: Das größte Hemmnis für ein rasches Takedown von Phishing-Seiten ist Nichtwissen und das Nichtteilen von Informationen. Einigen Banken und deren Takedown-Providern ist die Existenz einer Phishing-Seite nicht bekannt, während andere Takedown-Provider sie schon auf ihrem Radar haben, aber keine Maßnahmen ergreifen, weil es sich nicht um ihre Kunden handelt. (Vgl. Moore u. Clayton/Moore) /Edit Würden alle Beteiligten aber ihr Wissen untereinander tauschen, so wie das die Virenscanner-Hersteller nach anfänglichem Zögern seit einigen Jahren mit Virensignaturen tun, so könnten Takedown-Zeiten für Phishing-Seiten schlagartig von etwa 25 bis 45 Stunden auf rund 4 Stunden sinken. Edit: (Berücksichtigt sind hier Phishing-Technologien, die denen von KiPo-Hosting ähneln, Fast-Flux- und Rock-Phishing bleiben hier außen vor.) /Edit Würden all die europäischen Polizeistellen, die “anlassunabhängige” Internetstreifen laufen, sowie die diversen Hotlines und Kinderschutzstellen ihre Kenntnisse über vorhandene illegale Inhalte teilen und würden all diese Akteure mit Hosting-Providern auf ähnliche Weise kooperieren, wie das Banken und Phishing-Provider tun, ließe sich jede neu entdeckte Kinderporno-Seite im Schnitt binnen vier Stunden löschen. Gleich ob der Server in Magdeburg, Karlsruhe, London, Hongkong oder Petersburg steht.

Fehlende Anreize und träge Hierarchien

Warum funktioniert bei den Banken, was bei Kindern nicht geht? So schlicht wie einleuchtend ist das Argument, dass die unmittelbar Betroffenen, die Kinder, keine Eingriffsmöglichkeiten haben, keine Machthebel besitzen. Die Finanzindustrie sitzt am genau anderen Ende des Tisches der Macht, die Phishing-Geschädigten Kunden haben das Ohr der Banken gefunden. (Vgl. die Diskussion im Blog von Clayton)

Ein wesentliches Problem bei der von Kinderschutzverbänden häufig bemängelten internationalen Zusammenarbeit auf dem Feld der Kinderpornographie ist die Trägheit der grenzüberschreitenden polizeilichen Kooperation. Richard Clayton von der Universität Cambridge in England kommentiert das am Beispiel der Internet Watch Foundation (IWF), die die britische Sperrliste betreibt:

„We think it is the close involvement with the police, who have to operate within a particular jurisdiction, which leads the IWF to believe that they would be ‘treading on other people’s toes’ if they contacted ISPs outside the UK. I assume that this is why I was firmly told in an email this week that they ‚are not permitted or authorised to issue notices to takedown content to anyone outside the UK‘.“ (Clayton 2008)

Eine kluge, gelassene Politik würde die bestehenden Aktivitäten aufgreifen, die Mängel analysieren, die Gründe dafür finden und für die Beteiligten Anreize schaffen, effektiver zu werden.

Neue Formen der Sicherheitsgewährleistung

Schon in den frühen Jahren des Internet entstanden weltweit sogenannte Computer Emergency Response Teams , kurz CERTs. Weltweit gibt es derzeit zahlreiche nationale, regionale und branchenbezogene CERT-Zusammenschlüsse mit dem Ziel, bei auftretenden Sicherheitsproblemen in den Netzen, etwa DDOS-Attacken, rasch und gemeinsam Gegenmaßnahmen ergreifen zu können. Regelmäßige Treffen auf Ebene der verschiedenen CERTs schaffen das notwendige Vertrauen und die Kontakte für auftretende Krisenfälle.

Bei der Phishing-Bekämpfung gelingt die internationale Zusammenarbeit ebenfalls. Die Gründe liegen vermutlich in besseren Anreizstrukturen, die die Beteiligten dazu gebracht haben, sich der Problematik anzunehmen. Die wirtschaftlichen Bedingungen ließen einen Markt für Anti-Phising-Services entstehen.
Wahrscheinlich ist es auch eine Frage der Kultur – hier die pragmatische, hemdsärmelige Mentalität der Techniker, dort die Mitarbeiter staatlicher Bürokratien mit ihren Vorschriften und Berichtswegen und irgendwo dazwischen die Kinderschutzorganisationen. Klagen über schlechte Kooperation mit staatlichen Stellen sind nicht selten.

Die grundlegende Schwäche der bisherigen operativen Anti-Kinderporno-Politik liegt in der Treppe-rauf-Treppe-runter-Kommunikation, der typischen Old-School-Kommunikation zwischen hierarchischen Blöcken. Eine direkte Kommunikation auf kürzestem Wege zwischen Entdeckern illegaler Inhalte und Hosting-Providern würde das Problem der verfügbaren Missbrauchsbilder wohl aus dem Internet schaffen.

Das ist der Vorteil von informeller, netzwerkartiger Problemlösung durch Experten, die nah am Problem sitzen und nicht an fernen grünen Tischen: Einander vertrauend, scheren Sie sich im Zweifelsfall wenig um nationale Grenzen und politische Bedenken. Nähe zur Polizei und zu Strafverfolgungsbehörden kann in der Praxis der Verbrechensbekämpfung offenbar hinderlich sein.

Die Politik wird sich entscheiden müssen. Sie kann sich dafür entscheiden, Regelungskompentenz über das Internet mit dem demokratischen GAU einer unausweichlich illiberalen Zensurinfrastruktur wieder in die Hände des getroffenen Leviathan zu zwingen. Sie kann aber auch versuchen wollen, neue Wege zu gehen; etwas zu lernen aus dem, was andere in Pionierarbeit vorgelebt haben; bestehende Ideen mit all den Ressourcen, die einem Staat zur Verfügung stehen, zu verbessern, und neue Formen der Kooperation zwischen staatlichen und nicht-staatlichen Stellen über Grenzen hinweg zu finden.

Dafür, dass das Internet seit rund fünfzehn Jahren das Feld allen Übels, großen Unrats und neuer Kriege sein soll, ließ es sich in dieser Zeit ganz gut darin leben. Das hat seine Gründe.

Literatur

Weitersagen und Unterstützen. Danke!
31 Kommentare
  1. Dank an Andreas und Ralf. Falls netzpolitik den Ausdruckboykott unterstützt, bitte diesen wunderbaren Beitrag explizit ausnehmen ;)

    Das sollte auch außerhalb gelesen werden.

    „Die Politik wird sich entscheiden müssen. …“

    great conclusion!

  2. Ein toller Satz, der bei der Zielfragestellung natürlich zu kurz kommen muss, aber vielleicht in Zukunft weiter an Relevanz gewinnen wird:

    In all den frühen Debatten zur Globalisierung und zum Internet war stets die Rede davon, dass diese die Souveränität des Staates untergraben würden

    Ich denke, der gefühlte Kampf gegen das Internet ist nur ein Ausdruck des Umbruchs, den das 20. Jahrhundert eingeläutet hat. Der Nationalstaat als solcher wird in der Tat unterminiert, als es zum ersten Mal für die abendländischen Gesellschaften Alternativen zum Nationalstaatsmodell als Ultima Ratio gibt.

  3. Ich finde diesen Beitrag reichlich trivial wenn man bedenkt das er von jemanden geschrieben wurde der es besser wissen müsste. Die Feststellung das man Prozesse ständig verbessern muss kann man nun wirklich für jeden Lebensbereich treffen. Das wirkliche Problem liegt doch woanders, es soll vorschnell, ohne das ein Richter die Illegalität eines Angebots festgestellt hat von Menschen die vielleicht die technische Seite des Problems verstehen mögen aber kaum bereit und in der Lage sein dürften eine Entscheidung über Zensur verantwortlich zu fällen und dafür gerade zu stehen, gesperrt werden. Der zensierte kann dann hinterher dagegen klagen. Das verstößt in meinen Augen klar gegen rechtsstaatliche Prinzipien da die Strafe (Sperre) hier erfolgt bevor die Schuld festgestellt wurde und zwar von Leuten die garantiert nicht für ihre Fehler einstehen wollen. Um mal ein extremes Beispiel anzuführen: Es ist nicht wünschenswert das innerhalb von 4 Stunden Wikipedia wegen eines uralten Scorpionscovers gesperrt wird ohne das jemand kompetentes vorher feststellt ob hier überhaupt eine Straftat vorliegt. Die Idee das alles schneller gehen soll ist grundsätzlich richtig aber der Prozess der beschleunigt werden soll ist der falsche. In anderen bereichen gibt es doch auch Bereitschaftsrichter die auch Nachts und am Wochenende dringliche Anliegen bearbeiten warum nicht auch hier? Das kostet natürlich Geld und da hier keine Kapitalinteressen wie beim Phishing dahinter stehen ist dieses Geld nicht da. Aber das ist genau der Punkt an dem man ansetzen muss, endlich eine vernünftige Ausstattung mit Geld zu erreichen und nicht nur irgendwelche adhoc Billigmodelle und Placebos für das dumme Wahlvieh zusammen schustern.

  4. @krümmelmonster:
    – „Prozesse ständig verbessern“: Es geht hier um etwas Grundlegenderes als Prozessverbesserung. Es geht um andere Formen der Zusammenarbeit zwischen staatlichen und privaten Akteuren – als mögliche Alternative zu staatlicher Machtkonzentration.
    – „das wirkliche Problem…ohne das ein Richter“: Es gibt im Anti-Phishing natürlich gegensätzliche Interessen unter Banken, Takedown-Providern, Hostern, etc. Für letztere ist auch ein Phisher zunächst einmal ein Kunde, den er nicht unbedingt verlieren möchte. Das Verhältnis zwischen Hoster und Phisher oder cp-‚Publizist‘ ist ein privatrechtliches, da gibt es die Kategorie der Strafe nicht. (Im übrigen: Löschen ist weniger strafend als der Stopschild-Pranger.) Das Verfahren heißt Notice(!)&Takedown und nicht Command&Destroy. Ein Hoster muss selbst entscheiden, wie er mit einer Notice umgeht. Er kann sie für gerechtfertigt halten und Löschen, er kann es aber auch lassen – beide Maßnahmen beinhalten Risiken für ihn. Welche das sind, wird auch durch staatliche Regulation festgelegt. Und da gibt es zahllose Wege, Lösch-Betroffene besser oder schlechter zu stellen.
    – „Virgin Killer“-Cover: Einige Entscheidungen der IWF sind bedenklich; schon das institutionelle Konstrukt, eine Privatorganisation zum Quasi-Zensor des britischen Internets zu machen, ist es. Man kann auch mit einem Netzwerk aus privaten Akteuren illiberale Politik machen, wenn die zugrunde liegende Rechtsordnung das zulässt oder gar fördert.

  5. Weil es ein paar Nachfragen wegen der Takedown-Zeiten gab, ein paar Anmerkungen.

    Ich beziehe mich hier weitestgehend auf Clayton/Moore, Tabelle 2, und Moore:
    Entscheidend ist hier die Differenzierung zwischen a) „Brand owner aware“ und b) „brand owner missed“. Clayton/Moore haben Phish-Feeds aus verschiedenen Quellen, addieren das Wissen verschiedener Banken und Anti-Phishing-Provider. (Noch ausführlicher in Moore 2008 beschrieben) Sie wissen derzeit offenbar mehr über laufende Phishing-Incidents als jeder andere. Daher können sie messen, wie lange der Takedown dauert, wenn die Bank davon weiß („aware“) und wenn sie es nicht weiß („missed“, die Phishsite ist der Bank also bislang entgangen). Wissen die Banken um die Phish-Site, ist sie meist binnen 4h stillgelegt; im Median sogar unmittelbar mit Eintrag in ihre Phish-Feeds, 0 Stunden.

    Was ist mit den anderen Zahlen: Fast-Flux-Techniken werden zwar beim Phishing eingesetzt, in der CP-Thematik habe ich noch nichts darüber gelesen. Gleiches gilt für Rock-Phishing. Deshalb fallen die letzten beiden Zeilen der Tabelle hier weg. Phishing ist ein Massengeschäft, basiert auf Spam und Botnets, CP hingegen zielt auf kleine Benutzergruppen.

    So, wie komme ich nun auf die 40-50h? Das ist eher unsystematisch abgeleitet aus dieser Tabelle 2, einer Markmonitor-Werbebroschüre (http://www.markmonitor.com/download/ds/ds-APshutdown-times.pdf) und einem Daumen. :-)

  6. Ich persönlich habe etwas gegen die Selbstverständlichkeit, mit der wir Internetnutzer erwarten, dass sich der deutsche Rechtsstaat an die von Privatinstitutionen, die von US-Bürgern beherrscht werden, vorgegebenen Regeln anpasst.
    Wenn die Provider auf Anregungen der Polizei nicht anders reagierten als auf die des CCC, dann gäbe es für die Polizei auch kein Rechtsproblem bei ihren Versuchen, Löschungen zu erreichen.

  7. Leute, ich finde es ja gut, wenn man sich mit den Argumenten contra (und dabei auch pro) Zensur auseinandersetzt.

    Allein ich glaube, dass längst alles gesagt ist. Wer sich für das Thema interessiert, braucht nicht noch mehr Text, um sich zu informieren, allenfalls die richtigen Links.

    Was jetzt ansteht ist handeln. Und das heißt in erster Linie gegen die CDU/CSU ankämpfen.

    Leider genügt es dafür nicht, sich im positiven Sinne für die Piraten zu engagieren, obwohl ich auch das für sinnvoll halte.

    Viel wichtiger ist es aber, diejenigen politischen Kräfte zu Fall zu bringen, die die Freiheit in diesem Land zunehmend ernsthafter bedrohen.

    Dafür bleiben im Wesentlichen noch 111 Tage, spätestens dann wird das Debakel noch größer sein als jetzt schon.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.