Generell

Netzwerkmanagement und Deep Packet Inspection – Wer kontrolliert das Netz?

Ein weiteres Panel auf der „Netz für Alle“-Konferenz der Rosa Luxemburg Stiftung / Linken Bundestagsfraktion ging es um „Netzwerkmanagement und Deep Packet Inspection – Wer kontrolliert das Netz?“


Netzpolitik.org ist unabhängig, werbefrei und fast vollständig durch unsere Leserinnen und Leser finanziert.

Für Hendrik Schulze, Präsident der ipoque GmbH, einem Leipziger Anbieter von Deep-Packet-Inspection-Dienstleistungen, ist DPI „ein ganzes Bandel an Technologien“. DPI sei sowas, „wie ein Röntgengerät“. Es gäbe nicht das eine konkrete Anwendungsszenario, sondern man könne damit Koffer scannen oder es zur Diagnose einsetzen. Im Grunde könne man damit aus Kommunikationspattern Informationen über Nullen und Einsen herausbekommen. Alles andere wären Anwendungsfälle. Im übrigen sei das Netz noch nie neutral gewesen und Netzneutralität werde meist gleichgesetzt mit „keine Regeln für das Internet“.

Die Gegenmeinung vertrat Prof. Dr. Rüdiger Weis von der Beuth Hochschule für Technik Berlin und dem Digitale Gesellschaft e.V.: „DPI ist nicht ein Röntgengerät für Bomben am Flughafen. Es ist ein Nacktscanner für alle Geräte“. An Schulze gewandt erklärte er, dass dieser ja sicher von früher noch wüsste, wie die Stasi mit Post umgegangen sei. Da hätten Bedarfsträger die Post geöffnet und dann entschieden, wie man jetzt vorgehen solle. Das sei jetzt mit DPI professioneller machbar als früher bei der Stasi: Alle Datenpakete werden mal kurz geöffnet um zu schauen, was man damit anfangen soll. „DPI ist nicht so harmlos, wie Sie es darstellen“. Damit könne man auch nach Wörtern wie „Dalai Lama“ oder „Demokratie“ suchen, wie Sicherheitsbehörden in China zeigen. „DPI ist ein universelles Schnüffeltool“. Hersteller seien beim Export „sehr regide zu kontrollieren“.

Hendrik Schulze stellt sich gerne dem Dialog, weil er möchte, dass die Politik für diese aus seiner Sicht sinnvolle Technologie Regeln festlegt. Die Anwendung solle sanktioniert werden, aber nicht die Technologie an sich, weil diese doch viele sinnvolle Anwendungsszenarien biete.

Thomas Grob, Senior Expert Regulatory Strategy bei der Deutschen Telekom AG, berichtete vom DPI-Einsatz bei seinem Unternehmen. DPI werde nicht in öffentlichen Netzen eingesetzt, sondern lediglich zum Schutz von Geschäftskunden in Unternehmensnetzen. DPI könne aber live bei DDOs-Attacken und ähnlichen Bedrohungen zugeschaltet werden. In Mobilnetzen habe man Service Control Engines im Einsatz, um Services wie VoIP zu blocken. Die bräuchte man aber auch, um aus dem Verkehr Schlüsse für den Ausbau ziehen zu können außerdem wünsche sich die Bundesnetzagentur detaillierte Zahlen. Er wolle differenziert diskutieren, wie ein verantwortungsvoller Umgang mit dieser Technologie mit vielen Möglichkeiten gemacht werden könne.

Frank Rieger vom Chaos Computer Club kristisierte, dass hier eine Technologie flächendeckend eingeführt werde, die in der Lage sei, einen politischen Diskurs zu unterbinden. Er habe in Handbüchern von Service Control Engines gelesen, dass es nur ein Klick entfernt sei, um Services zu unterbinden oder Wörter zu zensieren. Dieselben Geräte und Software stehen in repressiven Regimen, lediglich anders konfiguriert. Er kritisierte, dass die Maschinen viel mächtiger seien als notwendig. Das wäre ein Problem, weil Politik oftmals hysterisch reagiert und bei einem neuen Vorfall die Ausweitung von Befugnissen beschließt. Technik werde einfach mal installiert und dann „Vertraut uns mal“ gesagt. Aber man könne Unternehmen nicht vertrauen, die einfach mal die Netzneutralität verletzen und sich nicht darauf konzentrieren, nur Bits hin und her zu schieben. Auch gebe es keine belastbaren Infos der Telekommunikationsunternehmen, dass man dringend Netzwerkmanagement brauche. Insofern könne man auch nicht darüber diskutieren, wie man eine Auslastung besser technisch lösen könne. „Wir möchten nicht ein Netz haben, was potentiell zu kontrollieren ist“, erklärte er. Demokratie wäre leider auch nicht abschließend, wie man in Ungarn gerade sehen könnte.

Frank Rieger verwies auf ein Papier auf der Ipoque-Seite, wo DPI zur Vermeidung von p2p angepriesen werden. Doch für Schulze war das keine Werbung, sondern man habe lediglich die technischen Möglichkeiten dargestellt.

Rüdiger Weis entgegnete: „Es gibt keine neutrale Technologie. In Technik steckt halt auch immer Politik!“

Im zweiten Teil der Diskussion ging es um Netzneutralität und Priorisierung.

Schulze fand Priorisierung ganz toll, weil die Internettechnik in den 60ern entwickelt worden wäre und und das müsse man jetzt optimieren. Damit wären auch tolle Geschäftsmodelle möglich, z.B. weil ja jetzt die „nur Mailempfänger“ die Heavy User mit finanzieren würden.

Herbert Behrens, MdB der Linken fragte: „Sind wir schon drin im 2-Klassen Internet?“

Frank Rieger kritisierte, dass bereits jetzt bei der deutschen Telekom bestimmte Peerings verboten oder zu teuer sind, Internet sei momentan in Deutschland kein unreguliertes mehr. Netzanbieter bieten Mehrwertdienste an und wollen Szenarieren ausbauen, um Geld mit was anderem als dem Transport von Bits zu verdienen. Das zuzulassen sei ein großer Regulierungsfehler. Als Beispiel brachte er die Eisenbahn, wo man ja sehen könnte, dass es keine gute Idee sei, demselben Unternehmen Gleise und Züge zu geben, weil man damit Probleme haben allen guten Zugang zu Gleisen zu ermöglichen. Er forderte, dass alle Anbieter zu Transparenz darüber gezwungen werden müssten, was sie priorisieren und welche Technologien sie dafür einsetzen. Außerdem müssen jeder Anschluss eine garantierte Mindestgeschwindigkeit haben, die nicht beeinflusst wird. Dazu bräuchten wir eine spezifische Regulierung, die bestimmte Sachen wie Filtering verbietet, wenn Kunden das nicht pro-aktiv wünschen. Das müsste mit hohen Strafen belegt werden.

Rüdiger Weis verwies nochmal darauf, dass p2p nicht nur das sei, „wo Leute Britney Spears tauchen“. p2p sei, wie Menschen sich austauschen: „P2p ist nicht böse. P2p ist eine innovative Weiterentwicklung für das Netz. Freunden Sie sich damit an“! Klar habe die Deutsche Telekom ein Problem mit Skype „das hatten die Kutschenbesitzer auch als die Autos aufkamen.“

Thomas Grob erklärte, dass die Deutsche Telekom kein DPI benötigt, wenn sie Priorisierung machen dürfen. Die Knappheit sei da, auch wenn man das der Enquete-Kommission nicht beweisen konnte. Das sähe man ja in Fussballstadien und auf Konzerten. Er wäre sofort bereit, Geld für garantierte Verbindungen zu zahlen. Man habe einfach verschiedene Tarifpakete, Kunden könnten doch auch den teuren kaufen, wo alles möglich ist.

Aus dem Publikum stellte ich daraufhin die Frage, wo denn der interessierte Kunde herausbekommen könne, was in welchem Paket möglich ist. Das ist tief in den AGBs versteckt, aber nicht in der Werbung.

Thomas Grob antworte: „Wir sind der Meinung, der interessierte Kunde kriegt das auch heute raus.“ Übersetzt heißt das: Der interessierte und mit der Thematik vertraute Kunde wird durch das aufwändige Durchlesen von AGB schon raus bekommen, in welchem Tarif was geblockt und wo die Netzneutralität verletzt wird. Transparenz versteckt in AGB: Der Rest wird einfach verarscht!

Frank Rieger verwies auf Probleme mit dem Billing, bei ePlus bekommt man auch Facebook-Zugang, wenn PrePaid-Tarif aufgebraucht, die Telekom dealt jetzt mit Spotify. Diese Mechanismen hätten zwar nichts mit DPI zu tun, abe die Vermischung von Bittransporteur und Diensteanbieter wäre ein Problem.

Thomas Grob antwortete, dass der Spotify-Deal nichts mit Netzneutralität zu tun habe. Die Konkurrenz könne sich doch einkaufen und einen vergleichbaren Deal machen.

Daraufhin meldete ich mich nochmal, weil ich bei dem Spotify-Deal ganz klar eine Frage der Netzneutralität sehe. Bei Mobilnetzen haben wir es mit einer knappen Ressource zu tun. Für diese braucht man Netzwerkmanagement, die die Telekom und andere argumentieren. Wenn jetzt einzelne Dienste bevorzugt behandelt werden und die Kunden unlimited Traffic dafür bekommen, wird die knappe Ressource noch knapper und man schreit noch mehr nach Netzwerkmanagement. Außerdem könne sich nicht jeder einkaufen. Mein Podcast hat z.B. nicht das Geld und die Verhandlungsmacht dafür.

Zum Abschluss forderte Frank Rieger, dass eine gute Netzpolitik den Handlungsrahmen definieren sollte und man dafür nicht zuviel Rücksicht auf Geschäftsmodelle nehmen solle. Es brauche gesetzliche Vorschriften, um DPI zu regulieren. Die minimalinvasivste Technologie dürfe nur genutzt werden. „Das gesellschaftliche Ziel sollte über Profitinteressen gesetzt werden“- Der Anspruch dabei sei: Freies Internet für alle zu vertretbaren Preisen und nicht, dass einzelne zuviel Geld verdienen wollen würden.

Weitersagen und Unterstützen. Danke!
10 Kommentare
  1. Ich kann mich nur wiederholen: Das Netz im Gesamtbild gehört niemandem. Aber die einzelnen Leitungen mussten erstmal von jemandem gebaut werden. Und diese Leute sollen mit ihren Leitungen selbstverständlich machen dürfen, was sie für richtig halten.

    Ich bleibe bei meiner Einschätzung, dass das Erzwingen von Netzneutralität „rein zufällig“ so umgesetzt werden wird, dass dies Zulasten der Bürger geschieht.

  2. „Ich kann mich nur wiederholen: Das Netz im Gesamtbild gehört niemandem.“

    ?
    Das einzig „Freie“ am Netz ist nach gängigen Gesetzen wohl das HTTP Protokoll und einige andere Netzsoftware, sonnst ist eigentlich alles im „Privatbesitz“.
    Im Prinzip besteht das heutige Internet nicht viel mehr als aus Zugangsleitungen , riesige Serverspeicher und die angeschlossenen priv Rechner.
    Die gesamte Hardware ist im Besitz von jemanden und selbst das darauf Gespeicherte ist strenggenommen Eigentum des Diensteanbieters oder gar Speicherbesitzers.
    Das angeblich so „freie Internet“ Exestiert eigentlich gar nicht zumindest Hardwaretechnisch gesehen.
    Ein wirklich freies Netz exestiert noch nicht zumindest nicht auf den Grundlagen des vor 20 Jahren Entwickelten „Internet“ an deren rechtlichen Eigentumsgrenzen wir sehr schnell stoßen können, da diese in den letzten 20 Jahren rasanten Wachstums nur „versteckt“ wurden hinter der „Mär“ von Netz was angeblich keinem recht Gehört.
    Nun wo die dieses Wachstum stagniert erinnern sich die Besitzer aber wieder daran.
    Es wurde in diesen Jahren vernachlässigt das Netz dezentral oder wirklich Unabhängig weiterzuentwickeln oder durch Gesetze besser rechlich Abzusichern, vielleicht sind solche Maßnahmen ja ein Ansporn dazu ?

    1. Mir würde es ja schon reichen, wenn Gesetze es nicht unmöglich (oder absurd schwierig) machen würden, ein unabhängiges, dezentrales Internet zu bauen. Dann würde man sich mit Freifunk nicht mehr einem unkalkulierbaren Haftungsrisiko aussetzen, und das Konzept könnte auch hier durchstarten.
      Überhaupt ist Deutschland ein digitales Entwicklungsland. Flächendeckendes, offenes W-LAN in Städten würde weniger kosten als Straßenlaternen, und wird in absehbarer Zeit mindestens genauso wichtig sein.

    2. Theoretisch wäre ein „freies“ dezentrales Funknetz (Wlan oder andere Technik) zumindest in großen Städten schon möglich in dem die Rechner unter sich Vernetzt sind ohne irgentwelche Zugangsprovider oder Zugangskosten.
      Nur wäre das dann ein eigenes Netz ohne Internetzugang wenn dieses nicht jemand zur Verfügung stellen würde.
      Aber trozdem könnten solch freie, dezentrale fast unkontrollierbare Netze von Rechner zu Rechner eine Zukunft sein?

  3. Ich wage mal die These, dass die allermeisten Internet-Leitungen in Europa direkt oder indirekt durchs Staatsgelder finanziert worden sind.

    Was bei der Telekom immer schön vergessen geht: 32 % der Aktien sind immer noch direkt oder indirekt (über die KfW-Bank) im Staatsbesitz. Insofern könnte alleine auf diesem Weg die Telekom zurück gepfiffen werden, wenn die Politik wirklich handeln wollte.

    Eine Sache noch am Rande: Wenn einerseits die Anbieter von DSL-Anschlüssen sich bei den Bandbreiten gegenseitig lustig überbieten und andererseits dann darüber lamentieren, dass die User diese Bandbreiten schon ausnutzen, so zeugt dies schon von einer gewissen Schizophrenie.

    (Mir persönlich wäre ein 6Mbit-Zugang, wo ich Up- und Downstream frei verteilen kann, lieber als xxK-Mbit Downstream mit lächerliches 512kb upload.)

    1. +1. Hänge hier mit 3 anderen an einer 6Mbit-Leitung (praktisch nie erreicht, aber das ist ein anderes Thema) – und mir/uns reicht das locker. Da laufen auch mal Linux Images, HD Videos, Zeug und Krempel drüber, alles kein Prob. – reicht (uns) halt.
      Denke mal jetzt würde ich 6MBit gar nicht mehr bekommen sondern müsste irgendwas um die 25-100MBit nehmen.. um mir dann das Geheule anzuhören das nicht genug Bandbreite da sei? Womöglich würde ich die irgendwann mal nutzen.. da muss man natürlich gaaaanz genau nachsehen was der User da macht.. WTF?

      Kurzum, ich glaube vorerst kein Wort mehr von dem Bandbreitenknappheitsgefasel.. zumindest wenn es um leitungsgebundene Anschlüsse geht. Was mobile Anschlüsse angeht mag das in einigen Szenarien evtl. anders aussehen. Nach dem Spotify-Deal zweifel ich da aber auch allmählich. Wobei mir in den Diskussionen ohnehin nicht hinreichend zw. mobilen und leitungsgebundenen Anschlüssen unterschieden wird.

      Mittelfristig kommen wir wohl nicht um alternative, dezentrale Netzstrukturen herum. Aber ich seh’s schon kommen.. wenn die Umsätze zurück gehen wird aus dem „Leistungsschutzrecht“ ein „Leitungsschutzrecht“ werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.