Die Debatte über die Abschaffung der Netzneutralität läuft seit einiger Zeit deutschland- und weltweit. Ausgelöst wurde sie von Providern, die sich weigerten (oder weigern wollten) alle im Internet übertragenen Pakete gleich zu behandeln. Schnell wurde die Debatte zum Politikum mit schwammigen Konzepten, aber scharfen Linien und großen Streitereien. Nachdem Andreas Bogk hier bei Netzpolitik im Podcast und dann auch als Experte in der Enquete-Komission eine Position zur Netzneutralität vertreten hatte, wurde die Idee von der Diskriminierung anhand von „Diensteklassen“ von Telekommunikationsanbietern wie der Deutschen Telekom immer mit „Das sagt auch der Chaos Computer Club!“ beworben und mit dem gleichen Argument von CDU und FDP mit dem Zusatz „…den Rest regelt der Markt“ abgetan.
Hatte Bogk als Mitglied des CCC das tatsächlich so gesagt und gemeint? Die Antwort vorweg: Jein. Gestern fand im Rahmen des 27c3 eine Debatte zwischen Falk Lüke, scusi, und besagtem Vertreter des CCC Berlin unter dem Titel „Netzneutralität und QoS – Ein Widerspruch?“statt.
Es war zu hoffen, dass Bogk die Gelegenheit ergreifen würde, seine Äußerungen (zum besseren Verständnis) zu konkretisieren. Das tat er auch, aber leider drückte er sich dabei anfangs nicht so eindeutig aus, wie es vielleicht zu hoffen gewesen wäre.
Zwar bemerkte Bogk zu Beginn richtig, dass es notwendig sei, Netzneutralität erst einmal vernünftig zu definieren, bevor man darüber spreche. Allerdings stürmte er dann ohne konkrete Definition los und fabulierte von Quality of Service und Diensteklassen, also von Priorisierung bestimmter Pakete gegenüber anderen. Seine Terminologie war in der Tat nicht von der der Gegner der Netzneutralität zu unterscheiden. Scusi musste konkretisieren: All dies ginge natürlich nur bei vollständiger Transparenz, ohne jegliches „Hineinschauen“ in die Pakete und ohne jegliches Filtern oder Blocken. Immerhin: Bogk stimmte zu.
Zu Recht fragte Lüke nach, wie man sich das denn vorstelle. Laut Bogk solle die Priorisierungsentscheidung einzig anhand eines kostenpflichtig vom Nutzer zu setzenden „Labels“ erfolgen – kosten- bzw. aufpreispflichtig, weil sonst natürlich alle Nutzer immer das Label setzen würden. Bogk betonte, er plädiere für nichts anderes als eine Express-Briefmarken-Regelung, bei der der Kunde die alleinige Entscheidung trifft, ob er eine Sonderleistung gegen Aufpreis in Anspruch nehmen wolle. Die Entscheidung liege also einzig beim Nutzer und solle auf Paket-Basis (also nicht zum Beispiel anhand von Protokoll oder Empfänger) getroffen werden. Darin besteht auch der Unterschied zur Position derer, die Bogk nun so gerne versuchen fälschlich als „einen von Ihnen“ zu zitieren.
Hört sich doch gut an! Ein Beispiel: Ich priorisiere meinen VPN- und ssh-Verkehr, und auf BitTorrent lege ich nicht so viel Wert, wie auf YouTube-Videos. Auf Basis von Protokollen kann das heute schon jeder Besitzer eines halbwegs modernen Heim-Routers für sich zu Hause einstellen. Das nennt sich „Quality of Service“ (QoS). Allein: Diese Priorisierungen gelten genau bis zur Dose in der Wand, aus der das Internet rauskommt.
Dadurch dass mein Router das VPN-Paket eher ins Internet wirft als das BitTorrent-Paket meines Mitbewohners nehme ich auch tatsächlich einen geringen Einfluss darauf, was danach in den Weiten des Internets passiert – meine Priorisierung allerdings interessiert die Provider auf dem weiteren Weg überhaupt nicht. Dann nämlich konkurriert ein Paket, das mein Rechner sendet, nicht mehr nur mit anderen von mir oder anderen Teilnehmern meines Heimnetzwerkes, sondern auf vielen verschiedenen Switches und Kabeln mit vielen verschiedenen Paketen aller möglichen Menschen weltweit. An dieser Stelle soll also Bogks Expressbriefmarke zum Zuge kommen, die ich unabhängig von Protokoll oder Dienst für einzelne Verbindungen frei verwenden kann. Alle Pakete mit der Expressbriefmarke werden dann den Paketen mit normalen Billigbriefmarken vorgezogen, aber in den 2 (oder n) Klassen herrscht dann wieder „wer zuerst da ist, malt zuerst“ also „Best effort“.
Da könnte man sich mit anfreunden. Es wäre zwar eine mautpflichtige linke Spur auf der Datenautobahn, aber immerhin gäbe es eine linke Spur. Aber brauchen wir die überhaupt? Vielleicht nutze ich das Internet falsch, aber bisher leidet mein Anschluss nicht unter Kapazitätsproblemen. Ich kann auch nicht feststellen, dass die Netzneutralitätsdebatte von einer Gruppe frustrierter User entfacht wurde, die sich beklagen, dass Emails zu schnell und YouTube-Videos zu langsam ankommen. Mit altklugen Flachwitzen wie „Das Netz kann nicht unendlich wachsen, genau so wie die Wirtschaft…“ mag Bogk zwar die Lacher auf seiner Seite haben, begibt sich aber auf die Seite der Provider. Weiterhin machte er den ebenso hinkenden Vergleich mit der Festplattenentwicklung von 20MB bis 2TB: „Die waren immer voll!“ – Richtig. Sie wurden aber auch immer größer ohne dass ein Ende in Sicht ist, und das Internet ist bis heute im Gegensatz zu Festplatten nicht voll. Und selbst wenn das so wäre: Kapazitätsprobleme sind Probleme der Kapazität. Priorisierungen sind das, was man in der Medizin „symptombezognene Therapie“ nennt – in Abgrenzung einer Behandlung die die Ursachen bekämpft. Hauptsächlich kommt sie bei unheilbaren Krankheiten zum Einsatz.
Aber kommen wir zurück zur Expressbriefmarke. Von einem CCC-Experten, der sogar vor die Enquete-Kommission bestellt wird, könnte man ja erwarten, dass er sich ein paar Gedanken zu folgenden Fragen gemacht hat:
1. Trennung von Absendern, Empfängern…
Wenn ich eine Datei schnell auf den Netzpolitik-Server laden will, zum Beispiel den Podcast mit Andreas Bogk, dann ist die Sache ja noch einfach: Expressbriefmarke drauf und raus damit. Was aber, wenn ein Empfänger diesen Podcast dann priorisiert herunterladen möchte? Dann muss der Netzpolitik-Server die Pakete mit Expressbriefmarke an ihn senden. Wer aber soll bezahlen? Im Zweifelsfall doch der Nutzer? Also muss es so etwas wie eine unfreie Expressbriefmarke geben, die der Nutzer bei Empfang bezahlt. Auch das wäre ja noch möglich. Wie aber verifiziere ich als Provider, dass das unfreie Paket überhaupt bestellt wurde, und nicht einfach nur aus Schabernack (z.B. DDoS, Jabber-Spam, Portscan) oder einfach mal zum Ärgern losgesandt wurde? Die echte Post bringt das Paket in einem solchen Fall zum Absender zurück und kassiert dort. Der Empfänger muss nur die Annahme verweigern. Bogk kam nicht mehr dazu, zu erklären, wie man so etwas im Internet realisieren könne. Das ist nicht verwunderlich, denn für eine lückenlose Abrechnung ohne die Möglichkeit zu Tricksen müsste zu Abrechnungszwecken eine maximalinvasive Überwachung der Anforderungen und Absendungen von (priorisierten) TCP/IP-Paketen providerübergreifend und weltweit stattfinden. So etwas zu befürworten ziemt sich einfach nicht für einen Gegner der Vorratsdatenspeicherung.
Aber auch die Gleichberechtigung der Anbieter, DAS Kernthema der Netzneutralitätsdebatte, sei es unter Gesichtspunkten (wirtschaftlicher) Gleichberechtigung oder der Meinungsfreiheit, wäre damit erledigt: Große Anbieter könnten zum Beispiel großzügig die Kosten für die Priorisierung übernehmen, und kleinere damit ausstechen. „Nur bei YouTube: Priority gratis!“
2. …und den vielen Lieferanten
Aber nehmen wir einmal an es gäbe eine sichere und nicht manipulierbare, faire und abrechenbare Möglichkeit, so etwas in TCP/IP zu implementieren. Es bleibt ein weiteres Problem: Wir haben nicht ein, sondern mehrere am Transport des Pakets beteiligte Logistikunternehmen (Provider). Bei welchem davon soll ich bezahlen? Mein Heim-Provider befördert einen Großteil meiner Pakete (wenn überhaupt!) allenfalls bis nach Amsterdam oder Frankfurt, wo (spätestens) andere Provider, mit denen Peering– oder Transit-Abkommen bestehen, übernehmen. Diese müssten also meine Expressbriefmarke ebenfalls berücksichtigen, und (wichtiger!) als gleichberechtigt mit eigenen und denen von anderen Providern und Inhalteanbietern betrachten. Würden sie sich verpflichten das zu tun, wäre Bogks Vorschlag zumindest im Bereich des theoretisch vielleicht irgendwie möglichen.
ABER: An genau dieser Stelle wird die Debatte zur Netzneutralität nicht gelöst, sondern sie entspinnt sich überhaupt erst! Die Fülle der Provider und deren unterschiedliche Peering- und Transit-Abkommen ist kaum zu überblicken und heute schon konstantem Wandel unterzogen. Die Debatten, Sticheleien und Diskussionen unter Providern die den ganzen Tag mit Zutaten (IP-Paketen) zu Kuchen hantieren, von denen sie auch gerne ein Stück hätten, wären genau die gleichen, die wir jetzt haben: Es ginge nur nicht mehr um „Der da macht zu viel Traffic!“ sondern um „Die da machen zuviel priorisierten Traffic!“ – denn natürlich würden wir alle den Provider wählen, bei dem die Priorisierung von Paketen pro kB am günstigsten ist. Ich sehe schon die Angebote vor mir: „2GB Priority-Traffic pro Monat inklusive!“, „Priority-Traffic auch nach Kanada!“, „Super-Priority-Traffic zu Youporn.com!“, „Jetzt noch schnellere Priority“, „der einzige Anbieter mit Priority nach Usbekistan“ etc. pp. Am Ende würde dies zu wenigeren, und mächtigeren Providern, die sich im Wettkampf zum Oligo- oder Monopol durchgesetzt haben, und einer immer mehr zentralisierten Infrastruktur führen – mit anderen Worten an der momentanen Entwicklung nichts ändern.
Wie das so häufig bei Podiumsdiskussionen ist, kamen diese Fragen erst am Ende, und aus dem (Stream-)Publikum. Bogks lapidare Anwort: „Der Umgang mit Transit-Traffic ist ungelöst.“ Deshalb plädiere er für Zwangs-Peering, also die Verpflichtung zum freien Datenaustausch und -weitertransport der Provider untereinander ohne Kostenausgleich. Transit-Traffic ist aber das Kernproblem der Netzneutralitätsdebatte, wie die oben erläuterten Querelen der Provider zeigen.
Am Ende bleibt von der Debatte nicht viel sinnvolles übrig. Schade, von einem CCC-Experten hätte ich erwartet, dass er sich darüber Gedanken macht, bevor der Vorschlag auf dem 27C3 groß ausgebreitet und live im Radio übertragen wird. Auch ein bisschen mehr Sensibilität für die großen Missverständnisse, die seinen Ausführungen folgten und folgen werden, würden Bogk und dem CCC ganz gut tun, denn die Rezeption von Bogks Äußerungen in der Vergangenheit hat gezeigt, dass sie mit noch weniger Reflexion übernommen und vor beliebige Karren gespannt werden.
„Das sagt auch der Chaos Computer Club!“
Nennen wir doch einfach das Problem beim Namen: Die Provider suchen händeringend nach neuen Einnahmequellen, weil sie sich über Jahre gegenseitig mit ihren Angeboten (Flatrates für alle Dienste) unterboten hatten. Einige Provider blieben dabei auch auf der Strecke. Freenet wurde von 1&1 gefressen. Tiscali wurde von AOL geschluckt (glaube ich) und diese wiederum haben ihr Deutschlandgeschäft an Alice abgetreten. Oligopole haben sich längst gebildet. Nun geht es darum, andere Einnahmen zu generieren, die möglichst durch die vorhandene Infrastruktur bedient werden können. „Priorisierung“ war offensichtlich dabei die Idee, die geboren wurde, ohne dass man sich zur Zeit im Klaren ist, wie man sowas überhaupt realisieren kann. Klar und einfach ist es, die daraus generierten Gewinne aus den Kunden zu saugen, welche man zuvor mit offensichtlich zu günstigen Tarifen geködert hatte. Man kann gerne behaupten, ein Bittorrent- Download soll nur noch gegen Aufpreis eine Priorisierung erfahren dürfen, doch garantieren kann man es letztendlich nicht. Man könnte die Sache mit den früher oft unseriösen Angeboten vergleichen, wo man für 16K Bandbreiten geworben hat, aber nur selten über 3K bieten konnte. Ein kleiner Vermerk, gekennzeichnet mit *, ließ dann ein „bis zu…“ erkennen, um Rechtssicherheit zu erlangen. Genauso wird es auch bei der Priorisierung laufen, wenn sie denn eingeführt werden sollte. Es ist schlicht technisch unmöglich, eine statische Bandbreite zwischen Sender und Empfänger (durchs Internet über x Provider/Router) zu garantieren, alles andere bezeichnet man bei uns als „Knopf an die Backe nähen“
also ich steig da langsam nicht mehr durch, soll ich dann in ein paar jahren dann zwischen jeweils 10 unterschiedlichen Datenraten und Priorisierungstufen wählen, wenn ich einen neuen DSL Vertrag abschließe zzgl Voip und XMPP Autorisierung.
reicht es nicht schon vollkommen aus, dass man seine Wunschgeschwindigkeit wählt/zahlt. allein dadurch ist man ja schon in den möglichen Aplikationen eingeschränkt.
da zahl ich lieber ein paar Euro mehr und die Provider sollen gefälligst das Netz anständig ausbauen.
Ich habe gerade nicht wirklich die Zeit, auf diesen bemerkenswert unreflektierten Artikel in angemenssenem Umfang zu antworten, der nächste Vortrag wartet. Deswegen nur kurz ein paar Punkte.
Zum ersten scheint offensichtlich die Einsicht schmerzlich zu sein, daß die Definition „Alle Pakete müssen gleich sein“ für die Definition der Netzneutralität schon aus technischen Gründen nicht hinreichend ist. Aus dieser fundamentalen Sicht heraus läßt es sich natürlich viel einfacher argumentieren als aus einer technischen, die die Realitäten des Netzes da draußen berücksichtigt. Ich habe aber darauf verwiesen, daß es durchaus Gründe gibt, Pakete ungleich zu behandeln, ohne daß das für mich ein erkennbares Problem darstellt, und deswegen diese primitive Definition der Netzneutralität zur Debatte gestellt. Herauszufinden, worum es im Kern geht, war ja Anliegen der Veranstaltung.
Zum zweiten: dafür, daß meine Äußerungen von anderen verdeht und uminterpretiert werden, kann ich nichts. Und ich werde mich bestimmt auch nicht auf eine simplistische Weltsicht beschränken, die die realen Probleme ignoriert, nur weil nicht jeder das wirkliche Problem verstehen kann. Es ist ja auch ganz egal, wie einfach man sich ausdrückt, es wird immer jemanden geben, der es mißversteht oder mißverstehen will.
Echt bemerkenswert merkbefreit finde ich übrigens deine Argumentation zum Thema „na QoS geht doch eh nicht“. Ganz blöde Frage: warum muß man dann das Thema Netzneutralität überhaupt betrachten, wenn das alles eh nicht funktioniert?
Im übrigen muß ich nochmals die Gelegenheit nutzen, darauf hinzuweisen, daß Netzneutralität bereits jetzt nicht mehr gegeben ist, daß DPI und QoS massenhaft zum Einsatz kommen. Wer jetzt mit „aber das Internet funktioniert doch gut, so wie es ist“ argumentiert, der argumentiert für DPI und QoS!
Schade Andreas, mit diesem Kommentar hast du dich fuer mich als nicht ueberzeugend dargestellt. Leider fehlte mir eine Klarstellung, aber stattdessen wird an Arroganz gegenueber dem gemeinen – ich sag mal – Uservolk nicht gespart. Also, wenn du dich schon aeusserst, dann nimm dir naechstesmal bitte mehr Zeit.
Schoen aber, dass du die zentrale Frage des Artikels nochmal wiederholst.
Der Punkt dass heute schon massenhaft QoS & Co. Bei lokalen (bestimmte Provider) Netzen angewendet werden ist ein wichtiger Punkt, der bei der aktuellen Debatte meist ausgeblendet wird. Es werden anhand von PR-Äusserungen großer IT-CEOs Schreckensszenarien aufgebauscht, die als Argumentationsgrundlage dienen, um umfassende und technisch detaillierte Regulierungen zu rechtfertigen. Ich glaube etwas mehr Entspanntheit und Gelassenheit täte der Debatte gut. Denn das www hat bisher jedem Staat und jedem Weltkonzern gezeigt, dass es sich nicht so einfach rechtliche Ge- und Verbote aufzwingen lässt.(eigentlich gar nicht). Egal ob Urheberrechts-, strafrechtlich-, „jjugendschützend“- oder sonstwie Zensur-bedingt. Alle Versuche sind und werden scheitern, aufgrund seines dezentralen Charakters.
Mit technischen Detailvorschlägen wird man sowieso keinen einzigen politischen Entscheidungsträger von irgendeinem Vorschlag überzeugen.
Viel wichtiger und einfacherer durchsetzbar sind Transparenzverpflichtungen für die Provider. Jeder der irgendwie priorisiert oder gar blockt, muss darüber umfangreich informieren und darf dann natürlich nicht mit einer „Internet-Flat“ werben, sondern lediglich mit einem „im Rahmen der Netztechnischen Einschränkungen – Traffic-Flat“-Zugang werben. Das bewirkt nämlich, dass sich auch die 95% Web-Nutzer (DAUs) dann ein bisschen mit diesem Thema beschäftigen, wenn sie es direkt als Produkteinschränkung vor dem Kauf wahrnehmen.
Obwohl es bisher im Web an vielen Stellen QoS und schlimmere Einschränkungen gibt, funktioniert das Web eigentlich recht gut. Wenn das Web selbst staatlich strenge Firewalls mühelos durchbricht, dann schafft es das auch bei Versuchen netztraffic künstlich zu begrenzen.
Die Priorisierung auf die Benutzer zu übertragen halte ich für richtig. Innovationsfeindlicher als die Macht der Leitung allein den ISP´s zu überlassen ist es auf keinen Fall – im Gegenteil.
Die Benutzer erkennen verhältnismäßig schnell, was eine Chance hat sich durch zu setzen und was sie nun haben wollen. Flexiblere Internetversorgungsverträge mit den Providern wären allerdings auch eine Voraussetzung dafür.
So eine Art Checkliste beim bestellen einer Internetleitung, auf was man Wert legt und was einem ziemlich egal ist, sowie von mir aus 2 Kundenevaluierungen pro Jahr oder so.
Alles machbar.
Ach Leute, „Checkliste beim Bestellen der Internetleitung“ ist doch Wunschdenken der Techniker. Das Marketing geht dahin, dass man als dummer Enduser nur noch Pakete kaufen kann, wo Telefon und Internet fertig verpackt und untrennbar in einer festen Konfiguration zusammen verkauft werden. Wenn’s nach der Telekom ginge, würden die Fernsehen gleich mit ins Paket reinnehmen. Das ganze mit einer Flatrate, damit die Rechnungslegung einfach wird.
Ich bin wahrscheinlich einer der letzten Entbündelungs-Widerständler, die ihr Telefon und Internet noch bei zwei verschiedenen Anbietern auf einer Leitung haben. Der Grundvertrag wird mir nach 1.5 jähriger intensiver aber erfolgloser Telefonbequatschung durch den Telefonanbieter nun Ende Februar zwangsgekündigt, obwohl ich freiwillig das Doppelte zahle, wie ein Paketkunde.
Die Priorisierung wird bei den Grossanbietern ansetzen, nicht bei den Endusern. Google und Youtube (ach auch google) kriegen Prio, netzpolitik und andreas.org halt nicht.
Eine wirklich gute Analyse die sogar ich als Laie nachvollziehen kann. Danke dafür!
wie schon richtig erkannt wurde, scheint die Netzneutralität nicht von Leuten angestoßen worden zu sein, denen das Internet ‚zu langsam‘
ist.
Was ich zB nicht wirklich verstehe ist, wo zB durch hohen Traffic einem Provider Kosten entstehen. Es ist doch reine Wilkür zu sagen soundsoviel Gigabyte kosten sounsoviel Euro. Dem Datentraffic steht doch kein Arbeitsaufwand in Form von Manpower gegenüber, oder irre ich mich? Es ist doch nicht so wie auf der Autobahn wo eine Kolonne LKWs mehr Schlaglöcher produzieren als ein VW Golf und die Schlaglöcher von der Autobahnmeisterei geflickt werden müssen.
Daneben verstehe ich auch nicht, wieso Internetanbieter mit immer schnelleren Flatrates protzen und Land auf Land ab vom Breitbandausbau geredet wird, wenn man im Endeffekt gar nicht möchte das der User das Potential ausreizt.
Vielleicht kann mir ein schlauerer Leser hier erleuchtung bringen.
@DrRock:
Die Kosten entstehen dem Provider durch die eigene Infrastruktur und dadurch, dass er die Infrastruktur anderer nutzt und bezahlt. Die kostet schlicht Geld, mitunter sehr viel, wenn man z.B. die Seekabel mitrechnet. Und die Infrastrukturen müssen dank wachsender Bandbreitennachfrage fortlaufend ausgebaut werden, was ebenso Kosten verursacht. Diese könnte man über einen Volumentarif nutzungsabhängig und damit fair weitergeben.
Üblich und nachgefragt werden jedoch Flatrates. Dabei ergibt sich aber schon rein rechnerisch ein Problem: Die Bandbreiten, die auf der letzten Meile, besonders in Ballungsgebieten bereitgestellt werden übersteigt in der Summe die Kapazität der extrem teuren Nadelöhre im Netz jedoch bei weitem.
Ein etwas extremes Beispiel: hier in Hamburg bekomme ich eine Flatrate für 30 Euro, die mir 100 MBit Downstream zur Verfügung stellt. Wenn die von 10000 Hamburgern dauerhaft unter Volllast betrieben wird, dann ist das 1 Terabit. Die Apollo-Leitung in die USA ist für 3.2 Terabit ausgelegt, d.h. 32000 Hamburger reichen, um diese Leitung vollkommen auszulasten. Das ist zwar nicht das einzige Überseekabel, aber alle zusammen müssen 500 Millionen Europäer bedienen. Nur mal so als Relation. Daneben gibt es sicher weitere etliche teuere Nadelöhre.
Sinn und Zweck der hohen Bandbreiten auf der letzten Meile ist es eben nicht, den Transfer hoher Datenvolumen zu ermöglichen (rechne mal nach, wieviel du mit 100MBit im Monat transferiert bekommst: 30TB und das pro Anschluss) sondern „kleine“ Volumen möglichst schnell.
Mit einer hohen Bandbreite zum Flatratetarif sollen zwei Kundenbedürfnisse befriedigt werden: der Kunde möchte sorglos surfen (also flat) und möglichst bequem (also schnelles Antwortverhalten). Wenn der Kunde das Angebot jedoch dazu nutzt, hohe Volumen zu transferieren, was ja faktisch auch geht, dann bekommt der Provider Probleme, weil er dann höhere Kosten hat.
Angenommen, der Provider kalkuliert bei obigen Angebot eine durchschnittliches Volumen von 100 GB (wahrscheinlich geht der von deutlich weniger aus) dann unterscheiden sich davon die 30 TB um Faktor 300. Jeder Unternehmer bekommt schon graue Haare, wenn er sich bei größeren Projekten um den Faktor 1,1 (also 10%) verkalkuliert hat, die Elbphilharmonie liegt aktuell etwa bei Faktor 2.5 und das ist in Hamburg ein Riesenskandal.
Und auf dem Land stellt sich zusätzlich das Problem, dass hier bereits der Ausbau der letzten Meile sehr teuer ist, da die Kunden weit auseinanderliegen und sich so Hardware, die gemeinsam genutzt werden muss, um billig zu sein, nur von wenigen Kunden gleichzeitig genutzt werden kann, da z.B. DSL die Leitungslänge sehr begrenzt. Hätte man, wie ursprünglich angedacht, bei der Verlegung der TV-Kabel vor einigen Jahrzehnten auch Glasfaser verlegt, dann gäbe es das Problem auf dem Lande nicht. Aber damals regierte die Fortschrittspartei CDU mit Blackpenny als Postminister, dessen Ehefrau halt in Kupferkabeln machte. Da gibt dann ein Ehrenwort das andere und am Ende wird dann nicht weiter darüber geredet.
Ich habe gerade zu diesem Thema einen recht interessanten Bericht beim elektronischen Netztreporter gesehen, Klasse Beitrag.
Zur Frage der technischen Umsetzbarkeit müsste man nur einen Blick in die IPv6-Spezifikation werfen, Stichwort: Priority Flag.
Ich stimme vollkommen zu.
Ich frage mich nur, ob die Provider sich mit dem Ende der Netzneutralitaet nicht in das eigene Fleisch schneiden.
Wozu brauche ich eine schnelle Leitung, wenn die Inhalte, die ich haben will, eh lahm rueber kommen?
Es ist ein bisschen schwer, sich den Zusammenhang zu erschliessen, ohne den kritisierten Originaltext, ich kann aber aus Andreas Reaktion sehen, das da einiges aus dem Zusammenhang gerissen wurde.
An drei Stellen anzusetzen:
Netzneutralität ist weiterhin ein schwammiger Begriff. Manche verstehen darunter die Verbraucherseite, keiner soll Einschränkungen beobachten können, manche die Anbieterseite, keiner soll am Anbieten gehindert werden.
Tatsächlich sehen wir gerade den Niedergang der klassichen IP Technik, die eben QoS, End2End Sicherheit und Eigenschaften wie anonymen Zugriff nicht mehr bieten kann (ungelöste Probleme wie Routing mal ausgeschlossen).
Und nicht zuletzt (siehe Domainname), hier wird NetzPOLITIK diskutiert, d.h. technische oder (gar) finanzielle Aspekte einer wieauchimmer gearteten Internetzverbindung werden zugunsten eines politischen Ziels unter den Teppich gekehrt.
Aber wir sollten keine Angst haben, Jens Best wird bald einen komplett neutralen Betreiber gründen.
Also ich halte den ersten Kommentar von Thomas Brück für absolut zutreffend.
Da wurde im Kunkurrenzkampf jahrelang immer mehr Bandbreite für immer weniger Geld angeboten und nun gehen anscheinend langsam die Kunden aus. Die Großstädter sind abgedeckt, für ländliche Gemeinden will niemand die Leitungskosten übernehmen weil es ich für ein paar tausend Kunden eben nicht auszahlt – also muss irgendwie doch wieder ein neues Geschäftsfeld aufgemacht werden.
Im Prinzipklingt es natürlich gut wenn man eine „Überholspur“ aufbaut – aber andereseits kann ich nicht wirklich nachvollziehen warum „der Markt“ dies nicht wie bisher regeln kann. Wer mehr Bandbreite haben will zahlt ja auch jetzt schon mehr – das Problem scheint mir eher zu sein, dass „Bandbreite“ ein sehr eigenartig definierter Begriff ist ( bis zu…!!) und daher ein wirklicher Mehrwert bei dem bezahlen einer höheren Bandbreite für den User nicht immer sichtbar ist. Also bleiben viele halt doch bei den billigsten Anbietern und die gesamte Branche kommt eben in Finanzprobleme.
Aber wie im Artikel schon festgestellt wird, kann ich auch nur sagen, dass ich die Horrormeldungen vom Zusammenbruch des Netzes bisher nicht nachvollziehen kann. Und wenn auch einzelen Provider von den Größeren „geschluckt“ werden, sehe ich auch nicht dass die Provider am Hungertuch nagen und mit den bisherigen Geschäftsgebaren nicht mehr zu Rande kommen.
Es kann schon sein, dass durch die enorm gestiegenen Übertragungsmöglichkeiten (wer hätte vor 10 Jahren gedacht, dass man mal HDTV über „normales“ Internet für Millionen Kunden übertragen kann) eben neue Kostenkalkulationen erstellt werden müssen und vielleicht die Infrastrukturkosten besser auf alle Nutzet umgelegt werden müssen. Aber eigentlich erwarte ich von einem „normalen“ Providerm das er dies sowieso macht.
Also da nun „Überholspuren“ einzubauen halte ich definitiv für den falschen Weg.
Ich finde den Ausdruck “symptombezognene Therapie” sehr gut, damit lässt sich eigentlich jede politische Reglementierung eines technischen Sachverhaltes beschreiben. Wenn irgendwer höhere Geschwindigkeiten braucht, so ist das ein technisches Problem, dem auch technisch begegnet werden sollte. Es könnten beispielsweise teure Anschlüsse mit garantierten Bandbreiten angeboten werden.
Ich denke allerdings auch, dass es hier nicht um schnelleren Datentransport geht, sondern um Geschäftsmodelle für ISPs. Von daher braucht man sich nicht vormachen, das sich irgendwelche Services dadurch verbessern werden.
Ich finde das die Debatte in der Öffentlichkeit viel zu nutzerzentriert ist.
Bin mir sogar recht sicher, dass viele Benutzer eine (De-)Priorisierung in ihrem Tarif erstmal gar nicht merken würden, wenn sie denn nur schnell genug an Facebook, ihre Lieblingsinternetseite und Youtube rankommen.
Die eigentliche Gefahr für das Internet als solches liegt meines Erachtens auf der Anbieterseite.
Wie sind innovationen im Internet groß geworden? Eine Gruppe von Menschen hat eine Idee gehabt und irgendwo auf einen Server geworfen, der irgendwie am Internet hing, sei es über einen Provider direkt oder über den einen Webspace Anbieters.
Wenn die Idee gut war, musste man sich irgendwann einen Geldgeber suchen, der mehr Serverspeicher und Anbindung zur Verfügung stellt.
Wie würde das Ganze ohne Netzneutralität ausschauen? Im Ganz extremen Fall müsste man mit jedem Provider einen Vertrag schliessen um an seine Nutzer zu gelangen.
Als Beispiel nehmen wir jetzt einfach mal die Telekom, weil immer noch der Großteil Deutschlands über diese angebunden ist. Sagen wir also wir machen ein Videoportal auf und wollen das dieses auch in Deutschland erreichbar ist(es ist bisher noch unbekannt). Nun besitzt die Telekom ihrerseits allerdings auch ein Videoportal, mit dem sie auch Gewinn machen will. Wieso sollte sie also Pakete ihrer Nutzer an unser Videoportal weiterleiten, wenn nicht gegen viel Geld?
Dummerweise haben wir aber nur wenig Geld und somit bleibt uns der deutsche Markt verschlossen, wir werden nicht bekannt und gehen insolvent.
Das wir eine total innovative Bewertung und Vorschlagstechnik zur Videonutzung und die kleinste Bandbreitennutzung im Markt gehabt hätten, interessiert dann leider kaum einen.
Der deutsche Nutzer würde derweil immer noch zufrieden auf das Telekomportal surfen und sich evtl. wundern warum Youtube eigentlich immer so langsam ist.
Das solche Dinge wie Wikileaks dann noch schwerer möglich wären lassen kommt dabei noch dazu.
Insgesamt würde das Internet aber einen großen Teil seiner Innovationskraft verlieren.
@Gunnar: Das Problem bei endlichen Netzkapazitäten und teureren Priorisierten Leitungen ist, dass immer wenn Pakete priorisiert werden, warten andere Pakete.
Das würde gehen, wenn man Mindeststandards für einen nicht priorisierten Zugang festlegen würde.
Soweit ich weiß sind aber zumindest die Kapazitäten der größeren Netzknoten nicht einmal annähernd ausgeschöpft.
Habe selbst den Eindruck, dass die Kapazitätsprobleme wenn überhaupt immer ‚Letzte Meile‘ Probleme sind.
Langsam kann ich Netzpolitik nicht mehr ernst nehmen … Linus was versuchst du denn da eigentlich zu schreiben? Meinung oder Bericht? Deine letzten Beiträge vermitteln mir immer den Eindruck von gezwungener Pseudo-Kritik statt eine sachliche Diskussion voranzutreiben. Deine Metaphern sind so gestrickt, dass sie oftmals hinken müssen. Schade eigentlich.
Was ändert sich durch eine Priorisierung physikalisch? Neue Leitungen für die „linke Spur“ werden ja erst mal nicht gezogen. Stattdessen wird uns Nutzern (Conten-Anbieter und -Nutzer) Bandbreite weggenommen, und anschliessend als Prio-Leistung wieder verkauft.
Wer nicht mehr zahlen will (oder kann) hat das Nachsehen. Und was ist mit der zahlenden Kundschaft? Sie erhält um so mehr Leistung je mehr sie bezahlt. Das mag am Anfang funktionieren, allerdings nur bis die Kapazitäten ausgeschöpft sind. Werden dann noch mehr Priopakete verkauft, sinkt die Leistung pro investierter Geldeinheit, weil der Umsatz erhöht wird, aber nicht die Leistung. Für die Netzprovider ist das ein lukratives Geschäft: höherer Umsatz minus konstante Fixkosten = höherer Gewinn. Welche Motivation sollten sie da noch haben, die Kapazitäten zu erhöhen? Ganz im Gegenteil, sie profitieren davon, dass ihre Kunden um beschränkte Resourcen konkurrieren. Sind sie knapp, kann man mehr dafür verlangen. Und wer kann das bezahlen? Nur wer es gegenfinanzieren kann.
Na ja, so wie es aussieht, hat Neumann hier ins Schwarze getroffen, denn außer „bemerkenswert unreflektiert“ hat Andreas nicht entgegenzusetzen. Bin ja gespannt, ob er noch die Zeit dazu findet, sich zu den Argumenten zu äußern.
Mal ein kleines Gedankenspiel:
Laut Cisco wird 2014 Videounterhaltung knapp 90% des Konsumententraffics ausmachen. Nehmen wir mal an, dass die meisten Internetnutzer auch solche Inhalte priorisieren möchten.
Wenn dann >= 90% des Traffics priorisiert sind, stehen wir dann nicht genauso da wie vor der Priorisierung? Nur hätten wir dann wahrscheinlich noch mehr Geld gezahlt.
@Pflicht #26 (das hatte ich noch vergessen:)
Genau, dieser Umstand entlarvt das Argument für die Priorisierung: Wenn alle Vorfahrt haben, dann hat niemand Vorfahrt.
Dazu gesellt sich, dass gerade Videos (und alles andere, was einigermaßen in Echtzeit ablaufen soll) timingrelevant sind und deswegen von einer Priorisierung profitieren. Wenn sich die priorisierten Videos aber gegenseitig im Wege stehen, dann hilft es wenig, wenn das eine Paket, das eine Twitternachricht ausmacht, verzögert ausgeliefert wird.
Und wenn die Kunden nun Videos priorisieren, weil man sie sonst nicht sinnvoll ansehen kann, dann ändert sich bei 90% Videokonsum weder etwas für die Provider, noch etwas für die Kunden, weil dann weder die Priorisierung greift, noch die Provider mehr Geld verdienen, da sie ja trotzdem ausreichend Bandbreite zur Verfügung stellen und finanzieren müssen. Den Aufschlägen, die sie kassieren, stehen dann auch reale Kosten gegenüber, d.h. der Gesamtpreis orientiert sich dann, so wie heute, an den realen Kosten (d.h., so real, wie die heute auch sind). Nichts anderes bedeutet ein Wert von 90%.
Anders ist das, wenn Twitter, Facebook und Co Ziel der Priorisierung sind. Ein Nutzen lässt sich für die Kunden nur dann herstellen, wenn man die Bandbreite zu diesen Diensten sehr merklich drosselt. Denn eine Priorisierung greift ja nur bei einem Konflikt. Den müsste man bei so bandbreitenschwachen Diensten aber erst einmal künstlich erzeugen, damit die Kunden einen Nutzen für einen Twitteraufschlag überhaupt wahrnehmen können.
D.h. eine Priorisierung nützt den Providern nur dann, wenn sie durch Unterschlagung von Bandbreite den Kunden Aufpreise aufnötigen, denen kein realer Zusatzaufwand seitens des Providers gegenübersteht. Klassisch nennt man sowas Erpressung oder Wegelagerei: Sie bekommen ihren entführten Facebook-Zugang erst dann wieder, wenn Sie zahlen statt „Geld oder Leben“.
Priorisierung ist nichts weiter als eine Gelddruckmaschine für Provider.
Ich kann Andreas‘ Aufgebrachtheit verstehen, ich hab die Diskussion über den Stream verfolgt und der hiesige Bericht wird dem nicht ansatzweise gerecht. Ich empfehle, den Mitschnitt anzusehen, sobald er online steht und sich ein eigenes Bild zu machen.
@pflicht #26
Genau das Gegenteil ist eigentlich für die ganze Debatte verantwortlich. T-Home Entertainment, MaxDome & Co. wurden medial vermarktet. Die trafficlastigen Streaming- Angebote belasten zunehmend die Leitungen. Damit die kommerziellen Angebote auch den versprochenen Erwartungen gerecht werden können, muss man diese gegen den Rest (damit sind größtenteils die kostenlosen Angebote gemeint) abschotten. Priorisierung könnte dabei hilfreich sein, eine ultimative technische Lösung wird es nicht darstellen. Aber man erreicht kurzfristig 2 essentielle Ziele:
1. Die kommerziellen Angebote werden durch Priorisierung gegenüber den kostenlosen qualitativ hervorgehoben.
2. Die Nachfrage nach qualitativ hochwertigen Angeboten wird zwangsläufig steigen, da kostenlose Angebote aufgrund der künstlich erzeugten schlechteren Qualität aus dem Markt gedrängt werden.
Der Irrsinn an der ganzen Sache ist allerdings, dass faktisch die Qualität nicht steigt, sondern durch die sinkende Qualität auf der anderen Seite, die relativ gleichbleibende Qualität auf der anderen Seite den Eindruck erweckt, mehr Leistung für mehr Geld zu bekommen. Da man aber eigentlich nur eine virtuelle Messlatte niedriger ansetzt, weil man es durch die Einteilung in Priorisierungsstufen schlicht tun kann, erhält man für mehr Geld lediglich die höhere Qualität, nicht unbedingt die best mögliche.
Vergesst mal die Irritationen zwischen Linus und Andreas, hierbei geht’s vorrangig ums Geld, um das Generieren von Einnahmequellen ohne große Investitionen tätigen zu müssen. Es geht primär um Gewinnmaximierung, „Priorisierung“ ist dabei nur das Mittel zum Zweck. Netzneutralität spielt für die Initiatoren einer Mehrklassen- Datenautobahn absolut keine Rolle, es geht nur um Profit.
@Pflicht #26
@Thomas Brück #28
Das Thema „Video“ ist in diesem Zusammenhang nur Augenwischerei bzw. verstellt total den Blick.
Beim Thema Priorisierung geht es meist nicht um bandbreitenstarke Dienste, sondern um Dienste mit hohen Nutzerzahlen wie z.B. Facebook, Twitter, GoogleMail und Co, die aus Sicht der User nahezu unverzichtbar sind. Die Provider raffen nun langsam, dass sie als Gatekeeper hier deutlich mehr Kohle verdienen können, wenn sie hier einen Wegezoll erheben.
Und was das Thema Video anbelangt: da gibt es deutlich bessere Lösungen als Priorisierung, die ähnlich wie Caching funktionieren und auch heute bereits eingesetzt werden. Und in den eigenen Netzen haben die Provider ja auch gar keine Bandbreitenprobleme die einer breiten Videonutzung ihrer Kunden im Wege stehen würden, weswegen ja die eigenen Videodienste so eifrig beworben werden. Und dafür kann man ja auch ohne Priorisierung Geld nehmen und genau das wird ja auch heute schon gemacht.
Nein, bei dem Thema geht es einzig und allein nur um eine Sache: man möchte bei fremden Diensten mitverdienen. Und genau deswegen ist der Debattenbeitrag von Andreas Bogk auch so kontraproduktiv, da es eben nicht um die Lösung technischer Probleme geht, sondern diese nur als Vorwand dienen. Andreas Bogk hat diesen Vorwand nun bestätigt, weil sein Beitrag von der Prämisse ausgeht, das es das Bandbreitenproblem überhaupt gibt. Welche Lösungen er am Ende vorschlägt ist dabei vollkommen irrelevant, da er bei der Lösungsfindung für dieses fiktive Problem seitens der Provider nicht beteiligt sein wird. Dennoch werden sich diese u.a. auf ihn und den CCC berufen, sozusagen als glaubwürdige und neutrale Instanz.
Nur weil es oben schon nachgefragt wurde. Dem Provider entstehen höhere Kosten bei mehr benutzter Bandbreite dadurch das er mehr oder schnellere Datenleitungen zum Rest des Internets benötigt.
Beispiel: Ein Provider hat 1000 Kunden denen er jeweils 10 Mbit verkauft. So braucht er wenn diese Kunden nur untereinander Daten Austauschen gar keine Leitungen zum Rest Des Internets.
Wenn Die Kunden sich nur in WWW herum treiben dann werden nur wenige Mega Bytes übertragen die Seiten Laden schnell und der Provider braucht nur eine günstige Leitung in den Rest des Internets (z.B. nur 0,1 GBit).
Wenn aber alle Kunden viel auf YouTube unterwegs sind per Bittorrent regelmäßig die neuesten Linux Live CDs saugen dann werden deutlich mehr Daten ausgetauscht. Der Provider braucht also eine viel teurer Leitung ins Internet (z.B. jetzt 5 GBit). Wenn er Pech hat beschweren sich die Kunden trotz dicke Leitung weil der YouTube Server nicht in Richtung der dicken Leitung steht und somit trotz teurer Leitung die Performance nicht optimal ist. Deswegen haben gerade die Großen Provider mehrere Peering Abkommen (Also Leitungen zu verschiedenen Ecken des Internets)
Was ein Provider nie tun wird ist einen Knoten an den 1000 Kunden mit Verträgen über 10 Mbit angeschlossen sind mit 1000 * 10 = 10GBit ans Internet anzuschließen. Das gleiche Prinzip praktiziert übrigens Jeder der zuhause eine Telefonanlage hat. Auch eine ISDN Anlage mit 16 Teilnehmern kann nur 2 externe Gespräche.
Die Frage dahinter ist doch eigentlich wie kann man zu einer fairen Finanzierung kommen so das die Kunden nicht übermäßig gequält werden, sich es aber trotzdem lohnt für den Provider neue Kabel zu verlegen um seinen Service zu verbessern. Solch ein Konzept könnte dann vielleicht auch dem Land helfen. Allerdings scheint da niemand eine Idee zu haben.
@Lars,
das Beispiel, das du hier bringst (Anbindung letzte Meile als Stern) ist aber per Geld lösbar.
Schwieriger wird es wenn dann mal tatsächlich physikalische Grenzen auftauchen z.B. im Mobilfunk oder allgemein auf gemeinsam genutzten Medien.
Da hilft dann auf dem Papier natürlich weiterhin Überkapazität schaffen um seltene Spitzen abzufedern (nicht nur in den Bandbreite, sondern auch (speziell) in der Reaktionszeit (Latenz)).
Süss, wie Techniker sich in eine Diskussion einklinken, die im Kern eine reine Pseudo-Business-Diskussion ist.
Es geht nicht um 100% technisch durchgehend garantierte Netzneutralität, es geht nicht um QoS.
Es geht darum, dass die Provider mit ihren bisherigen Geschäfts- und Preismodellen auf keinen grünen Zweig kommen langfristig (zumindest wollen sie uns das glauben machen).
Deswegen wollen sie vom Sender oder vom Empfänger bezogen auf die Art der Daten den euphemistischen Begriff „Qualitätsklassen“ einführen (nachdem der Begriff „Basisinternet“ aka Festschreibung des heutigen Status Quo daneben gegangen ist) und sich entsprechend strukturiert bezahlen lassen.
Es geht und ging nie um QoS, sondern um die Etablierung neuer Preismodelle durch klagen auf hohem Niveau.
Dabei ist es relativ klar, was die Alternative ist: Wenn „der Markt“ eine der wichtigsten Kommunikations-Infrastrukturen nicht bereitstellen kann und somit einem „system-relevanten“ Dienst nicht erbringen kann, müssen andere Option, wie z.B. die Vergesellschaftung überprüft werden, um die größtmögliche Freiheit der End-to-End-Neutralität sicherzustellen.
Es wird sich im neuen Jahrzehnt sowieso die Frage stellen, ob die durch und durch kommerzialisierte Infrastruktur für eine der wichtigsten Informations- und Kommunikationsmedien die bestmögliche Lösung ist, um ein freies Web zu garantieren.
@Jens Best:
Du erliegst einem folgenschweren Irrtum: Der Mark kann sehr wohl die Infrastruktur anbieten und tragen, zahlen will das aber keiner. Stattdessen machen wir daraus eine vergesellschaftete Infrastuktur, nehmen den Profit raus und lassen das Ganze den Steuerzahler zahlen. Was wird wohl billiger sein?
Und was kommt als nächstes: Autobahnen und Strassen im Staatsbesitz?
@Philip Engstrand
Ich habe nicht gesagt, dass der Markt es nicht kann. ich habe nur gesagt, dass man sich klar machen muss, was die zu prüfenden Alternativen sein könnten, die bereitstehen, wenn der Markt versagt.
Finde deine Argumentation auch merkwürdig. Wenn sich für den angebotenen Preis keine willigen Käufer finden, dann ist der Markt doch am Versagen. Versucht der Markt dann mit Methoden neue Preismodelle zu entwicklen, die gegen die gesellschaftlichen Grundlagen der Dienstleistung stehen, muss der Staat diese Grenzen deutlicher formulieren anstatt auf diese Aufweichung der Standards einzugehen.
Die Intransparenz in Aufrechterhaltung und Ausbau der Infrastruktur trägt zu diesem Unwillen auch der Käuferseite bei.
Wenn man sich an die schockierenden Einsichten im Bereich der Energiewirtschaft erinnert, wo, nach Verkäufen an lokale Genossenschaften, Infrastrukturen zutage traten, die jeder Beschreibung entbehren, fragt man sich ja schon, was denn mit den ganzen Infrastruktur-Milliarden in den vergangenen Jahren und Jahrzehnten gemacht wurde.
Von der Bahn und ihren mannigfaltigen Sparmassnahmen bei Sicherheit, Technik und Material für den Börsengang ganz zu schweigen.
Es hat sich also bereit in anderen wichtigen Infrastruktur-Branchen gezeigt, dass „der Markt“ nicht zu einer optimalen Nutzung der Ressourcen führt.
Du hast natürlich recht, dass für einige der langfristig wirkenden Fehlentscheidungen beim Infrastruktur-Investment staatliche Kräfte mitgewirkt haben, somit also die (angeblich) fehlende Infrastruktur nicht auf reine Managementfehler und Profitgier zurückzubeziehen sind.
Dennoch, weder eine intransparente und innovationsunfähige wirtschaftliche oder staatliche Betreuung der Kommunikations-Infrastruktur ist wünschenswert.
Aber die grundlegend gewünschte und nicht durch Monetarisierung auszudiffenzierende end-to-end-Neutralität ist Bestandteil eines freien Netzes, in dem lediglich die User über Inhalt und Form ihrer Daten bestimmen und nicht durch wesentliche monetäre Schranken nachhaltig an der Teilnahme bestimmter Bereiche gehindert werden dürfen.
PS: Autobahnen und Strassen sind im Staatsbesitz
@Jens Best
> PS: Autobahnen und Strassen sind im Staatsbesitz
Ebend ;-)
Philip ist genau auf Deiner Linie. Er sagt nur, dass der Markt die Infrastruktur aufbauen und anbieten kann – allerdings zu einem recht hohen Preis. Oder anders ausgedrückt: Wettbewerb bei Autobahnen und Straßen bedeutet, dass jeder Wettbewerber das selbe Netz noch einmal aufbauen muss. Dann hast Du zwar Wettbewerb, allerdings zu einem extrem hohen Preis, denn die Kunden müssen die Infrastruktur nun x-mal bezahlen.
@TVW
Irgendwie dachte ich, dass er auf einer ähnlichen Linie ist, aber es war ein wenig unklar geschrieben (für mich zumindest, bin noch nicht ganz fit heute :)
Aber es gibt in der ganzen Diskussion keine Gruppe, die bis jetzt die „Vergesellschaftung“ mal als Drohkulisse/Alternative en detail durchgespielt hat. Das würde der Diskussion sicher gut tuen. ;)
@Jens Best #39
Ich glaube nicht, dass „Vergesellschaftung“ als Drohkulisse/Alternative bei den Thema etwas bringt. Dafür wirst Du in der (wählenden) Bevölkerung wohl kaum eine Mehrheit finden, und dann diskutierst Du nur einen Papiertiger.
Zudem wirkt die Forderung nach „Vergesellschaftung“ ein wenig hilflos. Besser wäre es meiner Meinung nach, die Politik mit konkreten und klaren Forderungen zu konfrontieren und aktiv in die Parteien zu tragen, und dann auch die Parteien wählen, die diesen Forderungen am nächsten stehen.
Bei diesem Thema würden die richtigen gesetzlichen Rahmenbedingungen vollkommen ausreichen zumal eine Priorisierung letztlich in Richtung unlauteren Wettbewerb geht. Wenn die Provider nebenbei Dienste anbieten und gleichzeitig ähnliche Dienste im Wettbewerb beschränken, dann ist das ein Fall für die Justiz.
@39: Vielleicht darf ich mal an das vielgeschmähte Europawahlprogramm der Piratenpartei erinnern:
http://wiki.piratenpartei.de/EU-Wahlprogramm_2009#Infrastruktur
«Kapazitätsprobleme sind Probleme der Kapazität. Priorisierungen sind das, was man in der Medizin “symptombezognene Therapie” nennt – in Abgrenzung einer Behandlung die die Ursachen bekämpft. Hauptsächlich kommt sie bei unheilbaren Krankheiten zum Einsatz.»
Verknappung und Bepreisung sind doch DIE Instrumente der Gewinnerzielung im Kapitalismus. Warum das gerade am Steckenpferd Internet kritikabel, bei Lebensmitteln, Wohnraum, Strom, Mineralöl usw. akzeptabel ist, erschließt sich mir nicht.
Das ist gerade der wesentliche Punkt. Soweit die Verknappung natürlich ist, hat „man“ da tendenziell wohl eher keine Probleme (tatsächliche Kapazitätsprobleme). Bei künstlicher Verknappung gibt es aber heftigen Widerstand (Bevorzugung von zahlungskräftigen Diensten ohne Not).
Verknappung ist nicht nur im Internet ein Ärgernis. Ob Mediamarkt, Apple oder sonst eine Firma, es ist immer ärgerlich wenn mit künstlicher Verknappung gearbeitet wird.
Das wir nun auch beim Internet darüber diskutieren, heißt für mich, dass wir auf einem Niveau angekommen sind, mit dem wir eigentlich ganz gut leben können. Das Netz ist für die meisten schnell genug. Den meisten reichen 6Mbit, die wenigstens können einen Mehrwert aus einer schnelleren ziehen.
Wenn Provider nach neuen Einnahmequellen suchen, sollten sie auf die Wünsche der Kunden eingehen, und sich nicht so einen Schrott ausdenken…
@Ano Nym #42:
Künstliche Verknappungen weisen immer auf ein Monopol, Oligopol oder ein Kartell. Diese sind auch im Kapitalismus ein Problem und deswegen verboten. Anders sieht das aus, wenn eine Verknappung durch eine hohe Nachfrage entsteht, die ein Angebot an Gütern übersteigt. Deswegen hinken deine Vergleiche.