8. November 2010
© picture alliance / Bildagentur-online/TIPS-Images
Die Bundesnetzagentur beschäftige sich mit der Qualität in den Datennetzen, mit Netzzugängen und Fragen der Marktbeherrschung und Diskriminierung durch Anbieter, erläuterte Matthias Kurth vor der Projektgruppe. Das Thema Netzneutralität sei in den USA sehr breit erörtert worden, die Schwesterbehörde Federal Communications Commission (FCC) habe auch versucht, ein Regelwerk aufzusetzen, das allerdings noch nicht abgeschlossen und verabschiedet worden sei. In Europa sei das Thema etwas später angekommen und werde nun auf europäischer Ebene in der EU-Kommission und im Bundestag durch die Enquete-Kommission diskutiert. Man befinde sich derzeit in einer Phase der Faktenermittlung und Faktenklärung.
Wenig Fälle von Netzneutralitäts-Verletzung
Sowohl in den USA als auch hier gebe es wenige praktische Fälle, in denen eine ernsthafte Verletzung des Prinzips der Netzneutralität nachweisbar war, erläuterte der Präsident der Bundesnetzagentur. In aller Regel werde die Diskussion über Netzneutralität sehr abstrakt geführt, da es lediglich um potentielle Gefahren gehe. Die Frage sei deshalb nicht nur, mit welcher Tiefe und mit welchen Mechanismen reguliert werde, sondern auch zu welchem Zeitpunkt.
Kreativität erhalten
Allgemeines Anliegen sei, dass das Internet offen bleibe - dass Dienste, Inhalte und Anwendungen nicht diskriminiert werden. Es bestehe wohl Einigkeit, so Kurth, dass Datenpakete im Internet unabhängig von ihrer Herkunft behandelt werden sollten. Das Kreativitätspotential des Netzes müsse erhalten bleiben, betonte er, problematischer sei das Thema Netzwerkmanagement. Schon jetzt werde Netzwerkmanagement betrieben. Natürlich müsse ein Netz gemanagt werden, sonst würden zum Beispiel Google und YouTube nicht funktionieren, die Milliarden in Housing und Hosting Center investierten. Je differenzierter die Dienste seien, desto mehr müssten die Diensteanbieter in eigene Infrastruktur investieren – denn es sei ganz klar, dass bestimmte Dienste eine hohe Qualität brauchen.
Kurth vertrat die Meinung, dass das Internet die bisherigen Entwicklungen gut bewältigt habe. Schon jetzt gebe es etwa YouTube in HDTV. Es gebe eine ständige Entwicklung nach oben im so genannten Best-Effort-Internet. Das Best-Effort-Prinzip bedeute allerdings auch, so Kurth, dass das normale Internet keine garantierten Qualitäten habe, so funktionierten bestimmte Dienste Freitagnachmittags im Internet langsamer.
Mindestqualität definieren
In der Sorge vor schlechteren Bedingungen gebe es die Bestrebung nach einer allgemeinen Mindestqualität. Es sei im Referentenentwurf des Telekommunikationsgesetzes (TKG) vorgesehen, dass die Bundesnetzagentur Anforderungen an Mindestqualität für ein Best-Effort-Netz definiere. Diese Lösung werde auf deutscher und europäischer Ebene erwogen. Klar sei, sagte Kurth, dass bestimmte Inhalte nicht diskriminiert werden dürften. Dies könne aber auch schon mit den jetzigen Regeln des TKG und des Wettbewerbsrechts bekämpft werden. Etwas anderes sei die Behandlung von Diensteklassen. So könne es etwa bei Streaming von Online-Games bei bestimmten Anbietern zu Problemen kommen. Über die Behandlung von bestimmten Diensteklassen werde man deshalb reden müssen.
Günstige Wettbewerbs-Strukturen
Letztendlich sei Netzneutralität aber auch ein Thema der so genannten letzten Meile. Das Breitband-Backbone-Internet sei recht gut ausgebaut, die Engpässe bestünden oft auf eben dieser letzten Meile. Ein Element, mit dem Netzneutralität gesichert werden könne, sei Wettbewerb. Anders als in den USA gebe es eine Fülle von Anbietern und günstige Wettbewerbs-Strukturen. Wenn die Qualität schlecht sei, könne es ein anderer Anbieter besser machen.
Zunächst die Prinzipien festlegen
Einige Fragen der Kommissionsmitglieder bezogen sich auf das Formulieren einer Dienstequalität. Welche Kriterien könnte man bei der Definition einer Mindestanforderung für Dienstequalität zugrunde legen, und nach welchen Maßstäben könnte man das kontrollieren? Kurth erläuterte, dass es aus seiner Sicht nicht sinnvoll sei, abstrakte Regeln zu formulieren. Lieber sei es ihm, zunächst Prinzipien festzulegen und abzuwarten, was auf dem Markt passiere, um dann zu entscheiden, wo Regulierungsbedarf bestehe. Ansonsten entstehe ein abstraktes Regelwerk, in dem vorab abstrakt Vorsorge für Fälle getroffen werde, die derzeit konkret noch nicht bekannt seien. Es gebe derzeit nur abstrakte Gefahren, denen gegenüber man wachsam sein müsse, so Kurth.
Keine Messungen der Netzauslastung durch die Bundesnetzagentur
Ein Kommissionsmitglied stellte unter anderem für den so genannten 18. Sachverständigen die Frage, ob die Bundesnetzagentur Erkenntnisse darüber habe, wie es mit der Auslastung der Zugangs-, Verbindungs- und Backbone-Netze tatsächlich aussehe. Kurth erläuterte, dass die Auslastung in den Netzen durch die Bundesnetzagentur nicht überwacht werde. Man könne darüber diskutieren, ob im Rahmen von Qualitätsanforderungen Messungen durchgeführt werden sollten, um zu prüfen, welche Mindestqualität bei den Kunden ankommt. Dazu seien in den USA und Großbritannien Messsysteme etabliert worden, ähnliche Messprinzipien könnten unter dem Aspekt Transparenz erwogen werden.
Verlass auf die Verbraucher
Auf Rückfragen, ob die Bundesnetzagentur zur Gewährleistung der Qualität die Auslastung messe, wies Kurth darauf hin, dass dies durch die Netzbetreiber selbst erfolge. Er erklärte, dass die Bundesnetzagentur bisher keinen Anlass zum Messen gehabt habe. An dieser Stelle sei auf die sehr kritischen und aufgeklärten Verbraucher Verlass, die sich zu Wort melden, wenn etwas nicht funktioniert.
Die nächste Sitzung der Projektgruppe Netzneutralität findet am 6. Dezember statt.