8. November 2010
© picture alliance /
Bildagentur-online/TIPS-Images
Die Bundesnetzagentur beschäftige sich mit der
Qualität in den Datennetzen, mit Netzzugängen und Fragen
der Marktbeherrschung und Diskriminierung durch Anbieter,
erläuterte Matthias Kurth vor der Projektgruppe. Das Thema
Netzneutralität sei in den USA sehr breit erörtert
worden, die Schwesterbehörde Federal Communications Commission
(FCC) habe auch versucht, ein Regelwerk aufzusetzen, das allerdings
noch nicht abgeschlossen und verabschiedet worden sei. In Europa
sei das Thema etwas später angekommen und werde nun auf
europäischer Ebene in der EU-Kommission und im Bundestag durch
die Enquete-Kommission diskutiert. Man befinde sich derzeit in
einer Phase der Faktenermittlung und Faktenklärung.
Wenig Fälle von
Netzneutralitäts-Verletzung
Sowohl in den USA
als auch hier gebe es wenige praktische Fälle, in denen eine
ernsthafte Verletzung des Prinzips der Netzneutralität
nachweisbar war, erläuterte der Präsident der
Bundesnetzagentur. In aller Regel werde die Diskussion über
Netzneutralität sehr abstrakt geführt, da es lediglich um
potentielle Gefahren gehe. Die Frage sei deshalb nicht nur, mit
welcher Tiefe und mit welchen Mechanismen reguliert werde, sondern
auch zu welchem Zeitpunkt.
Kreativität erhalten
Allgemeines
Anliegen sei, dass das Internet offen bleibe - dass Dienste,
Inhalte und Anwendungen nicht diskriminiert werden. Es bestehe wohl
Einigkeit, so Kurth, dass Datenpakete im Internet unabhängig
von ihrer Herkunft behandelt werden sollten. Das
Kreativitätspotential des Netzes müsse erhalten bleiben,
betonte er, problematischer sei das Thema Netzwerkmanagement. Schon
jetzt werde Netzwerkmanagement betrieben. Natürlich müsse
ein Netz gemanagt werden, sonst würden zum Beispiel Google und
YouTube nicht funktionieren, die Milliarden in Housing und Hosting
Center investierten. Je differenzierter die Dienste seien, desto
mehr müssten die Diensteanbieter in eigene Infrastruktur
investieren – denn es sei ganz klar, dass bestimmte Dienste
eine hohe Qualität brauchen.
Kurth vertrat die Meinung, dass das Internet die bisherigen
Entwicklungen gut bewältigt habe. Schon jetzt gebe es etwa
YouTube in HDTV. Es gebe eine ständige Entwicklung nach oben
im so genannten Best-Effort-Internet. Das Best-Effort-Prinzip
bedeute allerdings auch, so Kurth, dass das normale Internet keine
garantierten Qualitäten habe, so funktionierten bestimmte
Dienste Freitagnachmittags im Internet langsamer.
Mindestqualität definieren
In der Sorge
vor schlechteren Bedingungen gebe es die Bestrebung nach einer
allgemeinen Mindestqualität. Es sei im Referentenentwurf des
Telekommunikationsgesetzes (TKG) vorgesehen, dass die
Bundesnetzagentur Anforderungen an Mindestqualität für
ein Best-Effort-Netz definiere. Diese Lösung werde auf
deutscher und europäischer Ebene erwogen. Klar sei, sagte
Kurth, dass bestimmte Inhalte nicht diskriminiert werden
dürften. Dies könne aber auch schon mit den jetzigen
Regeln des TKG und des Wettbewerbsrechts bekämpft werden.
Etwas anderes sei die Behandlung von Diensteklassen. So könne
es etwa bei Streaming von Online-Games bei bestimmten Anbietern zu
Problemen kommen. Über die Behandlung von bestimmten
Diensteklassen werde man deshalb reden müssen.
Günstige
Wettbewerbs-Strukturen
Letztendlich sei
Netzneutralität aber auch ein Thema der so genannten letzten
Meile. Das Breitband-Backbone-Internet sei recht gut ausgebaut, die
Engpässe bestünden oft auf eben dieser letzten Meile. Ein
Element, mit dem Netzneutralität gesichert werden könne,
sei Wettbewerb. Anders als in den USA gebe es eine Fülle von
Anbietern und günstige Wettbewerbs-Strukturen. Wenn die
Qualität schlecht sei, könne es ein anderer Anbieter
besser machen.
Zunächst die Prinzipien festlegen
Einige Fragen der Kommissionsmitglieder bezogen sich auf das
Formulieren einer Dienstequalität. Welche Kriterien
könnte man bei der Definition einer Mindestanforderung
für Dienstequalität zugrunde legen, und nach welchen
Maßstäben könnte man das kontrollieren? Kurth
erläuterte, dass es aus seiner Sicht nicht sinnvoll sei,
abstrakte Regeln zu formulieren. Lieber sei es ihm, zunächst
Prinzipien festzulegen und abzuwarten, was auf dem Markt passiere,
um dann zu entscheiden, wo Regulierungsbedarf bestehe. Ansonsten
entstehe ein abstraktes Regelwerk, in dem vorab abstrakt Vorsorge
für Fälle getroffen werde, die derzeit konkret noch nicht
bekannt seien. Es gebe derzeit nur abstrakte Gefahren, denen
gegenüber man wachsam sein müsse, so Kurth.
Keine Messungen der Netzauslastung durch die
Bundesnetzagentur
Ein Kommissionsmitglied stellte
unter anderem für den so genannten 18. Sachverständigen
die Frage, ob die Bundesnetzagentur Erkenntnisse darüber habe,
wie es mit der Auslastung der Zugangs-, Verbindungs- und
Backbone-Netze tatsächlich aussehe. Kurth erläuterte,
dass die Auslastung in den Netzen durch die Bundesnetzagentur nicht
überwacht werde. Man könne darüber diskutieren, ob
im Rahmen von Qualitätsanforderungen Messungen
durchgeführt werden sollten, um zu prüfen, welche
Mindestqualität bei den Kunden ankommt. Dazu seien in den USA
und Großbritannien Messsysteme etabliert worden,
ähnliche Messprinzipien könnten unter dem Aspekt
Transparenz erwogen werden.
Verlass auf die Verbraucher
Auf
Rückfragen, ob die Bundesnetzagentur zur Gewährleistung
der Qualität die Auslastung messe, wies Kurth darauf hin, dass
dies durch die Netzbetreiber selbst erfolge. Er erklärte, dass
die Bundesnetzagentur bisher keinen Anlass zum Messen gehabt habe.
An dieser Stelle sei auf die sehr kritischen und aufgeklärten
Verbraucher Verlass, die sich zu Wort melden, wenn etwas nicht
funktioniert.
Die nächste Sitzung der Projektgruppe Netzneutralität
findet am 6. Dezember statt.