Navigationspfad: Startseite > Dokumente > Web- und Textarchiv > 2013
Das Leistungsschutzgesetz ist auf der Zielgeraden: Am Freitag, 1. März, soll in zweiter und dritter Lesung über den Schutz von Presseerzeugnissen abgestimmt werden. Der Unterausschuss Neue Medien unter Vorsitz von Sebastian Blumenthal (FDP) beschäftigte sich am Montag, 25. Februar 2013, in einer öffentlichen Expertenanhörung mit technischen Fragen des Gesetzentwurfs (17/11470). Mit der siebten Änderung des Urheberrechtsgesetzes will die Regierung sicherstellen, dass Presseverlage im Online-Bereich nicht schlechter gestellt sind als andere Werkvermittler.
"Selbstverständlich hat Google mit den Daten ein Geschäftsmodell aufgestellt", sagte Dr. Thomas Höppner vom Bundesverband Deutscher Zeitungsverleger. Denn die Newsaggregatoren stünden in direkter Konkurrenz zu Verlagsseiten.
Mit dem News-Dienstleister bediene Google dieselbe Zielgruppe, "leider mit demselben Inhalt", so Höppner und ergänzte: "Der eine produziert teuer, der andere kopiert billig." Nur detailinteressierte Nutzer würden nach dem Lesen der Inhalte bei Google noch den Weg auf die Verlagsseiten finden, so Höppner. Viele Aggregatoren erhöhten nicht den Traffic zu Verlagen, sondern würden ihn mindern.
Google hielt dagegen: "Die Argumente, dass Verlage nicht von Google profitieren, sind unsinnig", sagte Dr. Wieland Holfelder von Google Germany. Wie man mit den Diensten in Deutschland künftig verfahre, wenn das Leistungsschutzgesetz in Kraft trete, wollen die Abgeordneten vom Konzern wissen. "Das wird man sehen", sagte Kollege Dr. Arnd Haller vielsagend.
Dr. Wieland Holfelder stellte klar: Schon jetzt besitze man mit Robots txt eine Analyse-Datei, um zu bestimmen, welche Inhalte Suchmaschinen abgreifen können und welche nicht. Somit sei auch kontrollierbar, welche Inhalte unter Googlegelistet werden sollen. "Die Möglichkeiten sind da, ich sehe deshalb keinen Bedarf hier gesetzlich einzugreifen", so Holfelder mit Blick auf das geplante Leistungsschutzgesetz.
Es sei sinnvoll Robots txt weiter auszufeilen, erklärte in diesem Zusammenhang Professor Dirk Lewandowski von der Hochschule für angewandte Wissenschaften Hamburg. Die Sprache sei veraltet und die Steuerung der Datei zu ungenau.
Michael Steidl vom International Press Telecommunications Council in London stellt fest, dass Rechte von immer größerer Bedeutung werden – eben auch im Netz. Er gab zu bedenken: "Für Robots txt gibt es keine Trägerorganisation." Mit Robotstxt ließen sich auf Nachrichtenseiten keine einzelnen Inhalte ausblenden, so der Experte. (ldi/25.02.2013)