Was eine maschinenlesbare Rechtesprache können sollte



Immer wenn ich Robots.txt, die von Google bevorzugte Rechtesprache, kritisiere, hagelt es Vorwürfe der Lüge und Dummheit. Manche meinen, ich sei dumm und verlogen zugleich. Zahlreiche Blogger, Twitterer und Kommentatoren schicken mir Hinweise, wie man einzelnen Seiten vor Bots schützen und einzelne Bots von Seiten fern halten kann. Danke für die Tipps, aber die Fakten sind mir durchaus bekannt. Trotzdem bleibt es dabei, dass Robots.txt wie ein Lichtschalter nach dem An-Aus-Prinzip funktioniert. Kay Oberbeck von Google hat Robots.txt bei der UdLDigital-Diskussion einen „Dimmer“ genannt. Die Metapher ist nicht schlecht. Auch ein Dimmer ist ein Lichtschalter, auch wenn er graduelles Abdunkeln ermöglicht. Eine taugliche Rechtesprache ist Robots.txt damit aber noch lange nicht. Hier eine Liste der Informationen, die man in gute maschinenlesbare Rechtesprache eintragen können sollte, und die von anderen Marktteilnehmern zu berücksichtigen wären:

Die Liste stammt von mir und erhebt keinen Anspruch auf Vollständigkeit. Sie ist ein grober schematischer Entwurf. Zum besseren Überblick sind auch einige Informationen mit aufgezählt, die man heute schon auf seiner Webseite eintragen kann. Die Liste enthält Daten für ganze Webseiten wie auch für einzelne Texte und Bilder.

Damit soll nicht gesagt sein, dass diese Informationen technisch an einer einzigen Stelle oder in einer einzigen Datei zu übermitteln sein sollten. Zeigen soll die Liste nur, welche Daten mindestens ausgeliefert und von allen Marktseiten akzeptiert werden müssten, damit ein fairer Markt für Inhalte im offenen Netz entstehen kann.

Hier also die Liste:

Name des Textautoren
Name des Bildautoren
Name des Verlags (falls vorhanden)
Name der Webseite

Name der beauftragten Clearing- oder Abrechnungsstelle
Name der das Recht wahrnehmenden Verwertungsgesellschaft

Einzuhaltende Zeitverzögerung bei Nutzung durch Dritte

Gewerbliche Kopie erlaubt / nicht erlaubt
Preis für gewerbliche Kopie
Maximal Anzahl der gewerblichen Kopien

Gewerbliche Aggregation erlaubt / nicht erlaubt
Preis für gewerbliche Aggregation
Maximale Länge der Aggregation

Gewerbliche Archivierung erlaubt / nicht erlaubt
Preis für gewerbliche Archivierung
Maximale Dauer der Archivierung

Gewerbliche Teaser erlaubt / nicht erlaubt
Preis für gewerbliche Teaser
Maximale Länge gewerblicher Teaser

Weitergabe an Privatpersonen erlaubt / nicht erlaubt
Preis für Weitergabe an Privatpersonen

Weitergabe an Gewerbe erlaubt / nicht erlaubt
Preis für Weitergabe an Gewerbe

Anzeige des Autorennamens zwingend / nicht zwingend
Veränderungen erlaubt / nicht erlaubt
Mashups erlaubt / nicht erlaubt

Größere Differenzierung in der Praxis

In der Praxis wird eine weitaus größere Differenzierung der Merkmale notwendig sein. Zum Beispiel müssten beim Preis Preislisten hinterlegt sein, die unterschiedliche Größen- und Mengenklassen berücksichtigen. Das mag zunächst kompliziert klingen, kann technisch aber sicherlich so gelöst werden, dass ein schneller und lebendiger Markt für Inhalte entsteht.

Viele Inhalte-Anbieter werden Teile ihrer Rechte zu Werbezwecken gewiss kostenlos abgeben, aber sie bekommen mit einem solchen Standard die Chance, Geld zu verlangen, wenn sie dies wünschen und sich für stark genug halten. Die Kunden können sich ihrerseits überlegen, ob sie sich nur bei kostenlosem Material bedienen oder auch bereit sind, Geld zu bezahlen, weil ihr eigenes Geschäftsmodell eine Monetarisierung zulässt. Angebot und Nachfrage bewegen sich schnell aufeinander zu. Preise können ständig verändert und den Marktbedingungen angepasst werden. Die Abrechnung kann über Clearing- und Abrechnungsstellen erfolgen.

Marktwirtschaft in Reinstform

Aggregatoren, die nur kostenloses Material anzeigen möchten, stellen ihren Filter entsprechend ein. Autoren und Redaktionen können schnell und einfach selbst steuern, was und wie viel sie kostenlos abgeben und wofür sie wie viel Geld verlangen. Sie können dann endlich ein Gleichgewicht finden zwischen den Werbeeinnahmen aus dem Traffic, den ihnen kostenlos abgegebene Teaser bringen, und Erlösen, die sie mit ihren elektronisch markierten Inhalten auf dem offenen Marktplatz erzielen. Es endet dann das Zwangs-Tauschgeschäft „Traffic gegen Inhalt“, das heute den Markt bestimmt, und weicht einer dynamischen, modernen Form der Preisbildung. Gute maschinenlesbare Rechtesprachen führen zu Marktwirtschaft in Reinstform.

Ja, ich kenne Creative Commons. Ja, Creative Commons ist ein guter Ansatz. Nein, Creative Commons liefert noch keine perfekte Lösung. Nein, CCPLus liefert sie auch noch nicht.

Realismus, Fatalismus und Fairness

Ist eine solche Lösung realistisch? Sicherlich nicht, wenn man so denkt wie der geschätzte Leser Michael Butscher, der in den Kommentaren dieses Blogs folgenden Text beigesteuert hat:

Was der No Snippet-Befehl nicht enthält[...] Zum Beispiel:

1. Länge der genehmigten Auszüge
Entweder Ihnen gefällt die Länge, die Google verwendet oder eben nicht.

2. Unterscheidung zwischen Snippets und Previews
Das könnte man eventuell diskutieren, aber mit einem zusätzlichen “Lichtschalter” wären Sie sicher auch nicht zufrieden.

3. Inhaber der Rechte
Warum sollte das Google interessieren?

4. Bedingungen der Nutzung
Entweder Sie akzeptieren Googles Bedingungen oder eben nicht.

5. Preis der Nutzung
Da Google nichts zahlen wird, ist das irrelevant.

6. Erlaubnis oder Verbot der Weiternutzung durch Dritte
Was soll Google mit dieser Information anfangen?

Wären Sie an einer technischen Lösung interessiert, könnte man einfach festlegen, daß der ACAP-Standard Vorrang vor robots.txt/Meta-Tags hat, sofern die Suchmaschine ACAP unterstützt.

Dann kann man in ACAP einen Preis für die Snippets definieren und in den Meta-Tags Snippets verbieten. Google News würde dann zunächst keine Snippets mehr anzeigen und, falls Google Interesse hat, könnte es die Suchmaschine aufrüsten, Snippets wieder anzeigen und dafür den per ACAP angegebenen Lizenzpreis zahlen.

„Warum sollte das Google interessieren?“

Inhaber der Rechte? „Warum sollte das Google interessieren?“ Preis der Nutzung? „Da Google nichts zahlen wird, ist das irrelevant“.

Diese Denkweise ist weit verbreitet und liegt vielen Äußerungen zur Robots.txt-Problematik zugrunde. Erkennbar fußt sie auf drei Grundannahmen:

1. Nur auf Google kommt es an. Andere Aggregatoren spielen keine Rolle.

2. Es ist gut und richtig, dass Google sich nicht für die Inhaber der Rechte interessiert.

3. Google wird nie etwas bezahlen, was ebenfalls gut und richtig ist. Deswegen ist jede Bemühung in diese Richtung verfehlt. Folglich verbietet sich auch jede Bezahlung durch andere Aggregatoren.

Der hier zum Ausdruck kommende Fatalismus gibt Anlass zur Sorge, nicht viel weniger als die schulterzuckende Akzeptanz der Bedingungen eines Marktbeherrschers.

Angemessener als diese Denkweise wäre das Eintreten für einen fairen Rechteausdrucksstandard. Robots.txt in seiner heutigen Form ist das nicht. Es ist allenfalls ein Dimmer.



 

90 Kommentare

 
  1. (Pingback)

    [...] der presseschauder: Was eine maschinenlesbare Rechtesprache können sollte (BTW: schon lange nicht mehr so viel Quatsch gelesen – und dabei hab ich grad erst das [...]

    verlag.txt | Der Totale Durchblickstrudel

    26. Mai 2013

     
  2. (Pingback)

    [...] der Verlage aussehen soll, hat Axel-Springer-“Außenminister“ Christoph Keese in seinem Blog skizziert. Seine Vorschläge stießen aber auf wenig Begeisterung, eine ausführliche Kritik schrieb der [...]

    Verlage starten Konter-Kampagne gegen Google - ComputerBase

    22. Januar 2013

     
  3. (Pingback)

    [...] die Zugriffsmöglichkeiten der Suchmaschinen mit einer Robots.txt-Datei beschränken, nicht aber Preise und Konditionen der gewerblichen Nutzung festlegen. Der Wettbewerbsdruck ist groß – es ist für die Verleger daher besonders wichtig, auch weiterhin [...]

    Pro/Contra: Leistungsschutzrecht für Presseverlage | HLCI Kontrovers

    20. Dezember 2012

     
  4.  
  5. Jan W.

    if ((Gewerbliche Aggregation == erlaubt)&&(Preis für gewerbliche Aggregation==0)&&(Maximale Länge der Aggregation >= was_auch_immer)&& …. und noch ein paar Dutzend weitere Abfragen.
    Warum muss Google News sein einfaches Aggregationsmodell – nämlich auf jene Angebote in Vorschauqualität zu verlinken, deren Macher glauben, unterm Strich von den daraus entstehenden Zugriffszahlen zu profitieren – so aufblähen?
    Robots.txt und der nosnippet-Tag werden dem Modell doch ausreichend gerecht – sicherlich wäre es eine sinnvolle Erweiterung, aus dem Opt-Out ein Opt-In-Modell zu machen – gelistet würde dann nur noch, wer explizit in seinen HTML-Code schreibt, dass Google gratis mit oder ohne Snippet verlinken kann. Und wer das nicht in den Code schreibt, wird eben nicht gelistet.

    Mit dem LSR würden die Verlage ein Recht auf Unterlassung erhalten: was aber tun die Verlage, wenn Google dann einfach unterlässt? Sie werden jammern.
    Die Verlage werden von Google News nicht bestohlen, sie bekommen ein Gratisschaufenster zur Verfügung gestellt, dass sie entweder nutzen oder nicht nutzen können – jeder Verlag muss hier die Vor- und Nachteile abwägen.
    Stattdessen wollen die Verlage aber Google News zwangsweise in eine Internet-GEZ für die Online-Aktivitäten der Verlage umwandeln.

     
     
    • @ Jan W: In einer Internet-GEZ verwandeln? Was meinen Sie damit? Die GEZ ist eine Institution, die Gebühren für öffentlich-rechtliche Sender auf Basis des Rundfunkstaatsvertrags von 16 Bundesländern einsammelt. Der Pflicht zur Zahlung von Gebühren kann sich niemand entziehen. Etwas völlig anderes ist das Leistungsschutzrecht. Es legt keinerlei Gebühren oder Zwang fest, sondern schafft lediglich einen Rechtsrahmen. In meinem Beitrag habe ich nicht die Forderung erhoben, Robots.txt aufzublähen, sondern ich habe die technische Umsetzung anheimgestellt. Aufgelistet habe ich lediglich die Informationen, die in einer fairen maschinenlesbaren Rechtesprache berücksichtigt werden sollten.

       
       
      •  
      • Jan W.

        @C. Keese
        Oh, ersetzen Sie einfach den Rundfunkstaatsvertrag durch die einen lobbybeinflussten Gesetzesentwurf, setzen Sie als Begünstigten Verlage ein.
        Sie lassen sich ja nicht nur einen Unterlassungsanspruch ins Gesetz schreiben, die LSR-Befürworter machen ja jetzt schon Stimmung gegen eine mögliche Unterlassung durch Google. Zumindest von Ihnen habe ich noch nie gehört, dass Sie eine solche Unterlassung anstreben oder dulden würden. Hier ist sofort von der “marktbeherrschenden Stellung” Googles die Rede.

        Robots.txt und nosnippet-Tag sind eine ausreichende Rechtesprache, um den Unterlassungsanspruch, der sich aus dem LSR ergibt, bereits vor der Verabschiedung des Gesetzes durchzusetzen – um der “Hehlerbande” das Handwerk zu legen, reicht der Dimmer! Insofern wäre eine Opt-In-Lösung bei Google News für die Presseverlage eine äußerst entlarvende Neuerung, sie würde entweder nicht mehr gelistet oder würden per Code in den Meta-Informationen eines jeden Artikels explizit ihr Einverständnis erklären.

         
         
  6. Wendy Gondelntrauertragen

    Es wurde natürlich schon erwähnt, aber ich kann einfach nicht an mich halten. Herr Keese beginnt seinen Text, indem er sich gegen Lügen- bzw. Unredlichkeitsvorwürfe in Sachen robots verwahrt. Dann lobt er im selben Zusammenhang eine Metapher (Dimmer, also feinste Abstufungen), die das EXAKTE GEGENTEIL seines “Arguments” ausdrückt (an/aus, also rein binäres Entweder/Oder), um dann zu behaupten, dass das ja eigentlich DOCH IMMER NOCH an/aus sei. Die Erde ist rund, ok, aber im Grunde ist sie ja doch ne Scheibe. Na klar, das Internet ist irgendwie schon kompliziert, aber eigentlich ist es ja doch nur An/Aus: Wenn ich den An-Knopf meines Computers nicht drücke, ist das Internet aus. Das ist, immerhin, sachlich richtig.
    Ich muss ja gar nicht groß über Hintergründe zum LSR Bescheid wissen, um zu sehen, dass hier genau das stattfindet, was Keese zu verwerfen sich anschickt: Es ist, getreu seiner An/Aus-Liebe, entweder dumm oder verlogen.

     
     
    • @ Wendy Gondelntrauertragen / Joachim Otte: Sie stellen meine Argumentation verzerrt da. Was ich gesagt habe, ist dies: Jeder Ausdrucksterm von Robots.txt drückt eine binäre Entscheidung aus. Dass einzelne Bots oder Seiten des Angebots ausgenommen werden, ändert nichts an dem binären Charakter der Entscheidung, die zum Ausdruck kommt. Die Dimmer-Metapher stammt von Kay Oberbeck, nicht von mir. Ich habe lediglich angemerkt, dass ein graduelles An- und Ausschalten einzelner Bots und Seitenteile auch nichts weiter ist als das Lichtschalterprinzip, lediglich auf feinerer Detailstufe. Eine moderne Rechtesprache wird deswegen aber noch lange nicht aus Robots.txt.
      Was Ihren Vorwurf der Dummheit und der Lüge angeht: Sie beschimpfen mich, ich beschimpfe Sie nicht. Letzteres ist besser für die Debatte.

       
       
  7.  
  8.  
  9. (Pingback)

    [...] 5. “Was eine maschinenlesbare Rechtesprache können sollte” (presseschauder.de, Christoph Keese) Der Konzerngeschäftsführer “Public Affairs” des Axel-Springer-Verlags, Christoph Keese, skizziert seine Vision einer “tauglichen Rechtesprache” und präsentiert eine Liste, die zeigt, “welche Daten mindestens ausgeliefert und von allen Marktseiten akzeptiert werden müssten, damit ein fairer Markt für Inhalte im offenen Netz entstehen kann”. Siehe dazu auch “Kurz erklärt: robots.txt” (philippe-wampfler.com). [...]

    Familienbild, Subventionen, Rechtesprache - YEPA NEWS

    11. Dezember 2012

     
  10. tzztztzt

    Die Vorwürfe sind berechtigt. Denn wenn man die Statements zum LSR von Herrn Keese liest, dann kann man zu keinem anderen Ergebnis kommen, als dass Herr Keese ein dummer Lügner ist.

    Das klingt hart, aber das ist halt so.

     
     
    • Ich möchte Sie bitten, Ihren Ton zu mäßigen. Beleidigungen bringen die Diskussion nicht weiter. Sollte Sie weiter zu Beleidigungen greifen, muss ich die Kommentarfunktion für Sie sperren. Danke für Ihr Verständnis.

       
       
      • tzztztzt

        Ach kommen Sie schon Herr Keese. Als wenn Sie die Diskussion in irgendeiner Weise weiterbringen würden. Das ganze Thema ist doch eh der größte Schwachsinn.

        Ich glaube kaum, dass Sie wissen wie Sie meine Kommentare sperren können, wenn Sie die robots.txt schon nicht verstehen.

        Da Sie sich das Recht nehmen die Welt mit dem LSR vollzuspammen und andere beleidigen finde ich es unverschämt, dass Sie mir das auf diesem “privaten” Blog (ja wer das glaubt ist wirklich dumm) verbieten wollen.

        Das Schlimmste an der ganzen Sache ist, dass Sie es schlichtweg nicht einsehen wollen, das Sie im Unrecht sind.

        Hören Sie doch endlich auf mit LSR Theater.

        Machen Sie lieber mit Ihren Paywalls weiter: http://www.turi2.de/2012/12/11/heute2-springer-macht-welt-online-kostenpflichtig-15306726/

        Wenn Ihr Verlag ja ach so tollen Journalismus macht, dann werden schon welche dafür zahlen. Wenn nicht, dann sollten Sie nicht Google die Schuld geben, sondern den Inhalten Ihrer Blätter.

        Verstehen Sie es doch endlich mal:
        Entweder Sie lassen Google in Ruhe oder Sie werden aus dem Index fliegen. Das Letztere würde ich mit großem Vergnügen mit ansehen.

         
         
  11. Meisterlein

    >> Immer wenn ich Robots.txt, die von Google bevorzugte Rechtesprache, kritisiere, hagelt es Vorwürfe der Lüge und Dummheit. Manche meinen, ich sei dumm und verlogen zugleich.

    Tja, Herr Kesser. Die Realität ist manchmal schmerzhaft. Warum behaupten Sie denn immer wieder, man könne mittels robot.txt und Meta-Tags die Aggregation von News nicht steuern, obwohl das sehr wohl möglich ist? Mag sein, dass diese Technik nicht die Möglichkeiten bietet, die SIE oder Ihr Arbeitgeber sich vorstellen. Also die Nutzung eines fremden, kostenfreien Dienstes, der Ihnen Klicks bringt – an dem Sie aber nicht nur zusätzlich mitverdienen wollen, sondern dem Sie auch noch Ihr eigenes Geschäftsmodell diktieren wollen. Und da wundert es Sie, wenn kaum jemand Verständnis für Ihre Thesen aufbringt? Wenn Springer und andere Verlage angesichts des aktuellen Zustandes tatsächlich WOLLEN würden, dass Google-News deren Texte nicht wie bislang als winzige Textsplitter einbindet, hätte man das längst unterbinden können. Sie wissen ja selbst, dass man das sehr wohl kann. Warum tut man es also nicht einfach? Ganz einfach: Google News ist bekannt, Google stellt die Infrastruktur. Ein Ausstieg würde Klicks kosten, und der Aufbau eines eigenen Portales der deutschen Verlage bedeutete erhebliche Investitionen und Aufwand. Da bastelt man sich lieber eine Rechtesprache zusammen und staunt, wenn die nicht einfach so angenommen wird. Überhaupt halte ich die Idee, für ein kleines Snippet Geld verlangen zu wollen, für kurios. Oder meinen Sie, ein Nutzer würde für eine Website oder App zahlen, wenn diese nur aus vier Zeilen Text nebst Überschrift bestünden?

     
     
  12. Sebastian

    Ich habe nur eine einzige Frage an Herrn Keese:
    Angenommen, das LSR wird Realität. Nehmen wir auch mal an, dass alle größeren Suchmaschinen und Nachrichten-Aggregatoren entsprechende Verlage aus dem Index nehmen.
    Letzendlich stellen die Verlage fest: Wir kriegen weniger Besucher – wie wenig weiß ich natürlich nicht, aber ich nehme an dass es genug sind, um sie alle zu vermissen. Und zwar so richtig.
    Was tun Sie dann?
    Mit Handbremse eine 180° Wendung machen wie Frau Merkel mit der Laufzeitverlängerung?
    Nach einem weiteren Gesetz schreien, dass keiner Suchmaschine und Aggregator erlaubt, sie vom Index zu nehmen, wie in Frankreich?

    Ich verwende hier bewusst keine Namen, weil es geht nicht nur um Springer und Burda gegen Google.

     
     
    • @ Sebastian: Woher nehmen Sie Ihre Überzeugung, dass alle Suchmaschinen und Aggregatoren die Verlagsangebote aus dem Index nehmen, wenn das Leistungsschutzrecht im Bundesgesetzblatt steht? Warum sollten sie das tun?

       
       
      • Lars Friedrich

        Äh, weil die Suchmaschinen ja sonst gegen das Gesetz verstossen. Das ist ja der Sinn des Gesetzes. Sie haben sich schon damit befasst, oder?

        “Der Hersteller eines Presseerzeugnisses (Presseverleger) hat das ausschließliche
        Recht, das Presseerzeugnis oder Teile hiervon zu gewerblichen Zwecken
        öffentlich zugänglich zu machen.”

        Also, am Tag wo das Gesetz in Kraft tritt, müssen alle die Angebote herausnehmen, sie haben ja nicht die Erlaubnis vom Verlag. Warum sollten die Suchmaschinenanbieter gegen das Gesetz verstossen und sich angreifbar machen für Urheberrechtsklagen? Ergibt doch gar keinen Sinn.

         
         
        • Sebastian

          Einerseits das, andererseits schrieb ich “alle GRÖßEREN”. Abgesehen davon weiß ich es natürlich nicht, mein Kommentar ist eine Annahme.
          In Frankreich schrieen Ihre Kollegen ja schon nach einer Lösung, nachdem ein Brief von Google raus kam, in dem gesagt wurde: Lasst das oder wir nehmen euch raus.

          Der Artikel ist hier zu finden: Steuer auf Artikel-Klicks – Google droht Frankreich.

          Sicherlich ist eine Steuer mit dem LSR nicht zu vergleichen, aber letzendlich kommt das gleiche bei raus.
          In dem Artikel steht auch, dass ca. vier Milliarden Klicks jeden Monat durch Google gemacht werden, das ist hier nicht viel anders. Ich bin mir sicher die werden Sie schmerzlich vermissen, wenngleich ich immer noch nur vermute.

           
           
  13. Ein bedeutender Teil der von Ihnen geforderten Informationen kann doch auch schon jetzt in Form von Rich-Snippets in einer Webseite hinterlegt werden. Beispielsweise Autor und Organisation. Alle großen Suchmaschinen unterstützen das meines Wissens. Und wenn Sie überhaupt nicht aufgenommen werden wollen, können Sie das sowohl über Meta-Tags, als auch über die robots.txt ganz einfach festlegen.

    Wozu darüber hinaus auch noch komplexe Preislisten hinterlegt werden sollen, erschließt sich mir nicht. Damit Suchmaschinen und Aggregatoren automatisiert Rechte erwerben können? Ganz offensichtlich wollen sie das ja gar nicht.

    Wir haben also folgende Situation: Verlage lassen ihre Webseiten von Suchmaschinen indizieren. Ganz bewusst, zum Teil mit suchmaschinenoptimierten Webseiten, zum Teil mit optimierten Meta-Tags und zum Teil ja durchaus auch durch aktive Anmeldung (Google News). Und gleichzeitig wollen Sie Suchmaschinen und Aggregatoren die Indizierung untersagen?

    Das klingt für mich aber sehr nach widersprüchlichem Verhalten, so wie es der BGH in seinen Vorschaubilder-Entscheidungen angenommen hat: Wer seine Seiten suchmaschinenoptimiert und von den einfachen Möglichkeiten eines Opt-Out nicht gebraucht macht, kann nicht gegen die Suchmaschinen vorgehen, wenn sie Inhalte in ihren Index aufnehmen, so der BGH. In der Entscheidung ging es übrigens um – Trommelwirbel – Google.

    Selbst wenn also Ihr gefordertes Leistungsschutzrecht kommen sollte, könnten Sie es nach derzeitiger BGH-Rechtsprechung gar nicht ausüben, solange Sie den Suchmaschinen nicht auf technischem Wege mitteilen, dass Sie nicht indiziert werden wollen.

    Für mich zeichnet sich immer mehr ab, dass das Leistungsschutzrecht – sollte es denn kommen – nicht nur für Suchmaschinen und Aggregatoren eine Katastrophe wäre, sondern vor allem ein gigantisches juristisches Eigentor für alle Presseverlage.

     
     
    • @ Adrian: Ihr Pessimismus ist nicht berechtigt. Im gesamten angelsächsischen Raum verfügen die Verlage über viel stärkere Rechte, als es in Deutschland mit dem Leistungsschutzrecht der Fall sein wird, und trotzdem ist die von Ihnen beschrieben Katastrophe ausgeblieben.
      Rich-Snippets / Informationen: Und werden diese Informationen von Aggregatoren ausgelesen und respektiert? Sie verkürzen die Debatte zu stark auf ihre technische Seite. Funktionieren wird ein Standard nur, wenn alle Marktseiten sich ihm verpflichtet fühlen. Die beste technische Lösung ist unwirksam, wenn das nicht gewährleistet ist.

       
       
  14. Lars Friedrich

    Ich hätte gerne eine verlag.txt, die ich an den Verlag schicken kann und die dieser gefälligst auszuwerten und zu beachten hat. Wir brauchen eine Nutzersprache! Es kann ja nicht sein, dass die Verlage mit ihrem Produkt machen, was sie wollen, wir sind schliesslich die Leser.

    NACKTE_FRAUEN yes/no/page1_only
    NACKTE_MÄNNER yes/no/page1_only
    WERBUNG yes/no
    KOMMENTARE yes/no
    PRESSERAT none/missbilligungen/rügen
    JUGENDSCHUTZ fsk12/fsk16/fsk18
    FJWAGNER no/no

    Es ist eine Sauerei, dass ich eine URL eintippe und mir nicht das geliefert wird, was ich will. Alles was man mir anbietet ist ein Lichtschalter! An/Aus – entweder lese ich die Zeitung oder nicht. Das kanns ja nicht sein und ist völlig unangemessen!

     
     
  15. Netzer

    Warum kommt der Vorschlag erst jetzt? Die News-Aggregatoren haben sich bisher im rechtlichen Rahmen bewegt, Vorwürfe sollten also nur an diejenigen gehen, welche die Regeln gestaltet haben. Regelungen die eine neue Technologie betreffen die auch Verhalten von Menschen ändern kann ist eine Herausforderungen, da kann man nicht erwarten das zukünftige Verhaltensänderungen auch berücksichtigt werden.
    In der Diskussion kann man also niemanden böse Absichten vorwerfen. Statt die Diskussion mit Blick auf die Vergangenheit zuführen hätte man gleich auch technische Lösungen für zukünftige Vergütungsmodell beginnen sollen. In der Übergangsphase hätten die Regeln des Marktes vollkommen ausgereicht Meinungsverschiedenheiten zu klären und dazu hätte auch die robots.txt gereicht. Außerdem hätte man schon vor 10 Jahren beginnen können die Leser daran zu gewöhnen, das Journalismus auch im Netz Geld kostet. Es wird immer vergessen das alle Inhalte die auf einem Webserver von der index.html zugänglich sind immer öffentlich sind, aber niemand ist gezwungen auch seine Webauftritt so zu gestalten.
    Die angestrebte pauschale Vergütung ist nach über 10 Jahren nach der dotcom-Euphorie kein Zeugnis einer überlegten Strategie. Warum gab es in Deutschland noch kein groß angelegten Versuch von bezahlten Online-Nachrichten? Bis auf die taz schafft es keine Zeitung mal ein großes sichtbares Preisschild an ihre Online-Auftritte zu kleben. Wie soll der Kunde ein gesundes Preisbewusstsein entwickeln, wenn er gar nicht mitbekommt was er wann zahlt? Statt des Leistungsschutzrechts sollte man das werbefinanzierte Geschäftsmodelle verbieten, weil sie den Kunden nur nerven und der Freiheit berauben an der Preisgestaltung teil zunehmen.
    Aber auf die Idee kommen ja unsere marktorientierten Konservativen und Liberalen nicht, weder von der 1. bis 3. Macht, noch von der 4. Macht.

     
     
    • Tobias M.

      Warum sollte man werbefinanzierte Geschäftsmodelle verbieten? Wem schaden diese?

      Ich bin auf meinem Tablet beispielsweise gerne bereit eine light-App mit Werbeeinblendungen zu nutzen. Gegen eine geringe Zahlung von 1-5 EUR für die PRO-Version lässt sich diese meistens unterdrücken.

      Es hat dabei also jeder die Wahl. Dies könnten Nachrichtenseiten ebenso realisieren. Werbefrei für etwas höhere Gebühr. Ich denke aber, dass die Mehrheit der Leser die Werbung lieber akzeptieren wird statt zu zahlen. (ist im Bereich Pay-TV ja vergleichbar)

       
       
      • Netzer

        Warum gibt es dann immer wieder beschwerend über die Gratiskultur? Immer wieder wird darüber diskutiert ob Konsumenten noch breit sind für Leistung zuzahlen, aber es wird nie berücksichtigt das es Unternehmen sind die werbefinanzierten Produkten auf den Markt werfen und das die Entscheidung allein beim Unternehmen liegt.
        Die Forderung nach einem Verbot werbefinanzierten Produkten sollte deutlich machen, dass diejenigen die sich über legale Verhaltensweisen von Marktteilnehmern aufregen, das Verhalten zu akzeptieren haben oder ihre eigenes Handeln entsprechend anpassen und nicht den Staat dazu benutzen den Markt nach ihren eigenen Vorstellungen umzugestalten.
        Sie bemerken richtig das auch Nachrichtenseiten ein direkt bezahlbares Angebot anbieten können, nur sie tun es nicht oder erkennen nicht das ihr werbefinanziertes Angebot für viele Leser ausreichend ist, statt die Konsequenzen zu ziehen und das werbefinanzierte Angebot einzuschränken jammern sie lieber über die Gratiskultur.

         
         
    • @ Netzer: Der Vorschlag kommt doch nicht erst jetzt. Er wird doch schon seit vielen Jahren diskutiert. Die Auseinandersetzung um Rechtesprachen stand doch sogar am Anfang der ganzen Urheberrechts/Leistungsschutzrechtsdebatte,

       
       
  16. Hubertus

    “1. Nur auf Google kommt es an. Andere Aggregatoren spielen keine Rolle.”

    Wer die Diskussion immer nur auf Google beschränkte, wie es die Verleger ja immer noch tun, braucht sich über diese Einschränkung nicht wundern.

    “2. Es ist gut und richtig, dass Google sich nicht für die Inhaber der Rechte interessiert.”

    Die Post juckt es auch nicht wem eine Adresse gehört solange die Anschrift erreichbar ist…
    Nichts anderes tut Google bzw. Suchmaschine-ihrer-Wahl auch – vermitteln. Und dafür möchten die Verlage Geld? Wer den Begriff “Lesenswert” in den letzten Jahre so herabgewürdigt hat, braucht sich über Liebesentzug nicht wundern.

     
     
  17. Tim

    Sich über Herrn Keese aufzuregen ist vergebene Liebesmüh. Ich bin davon überzeugt, dass er das was er von sich gibt auch selbst glaubt.

    Ich empfehle das Buch “Thank You for Smoking” von Christopher Buckley (deutscher Titel “Danke, daß Sie hier rauchen”). Der Film ist auch gut gelungen, wie ich finde und unter dem gleichen Titel erschienen. Es gibt einen Einblick in die Lobby-Arbeit und die verquere Denkweise dieser Menschen. Der Auftritt von Nick Naylor bei der Talkshow erinnert mich immer wieder an Herrn Keese. Einfach herrlich.

     
     
    • skomp

      Der einzige Unterschied ist: Nick Naylor hat es drauf, Herr Keese nicht. Nick Naylor hätte sich gar nicht mit dem Inhalt befasst und widerlegbare Argumente formuliert, er hätte nur der Gegenseite das Wort im Munde umgedreht, so wie in der Talkshow, wo er dem Antiraucher in den Munde legt, dass er dem Krebsjungen den Krebs wünscht, weil es ihm eben was bringt und der Tabakindustrie schadet.

       
       
  18. skomp

    Ich frage mich ehrlich gesagt, warum Google überhaupt noch Texte von Axel Springer und Konsorten listet. Klar, die Verlage sperren nicht aus, per robots.txt oder was auch immer. Aber man kann das ganze auch mal andersrum betrachten…

    Angenommen ich verteile Werbung als Zeitungsjunge. Die Werbeprospekte muss ich nicht bezahlen, das zahlt natürlich der Werbende. Ich bekomme dafür vom werbenden Geld, dass ich seine Werbung unter die Menge bringe. Um es in der Bildsprache zu sagen: “Armzeitungsjunge kriegt 10€ für 1000 Projekte”. Nun kommt der Werbende aber auf eine grandiose Idee: der Zeitungsjunge verdient ja Geld damit, dass er die Prospekte in seinem offenen Fahrradanhänger durch die Gegend fährt. Da könnten ja Leute drauf gucken, die eigentlich gar nicht im Einzugsgebiet der Firma liegen. Aber wunderbar, der Zeitungsjunge ist natürlich schuld. Statt ihm aber zu sagen, dass er ein Verdeck drüber ziehen soll oder die Zielgruppe anzupassen und die Kataloge zum Beispiel anders zu verpacken, fordern sie direkt Geld. Um es nochmal in der Bildsprache, die dem OP ja am geläufigsten sein dürfte, zu formulieren: “Dreistverlage wollen dem Armzeitungsjungen alles nehmen”. Der Zeitungsjunge sieht bei sich keine Schuld und sagt dem Verlag: Dann gebt mir halt einen Anhänger mit Verdeck. Der Verlag weigert sich und geht stattdessen zum Staat und verlangt ein Gesetz, dass den Zeitungsjungen dazu zwingt für jeden ausgetragenen Katalog wieder etwas zurück an den Verlag zu zahlen.

    So, klar hinkt der Vergleich, aber da sich Springer ja hier allzugern immer wieder zum Opfer stilisiert kann man den Spieß auch mal umdrehen. Fazit ist jedenfalls: Warum tut sich der Zeitungsjunge das eigentlich an?

    Zudem möchte ich auf eines hinweisen: Während ich keinen direkten Link zu irgendeinem Artikel des Hamburger Abendblattes (verlegt von Axel Springer) öffnen kann und nur eine Vorschau bekomme, so ist das über Google vollkommen anders. Ich suche etwas, bekomme einen Artikel des Abendblattes, klicke ihn an, und sieheda: Ich kann ihn vollständig lesen. Mir kommt es einfach so vor, als ob hier etliches verdreht wird. Google wird ganz spezifisch genutzt von den Verlagen, andersrum eher unspezifisch. Google indiziert halt alles, das ist der Sinn einer Suchmaschine. Wenn also die Axel Springer AG auf der einen Seite verlangt, dass Google für Snippets zahlen soll, auf der anderen Seite aber den Referrer testet und wenn der Klick von Google kam sogar Premiumleistungen zu bietet, dann frag ich mich schon was in den Köpfen der Macher vor sich geht. Schaut mal etwas übern Tellerrand, in England hats das alles schon gegeben. Verlag wollte von Google Geld sehen, Google hat sie aus dem Index genommen, Klickzahlen auf Seiten des Verlages sind eingebrochen, Verlag hat eingelenkt. Noch besser: Bei Google werden Snippets angezeigt, Klickt man die entsprechende Seite an, so kommt man nur auf eine Loginseite, also genau das Gegenteil von der Abendblattgeschichte.

     
     
  19. Jonas

    Ich bin kein Medienschaffender, sondern “nur” einer dieser ganz normalen Leser, die letzten Endes in irgendeiner Form den Journalismusbetrieb finanzieren wollen – sei es durch mein Geld, indem ich für etwas bezahle oder durch meine Aufmerksamkeit, indem Werbetreibende dafür bezahlen.

    Mich geht diese ganze Diskussion mittlerweile ganz enorm auf die Nerven. Von Seiten der Verleger und ihrer Lobbyisten nervt es mich gewaltig, wie ausgerechnet bei diesem Thema nicht ausgewogen berichtet wird, Fakten entweder nicht verstanden oder bewußt weggelassen werden. Von der anderen Seite regt es mich auf, wie aufgeregt das ganze als Kulturkampf betrieben wird.

    Beides ist Bullshit. Es kommt mir so vor als wäre wirklich keiner der Akteure daran interessiert eine sinnvolle Lösung – einen Kompromiß – zu schaffen. Es scheint mir eher als würden beide Seiten einzig und allein versuchen Pfründe zu sichern. Und das ist zum Kotzen.

    Insgesamt glaube ich, dass wenn ein Leistungschutzrecht kommen sollte, Google eben diese Seiten einfach von der Indizierung ausschließen wird. Peng, fertig. Und ob das den Verlegern so helfen wird frage ich mich ernsthaft.

    Außerdem stünde es dem Journalismus gut an mal darüber nachzudenken wo man selbst “parasitär” von der Leistung anderer profitiert. Nämlich dort, wo in Feuilletons ganze Artikel der Nacherzählung von Fernsehsendungen oder Kinofilmen dienen. Texte, die über Menschen berichten… werden diese Menschen denn immer dafür bezahlt, dass die Zeitungen Geld mit ihrem Leben oder ihren Tätigkeiten verdienen?

     
     
  20. Christopher Böhm

    Hallo Herr Keese,

    ich habe eigentlich nur eine Frage an Sie:

    Schämen SIe sich nicht wenn Sie morgens in den Spiegel schauen?

    Das die meisten Ihrer Argumente schlichtweg erlogen sind haben die meisten meiner Vorposter schon geschrieben und einen sachlichen Grund warum Google etwas bezahlen sollte können Sie auch nicht nennen.

    Als Lobbyist mögen Sie Weltklasse sein, immerhin schaffen Sie es der Regierung ein Gesetzt komplett zu diktieren.
    Als Mensch sind sie eine ganz arme Wurst.

     
     
  21. M. Boettcher

    Mit Ihrer Kritik an der robots.txt werfen Sie doch lediglich eine Nebelkerze. Sie haben sich mit der Behauptung, diese Datei sei ein Ein-/Ausschalter verrannt, wollen und können das aber nicht zugeben. Mit Ihren “Vorschlägen” machen Sie deise Blamage noch schlimmer. Ein Teil, der nun von Ihnen als angeblicher Mangel aufgezählten Beschreibungen gehört nicht zur Webpräsenz, sondern zum jeweiligen Dokument und damit zu dessen Metadaten. Für die gibt es extra Tags im HTML-Header. Ein anderer Teil gehört zum Impressum der Webpräsenz oder in eine dort vorhandene Preisliste. Die Funktionen der robots.txt sind, das dürfte Ihnen längst klar sein, völlig ausreichend für das, was die Verlage fordern. Falls Sie es wirklich nicht begriffen haben, sind Sie ahnungsloser als ich es mir bisher vorstellen kann.

    Was ich an Ihren Beiträge eindeutig schätze, ist die klar erkennbare Unverschämtheit, mit der Sie für Ihre Auftraggeber Forderungen stellen, die sich auf Google-News beziehen. Wo doch jeder, der dort mit seinem Produkt gelistet werden will, zuvor eine Anmeldung zu diesem Dienst durchführen musste. So schlimm kann es also kaum sein, es sei denn, bei den Verlagen arbeitet man nur noch im Vollrausch.

    Es ist ja bald Weihnachten. Ich wünsche mir zum Fest, dass das sogn. Leistungsschutzrecht endlich Gesetz wird. Und dass am Tag danach alle Zeitungs- und Verlagsseiten aus dem Index von Google (und möglichst vielen anderen Suchmaschinen) fliegen. Dann ist endlich Ruhe, wenn man vom absehbaren Gejaule der LSR-Befürworter einmal absieht. Popcorn!

    M. Boettcher

     
     
  22. Tobias Maiwald

    “Trotzdem bleibt es dabei, dass Robots.txt wie ein Lichtschalter nach dem An-Aus-Prinzip funktioniert.

    Die Metapher (Dimmer Anm.) ist nicht schlecht. Auch ein Dimmer ist ein Lichtschalter, auch wenn er graduelles Abdunkeln ermöglicht.”

    Nun spätestens hier wird doch deutlich wie unsinnig der Lichtschaltervergleich ist.
    Ein Mechanismus der An- Aus- und sämtlichen Abstufungen dazwischen beherrscht kann ja so undiffernziert nicht sein wie Sie ihn immer darstellen. Also verabschieden Sie sich einfach von dem Lichtschaltervergleich, er ist Unsinn!

    Dass Sie zusätzlich zum Licht also analog zur Sichtbarkeit ihrer Texte auch noch Rechteinformationen, Preise, Weitergaberegelungen etc. einbringen wollen ist ein völlig neuer Aspekt und wird durch Ihren polemischen An-/Aus-Vergleich nicht sichtbar.

    Einen Kioskbesitzer der eine Zeitung auslegt interessiert auch nicht wer die Rechte an welchem Bild in der Zeitung hat und ihn interessiert auch nicht was es kostet wenn die Lokalzeitung den Artikel auf Seite 3 archivieren möchte etc.

    Warum sollte dies also für eine Suchmaschine interessant sein. Sie können ja für Drittverwerter gerne Preisinformationen etc. auf der Seite hinterlegen, oder im Code auffindbar machen.

     
     
  23. Alexander

    Was ich mich die ganze Zeit frage. Warum werfen die Verleger Google nicht einfach raus und machen eine eigenen Newssuche-Website? Vielleicht kann man ja auch den Namen Paperball kaufen? (Den fand ich immer ganz hübsch.)

    Das Angebot müsste sich schnell herumsprechen – wer schmeißt schon Google über die robots.txt raus?

    Die Erlöse aus den auf der neuen Newssuche geschalteten Anzeigen kann man dann aufteilen.

    (Und bei der Gelegenheit gleich ein einheitliches Micropayment à la Slowakei installieren – sonst macht das Geschäft auch ein anderer, oder “Piano Media” selbst.)

     
     
  24. @ Keese: “Crawlen kann weiterhin stattfinden. Man crawlt die Rechte-Informatoonen einfach mit.”

    Wenn die Suchmaschinen die Webseiten crawlen, bevor sie die Rechte interpretiert haben, könnten sie aber durchaus Kopien von Seiten anlegen, die nicht kopiert werden durften. Anschließendes Löschen oder Nicht-Nutzen macht die Sache ja rechtlich auch nicht besser, wie bei den Diskussionen über “Raubkopierer” gerne behauptet wird.

    Zudem können Sie als Verlag niemanden zwingen, eine bestimmte Maschinensprache zu nutzen. Wenn Google oder ein anderer Aggregator die neuen Informationen nicht lesen möchte, dann müssen sie auch nicht. Sie können die Aggregatoren indirekt dazu bringen, indem Sie jeden, der die neuen Rechteinformationen nicht lesen kann, durch technische Hürden vom Inhalt aussperren. Dies würde aber auch viele Leser von Ihren Seiten fernhalten. Und wahrscheinlich auch Google, weil die dann Ihre Inhalte nicht mehr sehen können und auch wie es den Anschein hat, kein allzu großes Interesse an diesen Inhalten haben.

     
     
    • Christoph Seufert

      @Claudia Thur: Vergessen Sie doch bitte mal den Begriff der Kopie. Der führt nicht weiter. Sonst dürften ja nicht einmal eine Webseite anzeigen, da ja eine Kopie der Seite vom Server zum Browser transportiert wird. Die liegt dann auch noch im Browser Cache, evtl. einem Caching Proxy und und und… Ganz schnell hat man da 3-4 “Kopien” gemacht.

       
       
  25. Moon

    Danke für die Tipps, aber die Fakten sind mir durchaus bekannt.

    Komisch nur, dass so ziemlich jeder einen anderen Eindruck bekommt, da Sie die permanant falsch darstellen. Zum Beispiel hier:

    Es endet dann das Zwangs-Tauschgeschäft „Traffic gegen Inhalt“

    Es ist kein Zwang, weil Sie sich bei Bing & Co finden lassen können und natürlich weiterhin im Netz stehen, wenn auch nicht in Google News. Vor allem unterschlagen Sie weiterhin fröhlich, dass Sie weit mehr Nutzen am Traffic haben, als Google an den Adwords der regulären Suche beim Listen von Verlagscontent.

    Es ist allenfalls ein Dimmer.

    Also geben Sie doch noch zu, dass Sie mit dem An/Aus die ganze Zeit bewusst gelogen haben. Hat ja lang genug gedauert.

    Der hier zum Ausdruck kommende Fatalismus gibt Anlass zur Sorge, nicht viel weniger als die schulterzuckende Akzeptanz der Bedingungen eines Marktbeherrschers.

    Von an/aus zu Dimmer, von erzkapitalitischer Monopolist zu Marktbeherrscher. Zurückrudern bringt noch weniger, wenn es so inkonsistent geschieht. Weiter oben geht es doch angeblich um andere Aggregatoren. Was denn nun?

    Den Knackpunkt ignorieren Sie weiterhin bewusst: Woraus sollte ein Anspruch der Verlage gegen Google entstehen?

     
     
  26. Jan

    Meine Bitte, Herr Keese,
    Sie zeigen Ihre Liste Google und bitten um die technische Umsetzung. Als Verhandlungsmasse haben Sie den Zugang zu Presseerzeugnissen.
    Und Sie hoeren auf, Lobbyarbeit – auf dass der Gesetzgeber ad-hoc regulierend eingreift um Teile des Internets Ihren Wuenschen gemaess zu gestalten – zu betreiben.

     
     
    • @ Jan: Gute Idee. Funktioniert nur leider nicht. Die Liste haben die Weltzeitungsverbände Google vor vielen Jahren gezeigt. Sie ist vollständig ignoriert worden. Daraufhin haben die Verlage einen eigenen Standard entwickelt und implementiert. Er ist von Google ebenfalls ignoriert worden. Leider.

       
       
  27. Torsten Römer

    Sagen Sie mal Christoph Keese, haben Sie jetzt jeglichen Bezug zur Realität verloren? Kanäle die Ihnen “Konsummaterial” zur Optimierung Ihrer Werbeeinnahmen übermitteln und von diesem Stück Kuchen z.B. im Falle von Google News nichts abhaben möchten, sollen für Sie eine Lösung zur Optimierung Ihres Geschäftsmodells bereitstellen? Und dafür sollen diese Dienstleister dann auch noch zahlen? Haben Sie kein Verständnis für eine leistungsorientierte Marktwirtschaft, oder einfach nur keinen Anstand?
    Ok dann spinnen wir mal weiter, aber setzen wir Ihren Arbeitgeber als Verwerter von Inhalten in den Fokus.
    In einem Ihrer Blätter im Netz, der BZ-Berlin, wird heute über den Wintereinbruch in Berlin berichtet. Ihr Reporter fotografiert dabei Gebäude, ungefragt Menschen, oder Fahrzeuge. Jetzt frage ich Sie weshalb Sie an diesen wesentlichen Bestandteilen (die Inhalte auf den Fotos) des Artikels mehr Rechte für eine kommerzielle Verwertung haben, als ein Unternehmen wie Google? Fragen Sie sämtliche Rechteinhaber um Erlaubnis für diese kommerzielle Nutzung? Hier sollte auch mal jemand ansetzen, oder Verlage mit Klagen überziehen, denn dieser Mißstand existiert seit es vor allem Gossenjournalismus gibt.
    Sie überschätzen die Macht und den Einfluss der “noch” vierten Macht enorm Herr Keese und dass die Mehrheit der Durchschnittsbürger noch dazu schweigt, ist lediglich Ihrer Fehl- und Missinformation geschuldet, denn in keinem ihrer Mainstream Blätter findet sich eine fach- und sachkundige, ehrliche und transparente Information zum Thema Leistungsschutzrecht.
    Die nächsten Jahre werden sehr spannend. Wenn Ihr Arbeitgeber und einige andere wie Burda und Co. meinen sie könnten Internet wesentlich mitbestimmen und Regeln aufstellen, täuschen Sie sich gewaltig. Passen Sie sich an und erkennen Sie dass immer weniger Menschen bereit sind für abgeschriebene und eingekaufte 0815 Informationen zu bezahlen. Ansonsten wirds düster für Ihre Zunft.

     
     
  28. 1. Nur auf Google kommt es an. Andere Aggregatoren spielen keine Rolle.

    Sie beißen sich doch die meiste Zeit an Google fest, fragen, ob Google sich keine Lizenzzahlungen leisten könnte, haben für die Startseite dieses Blogs aus dem “IGEL” ein “GIGEL”-Logo gebastelt und in dem Interviewauszug auf HORIZONT.NET geht es auch nur um Google (für das Interview insgesamt mag das anders sein).

    Für wen brauchen Sie das Leistungsschutzrecht sonst?

    Volltextkopierer?

    Das bestehende Urheberrecht erlaubt bereits, gegen diese vorzugehen. Über eine Vereinfachung der Rechtsdurchsetzung für Verleger kann man ja reden.

    Kleinere Suchmaschinen und Aggregatoren?

    Die könnte man mit der Drohung, sie mit den heutigen Mitteln auszusperren, sicher zu Verhandlungen bewegen. Falls diese sich nicht an robots.txt/Meta-Tags halten, könnte man immer noch über ein Gesetz diskutieren. Im Moment sehe ich diesbezüglich aber keinen Bedarf.

    2. Es ist gut und richtig, dass Google sich nicht für die Inhaber der Rechte interessiert.

    Genau. Google (und andere Suchmaschinen/Aggregatoren) müssen nur wissen, was sie mit einem Text tun dürfen (indexieren, Snippets, …). Die Information über den Rechteinhaber könnten sie vielleicht in Klammern neben dem Link anzeigen, das ist aber auch schon alles.

    3. Google wird nie etwas bezahlen, was ebenfalls gut und richtig ist.

    Die Verhandlungen mit Google über einen erweiterten Rechte-Standard wie ACAP wären wahrscheinlich nicht ergebnislos verlaufen, wenn Google ein größeres Interesse an den Verlagsinhalten hätte. Folglich ist eine Bezahlung dafür von Google nicht zu erwarten. Ob das “gut und richtig” ist, ist kaum relevant.

    Deswegen ist jede Bemühung in diese Richtung verfehlt. Folglich verbietet sich auch jede Bezahlung durch andere Aggregatoren.

    Nein. Das LSR ist aber ein viel zu großes Kaliber. Sie können ja durchaus Vertragsverhandlungen mit anderen Suchmaschinen/Aggregatoren aufnehmen, damit die Verlagsinhalte nur dort mit Snippets suchbar sind und diese Suchmaschinen damit ein Alleinstellungsmerkmal gegenüber Google News besitzen.

    Sie könnten auch das von mir skizzierte technische Zweistufenmodell verwenden: Wer ACAP unterstützt, darf zu den damit definierten Bedingungen, wer nicht, wird mit robots.txt/Meta-Tags ausgesperrt.

    Hier eine Liste der Informationen, die man in gute maschinenlesbare Rechtesprache eintragen können sollte
    [...]
    Name des [...] Name der [...]
    Wie schon gefragt: Was sollte eine Suchmaschine damit groß anfangen (es sei denn, sie wäre zu Lizenzzahlungen bereit)?

    Einzuhaltende Zeitverzögerung bei Nutzung durch Dritte
    Da müßten sich die Programmierer Ihres CMS einfach mal hinsetzen und eine zeitgesteuerte Änderung der robots.txt/Meta-Tags erstellen (vermutlich existiert die Funktion aber bereits).

    Gewerbliche [...] erlaubt / nicht erlaubt
    Bei den großen Suchmaschinen/Aggregatoren ist ohnehin bekannt, in welcher Weise sie die Daten nutzen. Man kann diese Anbieter also einfach mit den bisherigen Mitteln aussperren, wenn man die jeweilige Nutzungsart nicht erlauben will.

    Preis für [...]
    Wer bereit ist zu zahlen, kann ja eine angebotene ACAP-Auszeichnung nutzen.

    Maximale Anzahl Kopien
    Maximale Dauer der Archivierung
    Volltextkopien sind bereits durch das existierende Urheberrecht reglementiert, ein Nutzer solcher Kopien kann also vertraglich zur Beachtung einer entsprechenden Auszeichnung verpflichtet werden.

    Maximale Länge der Aggregation
    Maximale Länge gewerblicher Teaser
    Bei den großen Suchmaschinen/Aggregatoren ist die verwendete Länge bekannt, sie können also bei Bedarf ausgesperrt werden.

    Weitergabe an [...] erlaubt / nicht erlaubt
    Für die meisten Suchmaschinen/Aggregatoren nicht relevant, die geben allenfalls Snippets weiter und die vorherige Prüfung, ob der jeweilige Nutzer gewerblich ist, ist dann doch etwas viel verlangt.

    Interessant wäre das allenfalls für Aggregatoren mit zahlenden (meist gewerblichen) Kunden. Für diesen Spezialfall ist das LSR aber überdimensioniert.

    Anzeige des Autorennamens zwingend / nicht zwingend
    Bei Volltextkopien sollte der ohnehin enthalten sein, bei Snippets ist er wohl kaum hilfreich.

    Veränderungen [...] Mashups
    Die werden immer noch hauptsächlich von Menschen erstellt, welchen Sinn hätte eine maschinelle Auszeichnung?

     
     
    • Vielen Dank für Ihre Anmerkungen. Sie stellen hauptsächlich auf die Verwendbarkeit von Informationen durch Google ab. Das kann für einen allgemeinen Standard nicht ausreichen. Wenn es nicht gelingt, eine maschinenlesbaren Rechtesprache zu etablieren, die von allen Marktseiten anerkannt wird, damn fûnrt dies zwangslâufig dazu, dass Rechteinhaber sich durch AGB ausdrücken müssen. Das würde zu einer enormen Verlangsamung des Netzes führen. Auf eine solche Lösung läuft es derzeit zu. Das kann nicht in Ihrem Sinne sein.

      Und ja: Es gibt Volltextaggregatoren. Sie haben große wirtschaftliche Bedeutung. Eine Rechtesprache muss auch die Übermittlung von Rechteinformationrn an sie ermöglichen.

      Dass Sie nach Jahren der Debatte immer noch sagen, die Verlage seien durch das Urheberrecht der Autoren ausreichend geschützt, ist bemerkenswert. Es ist so oft dargelegt worden, auf welche Schwieriggkeiten und Grenzen das stößt, dass ich die Argumente hier nicht noch einmal wiederholen muss.

       
       
      • Wenn es nicht gelingt, eine maschinenlesbaren Rechtesprache zu etablieren, die von allen Marktseiten anerkannt wird, damn fûnrt dies zwangslâufig dazu, dass Rechteinhaber sich durch AGB ausdrücken müssen.

        Sie verlangen, daß alle Marktteilnehmer einen neuen Standard unterstützen müssen, der für die meisten von ihnen nutzlos ist?

        In der Computertechnik ist es normal, aus Kompatibilitätsgründen sowohl alte als auch neue Standards zu unterstützen. Auf den meisten Daten-CDs findet sich z. B. immer noch eine Beschreibung der Dateistruktur gemäß dem alten ISO 9660-Standard, bei der ein Dateiname nur aus acht Zeichen, einem Punkt und drei weiteren Zeichen bestehen durfte. Jedes halbwegs moderne Betriebssystem ignoriert diese Informationen inzwischen jedoch zugunsten der aktuellen Standards.

        Und auch bei ACAP hat man sich dazu Gedanken gemacht. In diesem Dokument auf den Seiten 10 und 11 wird unter der Überschrift “Fallback interpretation of permission and prohibition fields” beschrieben, was zu tun ist, wenn eine nähere Bestimmung einer Erlaubnis oder eines Verbots nicht interpretiert werden kann (im Zweifel immer verbieten).

        Die von mir vorgeschlagene restriktive Einstellung von robots.txt/Meta-Tags in einem Zweistufenmodell bildet genau das ab, ohne daß alle Betreiber von Suchmaschinen/Aggregatoren ihre Technik aufrüsten müssen.

        Dass Sie nach Jahren der Debatte immer noch sagen, die Verlage seien durch das Urheberrecht der Autoren ausreichend geschützt, ist bemerkenswert.

        Ich bin kein Jurist, aber mit gutem Willen müßte sich eine Lösung finden lassen (vielleicht sogar ohne neue Gesetze). Der Autor wird schließlich auch ein Interesse daran haben, illegale Kopien zu bekämpfen. Er wird also entweder selbst dagegen vorgehen oder dem Verlag entsprechende Rechte einräumen, das zu tun. Falls das nicht funktioniert, sind vielleicht Ihre Autoren das eigentliche Problem :-)

        Ich habe gelesen, warum die Verlegerverbände die von der SPD vorgeschlagene Vermutungsregelung ablehnen. Auch wenn ich das nicht im Detail beurteilen kann, sehe ich nicht, daß man damit verbundene Probleme nicht lösen könnte.

         
         
    • Sie könnten auch das von mir skizzierte technische Zweistufenmodell verwenden: Wer ACAP unterstützt, darf zu den damit definierten Bedingungen, wer nicht, wird mit robots.txt/Meta-Tags ausgesperrt.

      Inzwischen weiß ich, daß der ACAP-Standard sogar schon einen Schalter enthält, der genau das tut (Ignorieren der robots.txt-Definitionen nach bisherigem Standard).

      Dieser Schalter ergibt natürlich nur Sinn, wenn die Autoren von ACAP damit rechneten, daß eben nicht alle Suchmaschinen und Aggregatoren den ACAP-Standard unterstützen würden.

       
       
  29. Fritz

    Wie schön, dass die Debatte technisch wird. Und gleichzeitig wird es, wie mir scheint, komplett skurril, weil Sie sozusagen Ihr komplette Distribution im Netz von Dritten betreiben lassen möchten, die Ihnen aber dafür Geld zahlen sollten, statt dass Sie Ihren Dienstleister bezahlen. Kostet die BILD dem Leser 70 Cent, soll der Kisokbesitzer Ihnen sozusagen 80 Cent überweisen? Sie wollen Google etc. praktisch zangsweise zum Vertriebspartner machen und die komplette Kioskfunktion übertragen: die Ware auslegen, anpreisen, die Preisauskunft geben – nur an der Kasse sitzt dann noch eine “Verwertungsgesellschaft”, die dann eben auch noch vom Kioskbetreiber kassiert. Gedanklich eine originelle Form von Unverschämtheit, scheint mir.
    Und grotesk auch dies: “Einzuhaltende Zeitverzögerung bei Nutzung durch Dritte”. Sie könnten diese neuartige Info ja auch Ihren Artikel hinzufügen, wie bei PM üblich – stattdessen soll Google jetzt dafür sorgen, dass Sie ein feiner eingestelltes Geschäftsmodell bekommen – und erneut soll derjenige, mit dessen Hilfe, Sie Ihr Geschäft betreiben, dann noch Geld dafür zahlen?
    Das Gleiche gilt für die Fein-Differenzierung Kopie, Aggregation, Archivierung, Teaser – das sind doch augenscheinlich Forderungen, die das Verlagsgeschäft für die Nutzer im Internet zu einem einzigen Stolperdrahtfeld machen. Sie können sich selbst denken, was passieren wird: Das Zitatrecht kommt zu Ehren und zu vermehrter Nutzung, ansonsten herrscht Verzichtshaltung gegenüber den Artikeln des Springerverlags, die ja ohnehin nicht dafür bekannt sind, in voller Länge für irgendwen interessant zu sein.
    Trotzdem wichtiger Beitrag von Ihnen, weil ein tadelloser Beleg dafür, dass der LSR-Handel noch weit davon entfernt ist, im Bundestag durchgestochen werden zu können. Da ist noch viel zu viel zu bedenken und auszuhandeln.

     
     
    • Wie kommen Sie darauf, dass eine solche Rechtesprache nur für Google und Springer gelten soll? Und wo steht, dass Aggregatoren das Geschâft der Verlage besorgen sollen? Eine solche Rechtesprache würde nur festlegen, welche Nutzungsgenehmigungen der Hersteller aufstellt und welchen Preis er dafür verlangt. Es gibt keinen Markt, auf dem das nicht so ist. Wer nutzen möchte, muss sich daran halten. Ich habe ausdrücklich geschrieben, dass vermutlich viele Beitrâge weiter kostenlos zur Verfügung gestellt werden. Aus diesem Kreis können Aggregatoren sich bedienen, wenn sie nichts bezahlen môchten. Aber es wird auch Aggegatoren geben, die bezahlen möchten, weil sie das einkaufte Material durch eigene Leistungen veredeln und weiterverkaufen können. Es ist nicht einzusehen, warum Googles Behauptung, nie etwas zahlen zu wollen, den ganze Markt festlegen soll. Dafür gibt es einfach keinen Grund. Bedenken Sie bitte, dass selbst Google für Inhalte bezahlt – derzeit beispielsweise für einige Nachrichtenagenturen und für Musikvideos bei YouTube.
      Was Ihren Vergleich zu unseren heutigen Beziehungen zum
      Grosso und Einzelhandel angeht: Natürlich gibt es da ausgefeilte Regeln, die ausverhandelt wurden und heute zum allseitigen Nutzen gelten. Die verschiedenen Vertriebsstufen sind eng miteinander verknüpft und werden durch faires Miteinander geprägt. Es ist dort eben nicht so, dass die stärkere Marktseite allen anderen ihre Bedingungen diktiert. Wenn Sie sich für dieses erfolgreiche System interessieren, geben die Webseiten des Grossoverbands Auskunft.

       
       
      • Flo

        Erklären Sie mir doch mal klipp und klar wozu Google eine Rechtesprache etablieren sollte…

        Meiner Meinung nach will der Döpfner doch nur, dass das Internet ein digitaler Kiosk wird.
        D.h. Sie wollen sich noch nicht mal die Mühe machen sich zu überlegen, wozu man denn das Internet sonst noch nutzen könnte (Journalistisch, meine ich, dass Springer ganz vorne mit dabei ist Werbefirmen und Startups zu kaufen wissen wir ja dank ihnen schon).
        Schlimmer noch, anstatt sich von Anfang klar zu positionieren und Google dazu zu bringen einen solchen Standard anzunehmen und robots.txt abzuschaffen, packen sie die ganz dicke Keule aus, erklären erstmal jeden zum Verbrecher der armen Tatort-Autoren das Brot von der Marmelade klaut, und wollen sich obendrein noch bezahlen lassen, dafür dass sie sich dazu herablassen im Internet auch noch zu publizieren…

        Hab ich das so im Groben richtig zusammengefasst?

         
         
      • Moon

        Wer nutzen möchte, muss sich daran halten.

        Google möchte eben nicht nutzen, sondern lediglich seine Nutzer dahin leiten, wo sie etwas nutzen können.

         
         
  30. Hans P

    Zu einem fairen Markt gehört aber auch, dass die Gegenseite entscheiden darf, ob sie eine bestimmte “Rechtesprache” unterstützen möchte oder nicht. Alle bedeutenden Suchmaschinen beachten bereits robots.txt und diverse META-Tags, sie “klauen” nicht einfach alles, so wie vor ein paar Tagen noch von zahlreichen Zeitungen behauptet. Wenn die Verlage das nicht akzeptieren können, dann müssen sie sich eben bei Google, Bing, etc, auslisten und eventuell eigenes, konkurrierendes, Newsportal auf die Beine stellen, das ihre entsprechenden Vorgaben umsetzt. DAS wäre Marktwirtschaft in Reinstform. Die Brasilianer wissen wie das geht. Wenn Google das finanziell merkt, werden sie schon anfangen zu verhandeln.
    Momentan nutzen Sie aber eine kostenlose Dienstleistung und fordern sowohl Geld dafür, als auch neue Arbeitsweisen. Die Schmarotzer sind da wohl eher die Verlage, als Google.

     
     
    • @ Hans P: Danke für Ihre Anmerkungen. Ich frage mich allerdings, warum sie ein Auslisten von einer der beiden Seiten für den einzigen Weg halten. Es sollte doch möglich sein, am Verhandlungstisch gemeinschaftlich weiter zu kommen. So machen es doch fast alle Branchen, die in einer vertikalen Beziehung zueinander stehen. Warum soll das hier nicht möglich sein?

       
       
      • Verhandlungen funktionieren natürlich nur, wenn beide Seiten etwas anbieten können (oder damit drohen, es zu entziehen), das die andere Seite gerne haben möchte.

        Für Google scheinen Ihre Leistungen offensichtlich nicht mehr wert zu sein, als die zusätzlichen Leser, die die Suchmaschine Ihnen verschafft.

         
         
      • Mirko

        Was ist den LSR und ACAP anderes als “auslisten”?

        Bieten Sie doch eine ACAP-Erweiterung an. Aber beschweren Sie sich nicht, dass google so einen Dimmer als Ausschalter sieht.

        Ihre Lichtschalter-Diskussion ist nur ein Ablenkung. Sie haben den Lichtschalter angestellt und beschweren sich jetzt, dass jeder sieht, wie sie nackt dastehen.

         
         
      • Hans P

        Aber Google hat Ihnen doch bereits eine Absage erteilt, sowohl in Sachen ACAP, als auch Bezahlung für Snippets, oder? Anscheinend haben Sie also kein ausreichend attraktives Angebot. Damit müsste sich das beständige und kindisch anmutende Nachtreten gegen Google seitens der Verleger eigentlich endlich erledigt haben.

        Wenn Sie so unzufrieden sind, wie Sie ständig sagen, dann ziehen Sie doch endlich die nötigen Konsequenzen. Stellen Sie den Suchmaschinen Ihre Inhalte nicht mehr zur Verfügung, versuchen Sie es der Konkurrenz schmackhaft zu machen oder machen Sie doch tatsächlich eine eigene Plattform.

        Da Sie anscheinend aber absolut nicht auf Google verzichten können, folgere ich daraus, dass ihnen Google mehr User bringt, als User von Ihren Zeitungen fern hält, ansonsten wären Sie, als wirtschaftliches Unternehmen, da längst nicht mehr vertreten. Insofern erscheint es mir äußerst kontrovers, dass sie einerseits Geld (User) von Google erhalten und andererseits auch noch zusätzlich frech die Hand aufhalten (bald vielleicht sogar mit Segen von Union/FDP?) aber im Gegenzug nicht einen Cent für diesen Service bezahlen, ein Service der unbestritten eine Menge Geld kostet.

        Den ganzen Kram mit der Bezahlung für Teaser/Kopie/Gewerblich/Privat hätten Sie bereits längst mit den vorhandenen Möglichkeiten umsetzen können, dafür braucht es kein unnötiges Gesetz oder irgendeine Rechtesprache, sondern nur ein attraktives Angebot. Das scheinen Sie aber nicht zu haben.

         
         
      • Moon

        Warum soll das hier nicht möglich sein?

        Weil Sie durch Ihr jahrelanges verlogenes Lobbying massiv verbrannte Erde hinterlassen? Und natürlich weil Sie weiterhin keinen Grund nennen können, warum Google für die Nichtnutzung der Verlagsangebote (ausgenommen Google News) Geld zahlen sollte.

         
         
      • karpatenhund

        Wenn die Option der Verhandlung besteht: Wofür dann ein Leistungsschutzrecht? Das Potential müsste ja auch vorher schon vorhanden sein: “Liebe Suchmaschinenbetreiber: Ihr listet meine Texte. Zahlt mir Betrag x, sonst liste ich mich aus.”

        Tatsächlich besteht das Verhandlungspotential nicht, weil Suchmaschinenbetreiber nicht die Schmarotzer sind, als die sie von Verlagsseite dargestellt werden. Sie bieten eine eigene, abgrenzbare Leistung an. Es ist in keiner Weise ersichtlich, wo Suchmaschinenbetreiber auf Kosten der Verleger profitieren. Kein Wunder, dass es eine bedeutende Anzahl an Urheberrechtsexperten gibt, die das Leistungsschutzrecht für unsinnig halten.

         
         
      • Meisterlein

        @Keese: Gegenfrage: Warum erwarten SIE, dass Google – bleiben wir mal bei denen – am Verhandlungstisch sitzt, obwohl aus deren Sicht doch der momentane Zustand in Ordnung ist? Es sind doch die Verlage, denen das Modell nicht gefällt! Die gleichen Verlage, die aus der Nutzung dieses Dienstes aussteigen könnten, es aber nicht tun.

         
         
        • Ich habe nicht geschrieben, dass wir erwarten, Google würde sich an den Verhandlungstisch setzen. Sondern ich habe darauf hingewiesen, dass es zur weiteren Entwicklung des Marktes im Interesse aller Beteiligten sinnvoll wäre, wenn ein von allen akzeptierter Standard entstünde. Fast alle Märkte benötigen eine gewisse Standardisierung der Infrastruktur, damit an den vertikalen Verknüpfungen saubere Übergabestellen entstehen. Da Google ein wichtiger Marktteilnehmer ist, wäre es wünschenswert, dass sich Google einem solchen Standardisierungsprozess nicht entzieht. Daher hoffe ich, dass Google an den Verhandlungstisch kommt. Ob es tatsächlich geschieht, kann ich nicht beurteilen.

           
           
          • skomp

            Standards wie “robots.txt” entstehen in der Regel nicht durch Verhandlungen. Es gibt Leute, die sie implementieren und für sich nutzen, dann springen andere auf und am Ende entsteht ein de facto Standard, der manchmal in ein RFC oder einen IEEE Standard mündet. Das passiert natürlich nur, wenn ein Standard von anderen als gut und sinnvoll erachtet wird. Wenn Sie also einen Standard etablieren wollen, dann tun Sie am besten folgendes: Sperren Sie in der robots.txt alle Zugriffe für die Sie eine Vergütung möchten und verweisen Sie hier zum Beispiel auf eine Seite, die eine Spezifikation ihrer Abrechnungsschnittstelle enthält und vielleicht etwas Werbung für den Suchenden, damit dieser dann zum Beispiel selbst zu Google gehen kann um da zu fragen, warum sie das nicht können. Sollte Google ein ernsthaftes Interesse daran haben ein solches System zu nutzen und zu etablieren, so wird es sicher dazu führen, dass sich ein möglicherweise internationales Kommitee bildet, dass den Standard weiterentwickelt und betreut. Wenn nicht, dann nicht. Bedenken Sie nur: Sie sind nicht unbedingt der Vollprofi wenn es um die technische Umsetzung geht. Sie können vielleicht Anforderungen formulieren, die eigentlich Umsetzung obliegt Anderen. Ausserdem ist die Wahrscheinlichkeit sehr hoch, dass ihre Forderungen teilweise von einem potentiellen Kommitee abgelehnt werden, da Sie nicht zielführend sind. Was Sie vorschlagen ist auch eigentlich keine Rechtesprache sondern eine Verwertungssprache für Vertriebspartner. Die ganzen Preisinformationen sind für die eigentlichen Rechte vollkommen uninteressant.

               
             
             
          • @ skomp: “Die ganzen Preisinformationen sind für die eigentlichen Rechte vollkommen uninteressant”, schreiben Sie. Das unterscheidet uns. Nein, sie sind keineswegs uninteressant, sondern ein wesentlicher Faktor der Rechte.
            Die technische Umsetzung maße ich mir nicht an. Das steht eindeutig im Text. Beschreiben habe die Informationen, die eine faire Rechtesprache enthalten sollte. Die Aufgabe, solch eine Sprache zu etablieren, reicht weit über Google hinaus. Deswegen sollten wir hier vielleicht auch darüber diskutieren, wie es zu einer fairen Einigung aller Marktteilnehmer kommen kann, anstatt die Debatte immer nur auf Google zu verkürzen.

               
             
             
          • Meisterlein

            Ob Sie nun “erwarten”, oder “hoffen”, dass Google an den Verhandlungstisch kommt, kommt auf das gleiche. Was heißt denn “im Interesse aller Beteiligten sinnvoll wäre”? Diese ganze derzeitige Diskussion kommt ausschließlich von den Verlagen. Google ist offenbar mit seinem Modell zufrieden und lässt Ihnen die freie Wahl, eine Plattform zu nutzen oder auch nicht. Für andere Aggregatoren (heißt das so?), die Ihnen diese freie Wahl vielleicht nicht bieten, mögen Ihre Argumente allerdings zutreffen.

               
             
             
          • @Christoph Keese “Deswegen sollten wir hier vielleicht auch darüber diskutieren, wie es zu einer fairen Einigung aller Marktteilnehmer kommen kann, anstatt die Debatte immer nur auf Google zu verkürzen.

            Warum ist es nicht fair, den Suchmaschinen zu sagen: “Nur wenn ihr die detaillierten Rechte und Lizenzkosten unserer Inhalte beachtet, dürft ihr sie nutzen”?

            Das läßt sich mit der Kombination aus aktuellem Standard und ACAP sehr einfach ausdrücken.

               
             
             
        • @ Meisterlein: Warum hat Google soeben eine einvernehmliche Lösung mit den belgischen Verlegern gefunden und alle Gerichtskosten in Millionenhöhe übernommen, wenn Google angeblich prinzipiell nicht an einer einvernehmlichen Lösung interessiert ist?

           
           
      • O. Rogge

        Schauen Sie, Herr Keese, wie gemeinschaftlich kann eine Lösungsfindung sein, wenn die eine Seite des Tisches sobald sie sich der Aufmerksamkeit Dritter gewahr wird “Taliban!”…”Hehlerbande!”…”Ihr Erzkapitalisten!” zu seinen Verhandlungspartnern hinüber ruft? Unkonstruktiver Weise haben Sie den Verhandlungstisch dann auch noch im Berliner Reichstag aufgestellt.

        Suchmaschinen haben sich in der Netzökonomie als Zugangsvermittler etabliert. Das ist eine Leistung, die sie zum Glück für uns alle kostenlos erbringen. Was nicht selbstverständlich ist, denn Recherchedienste waren und sind oft kostenpflichtig. Dank Hyperlink-Architektur und Suchalgorithmen (die Basis des heutigen Netzes), bekommt heute jeder die Möglichkeit, sich nach Bedarf Quellen-Verweise zu einem von ihm gesuchten Themenkomplex zusammenstellen zu lassen. Auch Journalisten nutzen diesen kostenlosen Recherche-Service häufig und gerne.

        Anders, als von Ihnen gerne behauptet, kopieren diese Service-Anbieter Inhalte nicht einfach, sondern verweisen rechtskonform auf die Original-Quelle. Was den Inhalte-Anbietern ermöglicht, ein eigenes Geschäftsmodell auf Basis ihrer jeweiligen Leistung zu etablieren. “Inhalte-Anbieter” ist hierbei jeder, der eine Webseite ins Netz stellt. Das kann ein Händler von Waren, ein Dienstleister, ein Journalist oder auch ein Verlag sein.

        Damit diese Leistung kostenlos sein und bleiben kann, benötigen auch die Zugangsvermittler ein Geschäftsmodell. Google hat hierfür ein Werbenetzwerk etabliert, das Inhalte-Anbietern ermöglicht, über definierte Werbeplätze noch mehr Nutzer der Suchmaschine auf das eigene Angebot zu lenken. Und seien wir ehrlich genau an diesen Fleischtopf wollen sie ran!

        Es geht nicht um die Zukunft des Qualitätsjournalismus, es geht einzig darum, die durch Änderung des Nutzungsverhaltens von Papierzeitungen wegrechenden Umsätze im Abonnement-Bereich und durch Online-Werbung erodierende Anzeigenpreise aufzufangen.

        Sie wollen an die Werbeumsätze von Google und wissen dabei ganz genau, dass sie viel zu wenig Gewicht in die Waagschale werfen können, denn die großen Werbeumsätze macht Google nicht mit Schlagzeilen wie “Merkel trifft Hollande” oder “Westerwelle besucht Israel”, sondern mit Suchen nach “Augenkorrektur Lasik” oder “Lebensversicherung Altersvorsorge”.

        Und weil Ihnen die aktuellen Marktgegebenheiten keinen Verhandlungsspielraum geben, schicken Sie sich an, den Markt nach Ihren Wünschen um zu definieren. Das Leistungsschutzrecht soll für Sie richten, was Sie selbst im freien Markt nicht durchsetzen können.

        Selbst wenn das Leistungsschutzrecht umgesetzt wird, bleibt offen, ob es wirklich die von Ihnen behauptete Wirkung zeigt. Vielleicht verbessern Sie minimal Ihre Verhandlungsposition als Großverlag. Gleichzeitig werden Sie einen beträchtlichen Flurschaden für die kleineren Marktteilnehmer auf beiden Seiten zu verantworten haben.

        Wenn Sie konstruktiv agieren wollen, haben sie ausreichend Gelegenheit, sich in Gremien und Konsortien zu beteiligen, die sich mit der Auszeichnung und Distribution von digitalen Inhalten befassen, und dort Ihre Vorstellungen einzubringen. Ich gehe aber davon aus, dass die Diskussion um die Auszeichnung nur eine Nebelkerze ist.

        Sie sind in einer schlechten Position, um zu suggerieren, es ginge Ihnen um eine gemeinsame Lösung. Alle Ihre Handlungen und Aussagen sprechen eine andere Sprache.

        Am Ende bleibt:
        Ein Preisschild an Ihren Texten bedeutet nicht, dass dieser Preis auch vom Markt angenommen wird. Um das zu testen, bedarf es jedoch keines eigens dafür geschaffenen Gesetztes.

         
         
        • @ O. Rogge: Danke für Ihren sachlichen Beitrag. Das weiß ich zu schätzen.
          Zum Preisschild-Argument: Wir schlagen nicht vor, dass Verlage einen Preis setzen, den der Markt zu akzeptieren hat. Ich habe im Gegenteil einen dynamischen Mechanismus beschrieben, in dem Angebot und Nachfrage schnell zu einem markträumenden Preis konvergieren. Daher verstehe ich Ihren Einwand nicht.
          Gremien und Konsortien: Genau das tun wir. Man kann aber nicht sagen, dass sich Aggregatoren in diesen Gremien hervor getan hätten mit konstruktiven Vorschlägen, wie man Urheber-Informationen, Preise und Konditionen übermitteln kann.
          Kleine Marktteilnehmer auf beiden Seiten: Wen meinen Sie? Wem wird da geschadet? Bitte Beispiele nennen. Mir ist niemand bekannt.
          Googles Geld: Wie jemand den Inhalt, den er bei Verlagen einkauft, monetarisiert, ist seine Sache. Er muss ihn ja nicht einkaufen. Nicht fair ist aber das Argument: “Aggregatoren sollen Content kostenlos bekommen, weil sie ihn sowieso nicht vermarkten können.” Viel fairer ist folgender Einsatz: “Wer ein Aggregationsprodukt aufbaut, trägt das wirtschaftliche Risiko selbst und wälzt es nicht auf seinen Lieferanten ab. Er entscheidet, wieviel und zu welchem Preis er einkauft, bemüht sich vorab um ordentliche Lizenzen und versucht dann, sein Aggregationsprodukt profitabel zu machen.” Wenn es sich auf Dauer nicht lohnt, kann er es jederzeit einstellen.

           
           
          • O. Rogge

            Lieber Herr Keese, nichts zu danken, Sie sind mir da ein Vorbild, an dem ich mich gerne orientiere.

            Preisschild & ‘dynamischer’ Mechanismus

            Sie schreiben “Ich habe im Gegenteil einen dynamischen Mechanismus beschrieben, in dem Angebot und Nachfrage schnell zu einem markträumenden Preis konvergieren.”

            ‘Markträumend’ (ein sehr treffender Euphemismus) wäre dieser Preis bestimmt, denn die Preisfindung fände einzig zwischen den Markt beherrschenden Unternehmen statt. Es wäre ein künstlich geschaffener Markt Weniger, der viele Teilnehmer per se ausschlösse. Das klingt bei Ihnen natürlich viel schöner, wenn “viele Inhalte-Anbieter” die Chance bekämen “Geld zu verlangen”, wenn sie dies wünschen und sich für stark genug halten”. De facto ist es keine Frage des Wünschens, sondern einzig eine der Marktmacht. Genauso verhält es sich bei den Suchmaschinen/Aggregatoren, auch hier ist es keine Sache des Überlegens, sondern eine des sich leisten Könnens.

            Eine folgenschwere Fehleinschätzung? Oder doch System?

            Sie fragen, ob eine solche Lösung realistisch wäre und arbeiten sich dann lakonisch an Ihnen gelegenen Gegenargumenten eines Lesers ab, die gut in Ihr bisheriges Argumentationsmuster bzgl. Google passen. Das lenkt einen Moment ab, aber reichen Sie uns doch bitte ein paar belastbare Argumente für Ihr Modell nach. Wenn es geht ohne “Wünsche” und “Überlegungen” und ganz konkret für unterschiedliche Marktteilnehmer. Sie schieben mit der Initiative Leistungsschutzrecht ein Gesetz für den ganzen Markt an, zeigen Sie uns, dass auch Ihr skizziertes Preisfindungs- und Abrechnungsmodell diesem Anspruch standhält.

            Googles Marktanteil liegt bei ca. 96% in Deutschland. Ausgehend von der aktuellen Situation, wird Ihr vorgeschlagener Mechanismus im Markt für digitale, journalistische Inhalte zu nichts anderem führen, als zur Verschärfung eben dieser Marktsituation.

            Kleine Marktteilnehmer auf beiden Seiten

            Kleine Inhalte-Anbieter können es sich nicht leisten, bei Google nicht gelistet zu sein. Sie brauchen die Reichweite und Ihre Budgets sind zu klein, um diese anderweitig (bspw. Offline) aufzubauen. Ihr Preis gegenüber Suchmaschinen/Aggregatoren wird, auch bei hochwertigem Content, Null bleiben.

            Kleine Suchmaschinen/Aggregatoren werden Nischen-Angebote bleiben, denn Ihnen fehlt es an Budget, um alle relevanten Großverlage kostenpflichtig in Ihren Index aufzunehmen.

            Insgesamt erhöht das Modell die Marktbarrieren für kleine Innovatoren. Um relevante, also auch mit Inhalten von Mainstream-Medien bestückte, SuMa/Aggregatoren-Angebote im Markt zu etablieren, benötigt es noch einmal mehr Kapital. Der Mangel an Alternativen zu Google, schwächt dabei gleichzeitig die bereits schlechte Position der kleinen Inhaltsanbieter, wenn es um eine Vergütung des eigenen Listings geht. Im Ergebnis wird es noch einmal Kapital intensiver, einen Player von relevanter Größe zu etablieren, um überhaupt eine Verhandlungsposition in dem von Ihnen erdachten Markt einnehmen zu können. Wer mitspielen will, muss mit deutlichem Kapital-Einsatz “gelevelt” werden.

            Nutzen tut dies – zunächst einmal – vordergründig den großen Marktteilnehmern auf beiden Seiten. Es hält offensichtlich die Konkurrenz fern. Aber auch für Google ist dieses Modell gefährlich.

            Googles Geld

            Sie schreiben “Wie jemand den Inhalt, den er bei Verlagen einkauft, monetarisiert, ist seine Sache. Er muss ihn ja nicht einkaufen.”

            Anders, als Sie es öffentlich stets geschickt und irreführend suggerieren, ist Google kein Inhalte-Anbieter, sondern ein Zugangsvermittler. Seine Markt beherrschende Stellung ist jedoch gerade noch so akzeptiert, solange es alles(!), also jede Art von Inhalt, in seinem Index abbildet und jeder aufgenommen werden kann, sofern er will. Man muss hier die Analogie der verpflichtenden Grundversorgung bemühen. Kommt es zwischen Google und den Großverlagen zu keiner Einigung bezüglich einer Lizensierung, kann Google eine Zugangsgrundversorgung nicht mehr gewährleisten. An dieser Stelle kippt Ihre “Marktwirtschaft in Reinform” vollends. Wieso ausgerechnet Sie einem erzkapitalistischen Unternehmen freiwillig ein solches anbieten sollten, stand ja eh in Frage. Das Leistungsschutzrecht wird zum letzten Hebel, den es braucht, um Ihren konstruierten Scheinmarkt in ein System der Zwangslizensierung von Inhalten aus Großverlagen mutieren zu lassen. Von Ihrem “dynamischen Mechanismus” bleibt am Ende nichts über.

            Und genau deswegen steht in Ihrer Maschinen-lesbaren Rechtesprache an dieser Stelle ein fixer “Preis für [die/den] gewerbliche/n Kopie/Aggregation/Teaser” – Q.E.D

               
             
             
          • @ O. Rogge:

            Markträumender Preis: Verstehe Ihr Argument noch nicht einmal im Ansatz. Angebot und Nachfrage begegnen sich und es bildet sich ein markträumender Preis. Gehindert wird dieser Prozess vielleicht durch Oligopole oder Monopole, aber ansonsten kann man gegen dieses Leitbild nun wirklich nichts einwenden.

            Verschärfung der Situation: Wieso das denn? Wie soll es auf elektronischen Plattformen, auf denen sich jeder Anbieter mit Rechten versorgen kann, nicht zu lebendigem Wettbewerb kommen? Leuchtet überhaupt nicht ein.

            Kleine Inhalte-Anbieter: Die müssen sich doch nicht entscheiden zwischen Google-Liste und Markierung ihrer Rechte. Sie konstruieren einen Scheinwiderspruch.

            Kleine Aggregatoren: Im Gegenteil – ein lebendiger Marktplatz wird sie stärken.

            Marktbarrieren: Wieso benötigt man mehr Kapital? Überhaupt nicht einsichtig. Im Gegenteil: Lebendiger Markt macht es so einfach wie nie, Rechte zu klären und daraus interessante Produkte zu bauen. “Markträumender Preis” heißt nicht Monopolpreis, sondern Preis, bei dem beide Marktseiten sich begegnen.

            Google als Inhalte-Anbieter: Habe ich nie behauptet! Wo steht das? Google aggregiert Inhalte. Darum geht es.

            Ganz ehrlich: Es ist wahnsinnig anstrengend, hier zu diskutieren. Macht wirklich keinen Spaß. Immer wieder die gleichen Fragen, immer wieder die selben bewussten Missverständnis, immer wieder die stolz zur Schau getragene völlige Unkenntnis der Verlagswirtschaft. Ich lege jetzt mal eine kleine Antwortpause ein. Auf den nächsten sachkundigen Leserkommentar antworte ich dann gern wieder.

               
             
             
  31. Tolomir Bredak

    Hallo Herr Keese,

    schön das Sie zu dem Punkt Stellung beziehen. Ich kann Ihnen aber gleich sagen warum das nicht funktionieren kann.

    Der Grund ist Geschwindigkeit. Wenn für jeden Newsartikel zunächst 25 Kriterien geprüft werden müssen ob eine Veröffentlichung im jeweiligen Kontext tragbar ist, würde die weltweite Suchindexierung vollkommen zusammenbrechen. Außer die NSA gibt Google endlich ein paar Quantencomputer ;-)

    Die robots.txt ermöglicht einem Webcrwaler einfach alles zu indexieren was erlaubt ist und zu ignorieren,
    was nicht indexiert werden soll. Das geschieht schnell und ermöglicht überhaupt erst tagesaktuelle Suchergebnisse.

    Ihre Idee mit der Aushandlung von detailierten Nutzungsrechten sehe ich durchaus in einer Fachdatenbank, da ist aber Zeit nicht kritisch, bzw. die Datenmenge begrenzt. Sowas hat z.B. das ZDF zur Verwaltung der kompletten Nutzunsrechten von Filmmaterial im Einsatz.

    Auch wenn ich Ihre Probleme mit der Umsetzung verstehe, Sie unterschätzen einfach die tägliche Menge an Informationen die im Internet bereitgestellt werden, das ist ja nicht nur der Springer-Verlag. Es ist für mich offensichtlich, dass sobald ein Pressehaus damit durchkommt, weltweit versucht wird, die komplexen Indexierungskriterien von den Suchmaschinen-Betreibern einzufordern.

    Google etc. würden dann, da das Webcrawling so nicht mehr in beinah-Echtzeit erfolgen kann, mit dem Indexieren der entsprechenden Pressehäuser aufhören, bzw. als vergiftetes Geschenk mit deutlicher Verspätung z.B. eine Woche später in den Suchindex aufnehmen.

    Nein, da muss etwas anderes probiert werden.

     
     
    • Danke für Ihre Anmerkungen. Das war dann aber schnelle technische Prüfung. Real Time Bidding bei Anzeigen kann in Sekundenbruchteilen ablaufen, Preisbildung bei AdWords und das Routing von Datenpaketen, nicht aber die Berücksichtigung von ein paar Datenbankfeldern? Das klingt nicht plausibel. Crawlen kann weiterhin stattfinden. Man crawlt die Rechte-Informatoonen einfach mit. Anzeigen tut man am
      Ende das, was durch den entsprechenden Filter hindurch geht. Das ist sicher machbar, wenn man es will.

       
       
      • skomp

        Das mag in ihren Vorstellungen vielleicht möglich sein einfach mal “hier oder da ein Datenbankfeld” anzulegen, zu lesen oder eben einfach mal ein paar mehr “Felder zu crawlen”, ist aber eine absolut realitätsfremde Behauptung. Bevor ich da weiter drauf eingehe, möchte ich erstmal eins sagen: die robots.txt wird nicht in dem Sinne “gecrawlt” sondern geparsed und interpretiert. So, nun zum technischen. Nehmen wir mal an, die Daten würden so, wie Sie das vorgeschlagen haben, ausgewertet, dann bedeutet das ca. folgendes: der Crawler muss mit einem mal vermutlich mindestens die doppelte Menge an Daten parsen und interpretieren. Da die Interpretation hier etwas komplexer ist, da ja auch eine Prüfung der Rechte vorgenommen werden soll, wird dies auch mehr Rechenleistung in Anspruch nehmen. Des Weiteren müssen die zusätzlichen Daten in zusätzlichen Datenbankfeldern abgespeichert werden. Das Verfahren verlangt also eine deutliche Erhöhung der Ressourcen bei den Betreibern der Aggregatoren, von Strom und Kühlungskosten mal ganz zu schweigen. Im Prinzip ist das alles machbar und möglich, die Frage, die ich mir stelle ist allerdings: Sollten die Verlage dann nicht umgekehrt, wo sie doch dann Google und Co. effektiv zu gezwungenen Vertriebspartnern gemacht haben, Gebühren zahlen für den Service? Irgendwer muss die Ressourcen ja bezahlen…

         
         
    •  
  32. Vielen Dank für diesen weihnachtlichen Wunschzettel. Es steht Ihnen frei, Ihre Vorschläge der internationalen Gemeinschaft der Internetnutzer vorzuschlagen – denn die sollen sich ja daran halten.

    Ansonsten ist und bleibt Ihr Vorschlag ein frommer Wunsch – und davon gibt es im Internet jede Menge. Ich z.B. würde mir wünschen, dass RFC 1651 um verschiedene Aspekte erweitert wird. Andere wünschen sich einen universellen und dezentralen Authentifikationsmechanismus, standartisierte Zahlungsmechanismen und so weiter.

    Das Internet lebt, entwickelt und ändert sich. Gut möglich, dass in der Zukunft auch Ihre Vorschläge Gehör finden. Bis dahin müssen Sie sich wohl auf die robots.txt und das Know-How Ihrer Techniker verlassen.

    Und, wie schon mehrfach erwähnt, reicht das durchaus, um Ihre Ansprüche vorerst befriedigen zu können.

    Liebe Grüsse

    mm.

     
     
    •  
      • Hopfentramp

        Aber, aber, kleinmütig ist das LSR. Kleinmütig und rückwärtsgewandt – quasi eine Rückkehr zur Kleinstaaterei.

        Es gibt ja schon viele Vergleiche, manche mehr, manche weniger hinkend. Aber auch der Taxifahrer, der für den Transport der Restaurantgästen zahlen soll, ist wohl noch nicht überzeugend genug. Deshalb hier noch ein Versuch: unter vielen Regelungen der Neuzeit, die sich scheinbar doch bewährt haben (weil es sie noch gibt) möchte ich hier die Ponoramafreiheit und die Ausnahme vom ‘Recht am eigenen Bild’ (für Personen des öffentlichen Interesses) herausgreifen. Immerhin profitieren auch hier die Verlage durch diese Regelungen.

        Die Panoramafreiheit befreit mich von der Pflicht, bei jedem Bild in einer Stadt jeden Besitzer eines Gebäudes, das darauf zu sehen ist um Erlaubnis zu fragen. Bilder von Personen des öffentlichen Interesses müssen es hinnehmen, dass Fotografien von ihnen (entgeltfrei) erscheinen. Es ist wohl zum Vorteil einiger Zeitungen und Zeitschriften, dass sie das Bild einer bekannten Schauspielerin beim Strandbaden einfach so veröffentlichen können (Honorar nur für den Fotografen). Ebenso, wenn die Schaupielerin vor einer erkennbaren Häuserfassade steht (Panoramafreiheit).
        Das funktioniert bisher ganz gut – Ausnahmen gibt es auch hier – die Presseverlage sind aber ganz mit vorn dabei, wenn es diese Freiheiten zu verteidigen gibt.

        Wenn jetzt aber die Verlage mit der Argumentation durchkommen: “Hey, die verdienen gutes Geld damit und wir nicht, obwohl wir auch Beteiligte sind!” – dann ist doch zu erwarten, dass auch andere diese verquere Logik nachvollziehen wollen. Warum sollte ich, wenn ich ein bekannter Schauspieler oder Politiker bin, es hinnehmen, dass ein Verlag dicke Kasse mit Bildern von mir macht? Wenn ein Bild von MEINEM Haus zufällig in der Zeitung erscheint, warum sollte ich dafür keine Rechnung an den Zeitungsverlag schicken?

        Die gängige Gegenargumentation ist m. W., dass es ja ein Geschäft auf Gegenseitigkeit ist: der Prominente profitiert ja auch davon, er wird quasi noch prominenter (andere vielleicht endlich wieder prominent). Aber sorry, dass ist doch bei LSR/Internet/Google genauso. Die Schauspielerin hat es doch so gewollt, hat die Öffentlichkeit bewusst gesucht und plötzlich zickt sie rum? Da haben es die Verlage doch wirklich einfacher, im RL gibt es keine robots.txt. Gäbe es sie, die BILD-Zeitung würde auch sie einfach ignorieren…

        Und genau so wird es kommen. Es ist nur die Frage, ob man genug Lobbykraft hat, um ein Leistungsschutzrecht für Prominente durchzudrücken. Für die Panoramafreiheit wird es keine Lobby geben, zum Glück, auch wenn ich keine Rechnung für Bilder meines Hauses stellen kann.

        Aber genau das ist für mich das LSR: ein Angriff auf die ‘Panoramafreiheit’ des Internets. Alle (oder fast alle – Ausnahme z. B. öffentlicher Rundfunk und Fernehen) im Internet haben bisher die Netiquette respektiert, auf Tod und Teufel die Webseiten optimiert um bei Suchmaschinen ein bisschen weiter vorne zu landen. Aber auf die Idee, die Suchmaschinen auch dann noch dafür bezahlen lassen zu wollen, dass man seine Inhalte über die Suchmaschinen findet, sind bisher nur wenige gekommen, die auch immer bisher gescheitert sind. Warum auch? Wenn ich was im Internet veröffentliche, weiß ich, auf was ich mich einlasse. Wenn ich ins Schwimmbecken springe, beschwere ich mich auch nicht, das ich nass werde. Wenn ich in den USA Urlaub mache, werde ich Alkohol nicht öffentlich trinken. In muslimischen Ländern werde ich mich auch anders verhalten als zu Hause.

        Die Verlage haben das Internet nicht erfunden und bisher auch wenig zur Weiterentwicklung beigetragen. Genutzt habt ihr es gerne. Jetzt wollt ihr es wieder zum ‘Bildschirmtext’ machen. Jeder Seitenabruf 10 Cent in die Kasse? Hätte ich auch gerne. Aber jetzt weiß ich auch wieder, warum BTX gescheitert ist. Internet ist halt irgend wie anders.

         
         
        • @ Hopfentramp: Ein Angriff auf die “Panoramafreiheit” des Netzes? Mit Verlaub: Wir Verlage haben diese Produkte finanziert, hergestellt und verbreitet. Sie sind unser Eigentum, auch wenn wir leider noch kein eigenes Recht daran haben. Was mit unserem Eigentum geschieht, möchten wir bitte selbst bestimmen. Und wir möchten vorher gefragt werden, bevor man sich einfach bei uns bedient. Warum fordern Sie keine “Panoramafreiheit” des Automobilmarktes und verlangen das Recht, kostenlos mit dem A6 bei Audi zur Tür hinaus fahren zu können? Lassen Sie mich raten: Weil bei Verlagen ja angeblich nichts wegkommt, wenn man es kopiert – richtig?

           
           
          • Hopfentramp

            Nein. Mit Verlaub, Herr Keese, langsam glaube ich, Sie wollen die Gegenargumente nicht verstehen, weil Sie diese eben nicht verstehen wollen. Panoramafreiheit habe ich doch hoffentlich so dargestellt als Beispiel einer Regelung des Gesetzgebers, indem unsinnige Klein-Klein-Differenzen eindeutig und zum Vorteile der Gesellschaft eindeutig geregelt werden. Bei denen auch objektiv der ‘Betroffene’ nicht wirklich viel verliert. Ponoramafreiheit heißt doch auch nicht, dass jeder mein Haus betreten und mitbewohnen kann, oder? Niemand hat verlangt, dass man sich kostenlos irgendein Auto aneignen kann. Aber dass jemand mein Auto fotografiert, kann ich m. W. nicht verhindern. Eigentum verpflichtet übrigens auch nach unserem Grundgesetz. Und ein ‘unbeschränktes’ Eigentum an den Presseprodukten hatten die Presse auch noch nie. Oder hat schon ein Verlag dagegen geklagt, dass er in einer Diplom- oder Doktorarbeit zitiert wurde? Dass eine Zeitung die andere ‘zitiert’? Ein Google-Snippet ist doch noch viel weniger als ein Zitat. Und das müssten Sie noch nicht mal dulden.

            Kurz gesagt: niemand will ihr Eigentum antasten. Wer sich durch Suchmaschinen beraubt fühlt, ändert die die robots.txt entsprechend. Und widerruft seine Anmeldung bei Google News.

               
             
             
          • @ Hopfentramp: Ein Auto zu fotografieren ist aber etwas anderes als einen Artikel zu kopieren. Das Foto eines Autos kann man als Fahrzeug nicht nutzen. Doch die Kopien von Artikeln werden beispielsweise von Meltwater und Moreover weiterverkauft wie die Originale auf Verlagswebseiten. Es muss doch einleuchten, dass wir nicht tolerieren können, dass solche Aggregatoren durch das Land ziehen und unsere Arbeit weiterverkaufen, ohne uns etwas von den Erlösen abzugeben. Können wir uns darüber einig werden?

            Snippets sind weder Zitate noch viel weniger als Zitate. Mit Zitaten haben sie nichts zu tun. Zitat ist ein Auszug, der in ein eigenes Werk eingebettet wird. Eine von Maschinen generierte Übersicht ist kein Werk im Sinne des Urheberrechtsgesetzes.

               
             
             
          • @Keese:

            Ein Auto zu fotografieren ist aber etwas anderes als einen Artikel zu kopieren. Das Foto eines Autos kann man als Fahrzeug nicht nutzen. Doch die Kopien von Artikeln werden beispielsweise von Meltwater und Moreover weiterverkauft wie die Originale auf Verlagswebseiten.

            Das Kopieren ganzer Artikel ohne Genehmigung kann wohl kaum ein funktionierendes Geschäftsmodell sein, denn da würde das Urheberrecht greifen und die Anbieter würden in Grund und Boden geklagt.

            Es muss doch einleuchten, dass wir nicht tolerieren können, dass solche Aggregatoren durch das Land ziehen und unsere Arbeit weiterverkaufen, ohne uns etwas von den Erlösen abzugeben. Können wir uns darüber einig werden?

            Und genau das müssen Sie auch nicht. Sie können das nicht tolerieren? Prima, wie Sie selbst im Artikel schreiben, gibt es dafür einen An-Aus-Schalter. Aber der wird nicht benutzt. Warum nicht? Weil die Verlage nämlich, anders als Sie hier zu suggerieren versuchen, sehr wohl von den Aggregatoren profitieren, z.B. weil diese – wie das von Ihnen erwähnte Moreover – sogar Buttons für das Veröffentlichen der Links zu den tatsächlichen Artikeln bereitstellen.

               
             
             

Hinterlasse eine Antwort

Bitte füllen Sie die mit einem Stern markierten Felder aus.

*


9 × 6 =

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>