Keine Lügen für das Leistungsschutzrecht



Stefan Niggemeier erhebt in seinem Blogbeitrag Lügen fürs Leistungsschutzrecht den Vorwurf, ich hätte hinsichtlich der Google-Funktion „No snippet“ entweder kein Ahnung oder würde vorsätzlich die Unwahrheit sagen. Hier meine Antwort:

Fundstelle der inkriminierten Zitate

Als Beleg führt Niggemeier Zitate an, die aus einer Diskussion mit Kommentatoren unter meinem Blogpost „Das kurze Gedächtnis der SPD in Sachen Leistungsschutzrecht“ stammen. Ich antworte darin Brigitte Zypries. Sie hatte 667 Zeichen geschrieben, ich habe ihr mit 4.611 Zeichen geantwortet.

Obwohl die Antwort vergleichsweise lang ausgefallen ist, kann sie nicht jeden Aspekte abschließend behandelt. Das ist auch nicht die Aufgabe von Kommentaren, dafür sind Artikel da. Niggemeier zitiert nur aus dieser einen Antwort. Alles andere, was ich zum Thema Snippets geschrieben habe, lässt er außer Acht. Der Eindruck, den Niggemeier damit hervorrufen will, beruht also auf einer Verkürzung der Quellenlage.

Inhalt der inkriminierten Zitate

Das wichtigste Zitat, das Niggemeier anführt, lautet:

Sehr gern würden die Verlage auf eine Möglichkeit zurückgreifen, von Suchmaschinen und Aggregatoren nur indexiert und vielleicht mit einer Überschrift zitiert zu werden. Doch genau diese Differenzierungsmöglichkeit bietet Google wie die allermeisten anderen Aggregatoren nicht an. Ganz bewusst unterscheiden sie nicht zwischen dem Recht auf Indexierung und dem Recht der Nutzung von Inhalten. Sie interpretieren die Erlaubnis zum Indexieren als Erlaubnis zum Kopieren.

Natürlich kann man das ausführlicher formulieren. Aber ich kann nicht in jeder Antwort auf jeden Kommentar alle Fakten zu den jeweiligen Aspekten anführen. Kein Blogger kann das.

Der Vorwurf der Unwissenheit und der Lüge

Trotzdem hatte ich mich an mehreren Stellen in meinem Blog lange vor der Antwort auf Brigitte Zypries zu dem Themenkomplex geäußert.

Beispielsweise habe ich am 5. März 2012 ebenfalls in einer Antwort zu einem Kommentar geschrieben:

Robots.txt ist in seiner heutigen Form nicht die Antwort. Wo kann man bei Robots.txt maschinenlesbare Informationen übermitteln wie: “Dieser Text gehört XYZ. Er darf nicht unter der Bedingung A genutzt werden und nur gegen das Honorar B?”. Google hat über Jahre immer verhindert, dass robots.txt um solche sinnvollen Informationen ergänzt wird. Daraufhin haben Verlage auf der ganzen Welt gemeinsam einen eigenen Standard namens ACAP entwickelt. Den wollte Google aber nicht auslesen bzw. akzeptieren. Nach jahrelangen Verhandlungen sitzen wir heute alle noch immer auf robots.txt – einem Standard aus der Internet-Steinzeit. Selbst das supereinfache Creative Commons ist vielschichtig gegen dieses simplizistische Robots.txt. Das Ding funktioniert wie eine Lichtschalter: An, Aus – mehr geht nicht. Für eine moderne Internet-Welt reicht das vorn und hinten nicht mehr.

Am 23. August 2011 schrieb ich:

Die Abwesenheit einer Zahlschranke begründet nicht das Recht, gewerbliiche Kopien ohne Genehmigung anzufertigen. Ob die Freigabe der Indexierbarkeit für Suchmaschinen gleichzeitig bedeutet, dass beliebig auf den Inhalt zugegriffen werden darf, ist hoch umstritten. Die Verlage treten dafür ein, dass differenzierte Mechanismen eingerichtet werden, die zwischen unterschiedlichen Nutzungsformen (Indexierung, Kopie, Snippet) etc unterscheiden. Google hat es bisher abgelehnt, solche Mechanismen (beispielsweise ACAP) zu unterstützen.

In einem Interview mit Promedia habe ich im November 2009 gesagt:

Seit geraumer Zeit laufen Diskussionen über die elektronische Kennzeichnung der Rechte. Ohne einen technischen Standard der Rechtekennzeichnung wird es schwer möglich sein, geistiges Eigentum im Netz wirksam zu schützen. Ein solcher Standard existierte lange nicht. Über die Entwicklung wurden zwischen Google und Weltzeitungsverband WAN jahrelang weitgehend ergebnislos verhandelt. Daraufhin haben sich die Verlage vor einigen Jahren entschlossen, ein eigenes Verfahren namens ACAP (Automated Content Access Protokoll) zu entwickeln und zu etablieren. Dieses Protokoll liefert wichtige Copyright-Informationen maschinenlesbar aus. Google erkennt ACAP jedoch nicht an und nutzt es nicht. (…) Das läuft im Endeffekt auf einen simplen An-Aus-Schalter hinaus, mit dem man die Suche durch Google erlauben oder verbieten kann. Genau das gibt es: einen Knopf fast so simpel wie ein Lichtschalter. Bei allem Verständnis für die gebotene Einfachheit von Technik, muss man doch festhalten, dass ein solch schlichtes Verfahren die Bedürfnisse einer hoch entwickelten Informationsgesellschaft nicht zu Genüge erfüllen kann. Das Wissen der Welt wird sich auf Dauer nicht mit einem Lichtschalter verwalten lassen.

Ich habe der Verhandlungskommission des Weltzeitungsverbands WAN-IFRA (damals noch WAN) angehört, der mit Google über ACAP und das Snippet-Problem verhandelt hat, und ich war für den Verband in dieser Sache bei Google in Mountainview.

Außerdem bin ich Chairman des Project Board der internationalen, alle Mediengattungen umfassenden Linked Content Coalition, die sich mit nichts anderem beschäftigt als der maschinenlesbaren Übermittlung von Copyright-Informationen und Nutzungsbedingungen, folglich mit der Lösung des „No Snippet“-Problems. In der Pressemitteilung zum Start der Linked Content Coalition hieß es:

The Chairman of the LCC Project Board, Christoph Keese, President of Public Affairs at Axel Springer AG said, “Copyright is the cornerstone of the creative sector; the future success of businesses which invest in quality content the world over depend on it working for us online just as it has always worked for publishing books, newspapers, TV channels, films and music. As the internet and mobile platforms operate increasingly in a “machine to machine” environment, driven by data, the management of copyright must not be left behind”.

Stefan Niggemeiers Behauptung, ich würde von dem Thema nichts verstehen und absichtlich lügen, ist völlig haltlos. Ich würde mir im Gegenteil wünschen, nicht soviel Zeit auf dieses Thema verwendet haben zu müssen. Aber es geht leider nicht anders, da es sich um ein zentrales und wichtiges Element der digitalen Zukunft von Verlagen handelt.

Jetzt ein umfassender Beitrag zu dem Thema

Allerdings habe ich zum „No Snippet“-Thema tatsächlich noch nie einen umfassenden eigenen Beitrag in diesem Blog geschrieben. Ich nutze die Gelegenheit, um das Problem jetzt samt der Lösung zu schildern, welche die Verlage vorschlagen.

Das Lichtschalter-Prinzip

Suchmaschinen arbeiten heute nach dem Lichtschalter-Prinzip. Der Standard Robots.txt beschreibt Geschichte und Idee dieses Modells auf seiner Seite so:

There are two important considerations when using the robots tag:

robots can ignore your tag. Especially malware robots that scan the web for security vulnerabilities, and email address harvesters used by spammers will pay no attention.
the NOFOLLOW directive only applies to links on this page. It’s entirely likely that a robot might find the same links on some other page without a NOFOLLOW (perhaps on some other site), and so still arrives at your undesired page.
Don’t confuse this NOFOLLOW with the rel=”nofollow” link attribute.

The details

Like the /robots.txt, the robots META tag is a de-facto standard. It originated from a “birds of a feather” meeting at a 1996 distributed indexing workshop, and was described in meeting notes.

The META tag is also described in the HTML 4.01 specification, Appendix B.4.1.

The rest of this page gives an overview of how to use the robots tags in your pages, with some simple recipes. To learn more see also the FAQ.

How to write a Robots Meta Tag

Where to put it

Like any tag it should be placed in the HEAD section of an HTML page, as in the example above. You should put it in every page on your site, because a robot can encounter a deep link to any page on your site.

What to put into it

The “NAME” attribute must be “ROBOTS”.

Valid values for the “CONTENT” attribute are: “INDEX”, “NOINDEX”, “FOLLOW”, “NOFOLLOW”. Multiple comma-separated values are allowed, but obviously only some combinations make sense. If there is no robots tag, the default is “INDEX,FOLLOW”, so there’s no need to spell that out. That leaves:

Man sieht, dass es sich stets um binäre Entscheidungen nach dem Lichtschalter-Prinzip handelt, die der Betreiber einer Webseite zu treffen hat. Im Übrigens stammt die Technologie aus der Frühzeit des World Wide Web.

Googles Erweiterung um No Snippet

Google hat die Lichtschalter-Konzeption der Funktionen „Index“ und „Follow“ auf Snippets übertragen und bietet das Ausschalten von Textauszügen an. Bei den Webmaster Tools steht folgende Beschreibung:

Removing snippets and Instant Preview
A snippet is a text excerpt that appears below a page’s title in our search results and describes the content of the page. Instant Previews are page snapshots that allow users to get a glimpse of the layout of the web pages behind each search result, in order to select the best result(s).

Snippets and Instant Preview are extremely useful to users and can help them decide whether or not to click on your site in the search results. You can, however, specify that Google should not show a snippet (in which case neither the text snippet nor the preview icon will appear).

To prevent Google from displaying snippets and Instant Preview for your page, place this tag in the HEAD section of your page:

(Eine gute Übersicht über alle wichtigen Googlebot-Befehle hat Pingable so aufbereitet:)

Was der No Snippet-Befehl nicht enthält

Nach dem Lichtschalter-Prinzip können Webseiten-Betreiber nur entscheiden, ob Textauszüge (Snippets) und Vorschauen (Instant Previews) bei Google erscheinen oder nicht. Weitergehende Informationen aber können sie nicht mitteilen. Zum Beispiel:

  1. Länge der genehmigten Auszüge
  2. Unterscheidung zwischen Snippets und Previews
  3. Inhaber der Rechte
  4. Bedingungen der Nutzung
  5. Preis der Nutzung
  6. Erlaubnis oder Verbot der Weiternutzung durch Dritte

Da diese Differenzierungen nicht möglich sind, stehen Webseiten-Betreiber vor der Auswahl zwischen zwei sich gegenseitig ausschließenden Optionen:

  1. Freigabe aller Textauszüge und Voransichten in beliebiger Länge kostenlos ohne Verweis auf den Rechteinhaber, frei zur beliebigen Weiternutzung durch Dritte
  2. Sperrung aller Textauszüge und Voransichten

Für Webseiten-Betreiber ist keine der beiden Optionen wirklich attraktiv. Nummer 1 hat noch den Vorteil, dass sie die Sichtbarkeit im Netz erhöht. Deswegen entscheiden sich die meisten für Option 1. In Wahrheit aber bilden die beiden Optionen die Wünsche und Bedürfnisse der Webseiten-Betreiber in keiner Weise ab. Sie würden sich differenziertere Gestaltungsmöglichkeiten wünschen, die mehr dem Web des 21. Jahrhunderts entsprechen und weniger dem Lichtschalter-Prinzip aus den 90er Jahren verhaftet bleiben.

Selbst Creative Commons bietet mehr Auswahl

Das heute geltende Suchmaschinen-Lichtschalter-Modell fällt selbst hinter den Standard von Creative Commons zurück. Der Kern von Creative Commons sieht ebenfalls kostenlose Lizenzen vor, aber immerhin sind mehrere Abstufungen in der Rechtevergabe möglich. Ein Modell wie CCPlus, das auch kommerzielle Genehmigungen vorsieht, ist im Vergleich zum gegenwärtigen Googlebot/Robots.txt-Modell um Meilen fortschrittlicher.

De facto-Standardisierung des Google No Snippet-Befehls

Da Google Marktbeherrscher bei Suchmaschinen ist, entfaltet sein Googlebot-No Snippet-Befehl Wirkungen weit über den Googlebot hinaus. Dafür kann Google nichts. Aber Tatsache ist, dass die Verkürzung der Wahlmöglichkeiten auf die beiden oben genannten Funktionen zu einer sehr weit verbreiteten Übernahme dieser Praxis im gesamten Netz geführt hat. Das Lichtschalter-Prinzip gilt fast universell für alle, die sich technisch, wirtschaftlich oder juristisch nach dem Robots.txt oder Googlebot-Modell richten.

Diese De Facto-Standardisierung führt dazu, dass sich Aggregatoren weltweit auf die vermeintliche Genehmigung zur beliebigen Nutzung berufen, sowie die Befehle „No Snippet“ und „No Index“ nicht gesetzt worden sind. Da keine Längenbegrenzungen und Nutzungsbedingungen vorgesehen sind, argumentieren sogar Volltext-Aggregatoren damit, dass die Übernahme kompletter Texte durch das Fehlen eines „No Snippet“-Befehls genehmigt sei. Das ist die unangenehme und sehr direkte Folge des Lichtschalter-Prinzips: Wenn man die Snippet-Verwendung durch Google nicht ausschließt, stellt man damit implizit den Freibrief für jede beliebige Nutzung aus.

Interpretation durch Google

Google legt das Fehlen des „No Snippet“-Befehls längst nicht so aggressiv aus wie andere Aggregatoren. Doch es ist mit Google News doch ein starkes Nachrichtenprodukt entstanden, das in Konkurrenz zu den Webseiten der Verlage tritt. Wer sich einen schnellen Nachrichtenüberblick verschaffen will, findet bei Google News ein attraktives Angebot, das Durchklicken auf die Original-Webseiten für den eiligen Leser unnötig macht.

Verlage können dem Googlebot nicht mitteilen, dass er Snippets für die normale Suche bereitstellen darf, dass aber die Zusammenstellung umfassender Nachrichtenüberblicke an Lizenzbedingungen oder Lizenzgebühren geknüpft ist. Das Lichtschalter-Prinzip lässt nur „Ja“ oder „Nein“ zu. In meiner Antwort an Brigitte Zypries habe ich genau diesen Umstand gemeint: Die Erlaubnis zum Auslesen der Seiten wird interpretiert als Erlaubnis, alle möglichen Konkurrenzprodukte zu den Originalseiten aus den Suchergebnissen zu erstellen.

Es sei noch einmal ausdrücklich betont, dass Google das Lichtschalter-Prinzip im Nachrichtensektor längst nicht so aggressiv interpretiert wie andere Aggregatoren. Aber als de facto-Setzer des Standards trägt das von Google favorisierte Lichtschalter-Modell maßgeblich dazu bei, dass aggressivere Aggregatoren sich auf vermeintliche Genehmigungen berufen können. Ändern kann man das nur, wenn man das binäre Lichtschalter-Modell überwindet.

Die ACAP-Initiative

Um eine differenzierte Einräumung von Rechten zu ermöglichen, haben Verlage auf der ganzen Welt das Automated Content Access Protocoll (ACAP) entwickelt und auf ihren Seiten implementiert. Seine Absicht beschreibt ACAP so:

Launched back in 2007, ACAP (Automated Content Access Protocol) is a new non-commercial, open, global protocol devised by the worldwide publishing community that provides content providers with the necessary tools to communicate their copyright terms and conditions online in a language that can be read, understood and interpreted by machines. Put simply, ACAP enables the copyright terms, conditions and permissions that would routinely be read by a human in the offline environment to be read and unambiguously interpreted by the machines that replace the human in the online environment.

ACAP will help maximise the potential of publishing on any web-based device, both in terms of improving the management of the relationship with search engines and other content aggregators, and in terms of facilitating existing, new and future online publishing business models. ACAP is essentially a free-to-use tool for the business-to-business environment, but end-users will benefit when content owners have the confidence, thanks to ACAP, to put their high-value, high-quality, diverse content on the net, safe in the knowledge that third parties can no longer exploit that content without appropriate permission.

Leider ist ACAP bislang kein durchschlagender Erfolg geworden, da Suchmaschinen wie Google dem Standard ihre Unterstützung versagen, sprich: den Code nicht auslesen und entsprechend interpretieren. Über die Gründe dafür wird ausführlich gestritten. Google führt technische Motive an, Verlage und ACAP argumentieren, Google würde den Standard aus wirtschaftlichen Gründen meiden.

Ganz gleich, welcher Begründung man persönlich Glauben schenken mag, bleibt unverrückbare Tatsache, dass ACAP bis heute kein gemeinsamer Lizenzstandard geworden ist und es einen solchen Standard schlicht nicht gibt. Daher bleibt die Dominanz der Lichtschalter-Lösung ungebrochen.

Das Projekt Schema.org

Eine neue Initiative mehrerer Suchmaschinen betreibt mit Schema.org den Versuch, die Codierung von Rich Snippets zu vereinfachen. Was Rich Snippets sind, beschreibt Google so:

If Google understands the content on your pages, we can create rich snippets—detailed information intended to help users with specific queries. For example, the snippet for a restaurant might show the average review and price range; the snippet for a recipe page might show the total preparation time, a photo, and the recipe’s review rating; and the snippet for a music album could list songs along with a link to play each song. These rich snippets help users recognize when your site is relevant to their search, and may result in more clicks to your pages.

Das Projekt Schema.org wird bei Google so beschrieben:

schema.org is a collaboration by Google, Microsoft, and Yahoo! to improve the web by creating a structured data markup schema supported by major search engines. On-page markup helps search engines understand the information on webpages and provide richer results. A shared markup vocabulary makes it easier for webmasters to decide on a markup schema and get maximum benefit for their efforts.

If you’ve marked up your content for rich snippets using microformats, microdata, or RDFa, then you’re already familiar with the process. schema.org works the same way, using the microdata markup format and a vocabulary that is shared by all the search engines and that supports a wide variety of item types and properties.

Zwar erlaubt Schema.org eine standardisierte Markierung von Webseiten-Bestandteilen zur Produktion optimaler Snippets, doch es ist wiederum keine maschinenlesbare Sprache zur Beschreibung von Lizenzen. Damit trägt Schema in keiner Weise zur Lösung des Lizensierungsproblems bei. Die oben aufgezählten Nutzungsbedingungen und Rechte-Informationen werden nicht berücksichtigt und deswegen auch nicht mit ausgeliefert.

Das Projekt Linked Content Coalition

Die Linked Content Coalition hat sich zum Ziel gesetzt, eine branchenübergreifende, maschinenlesbare Meta-Lizenzsprache zu entwickeln. Genauer ausgedrückt: Die vielen einzelnen Insellösungen der Kreativwirtschaft (Film, Musik, Fernsehen, Fotos, Texte) sollen um eine Meta-Sprache ergänzt werden, die Insellösungen nicht zerstört, sondern sie ineinander übersetzbar macht und damit die technische Grundlage für universelle Anerkennung im Web auch durch Suchmaschinen und Aggregatoren schafft. Die Arbeit ist kürzlich aufgenommen worden.

Angestrebt wird also eine Lizenzsprache, die alle bestehenden Lichtschalter-Modelle um Rechte- und Nutzungsinformationen ergänzen kann.

Der Zusammenhang mit dem Leistungsschutzrecht

Es ist wichtig, den fundamentalen Unterschied zwischen Urheber- und Leistungsschutzrechten auf der einen Seite und Lizensierungssprachen auf der anderen Seite zu erkennen. An Verwischen dieses Unterschieds krankt Stefan Niggemeiers Beitrag.

Urheber- und Leistungsschutzrechte legen fest, wer Inhaber eines Rechts ist.

Lizensierungssprachen wie das krude Robots.txt/Googlebot-Lichtschalter-System, ACAP oder hoffentlich bald LCC drücken aus, wer Inhaber eines Rechts ist und unter welchen Bedingungen er der Nutzung seines Werks oder seiner Leistung zustimmt.

Lizensierungssprachen sind also Ausdrucksformen für die Nutzungen von Rechten.

Gäbe es eine universell akzeptierte Lizensierungssprache, würden Urheber- und Leistungsschutzrechte dadurch keineswegs überflüssig gemacht. Ganz im Gegenteil: Sie werden dadurch maschinenlesbar, damit Rechteinhaber ausdrücken können, welcher Verwendung sie unter welchen Bedingungen zustimmen.

Daraus folgt, dass die Existenz des „No Snippets“-Befehls in der Lizensierungssprache des Googlebots ein Leistungsschutzrecht keineswegs überflüssig macht. Mit dem Leistungsschutzrecht erhalten Verlage ein eigenes Recht. In der kruden Rechtesprache des Googlebots können sie dieses Recht schwer zum Ausdruck bringen. Dies ist jedoch nicht dem Leistungsschutzrecht anzulasten, sondern dem Lichtschalter-Modell. Keine Ein-Bit-Sprache, die nur den Unterschied zwischen Unterschied zwischen An und Aus kennt, kann komplexere Informationen als An und Aus übermitteln.

Gäbe es hingegen eine universell akzeptierte, dem 21. Jahrhundert angemessene Lizensierungssprache, wäre es in dieser Sprache ein Leichtes, den Verlag als Leistungsschutzberechtigten neben dem Urheber anzuführen und die Bedingungen der Nutzung maschinenlesbar auszuführen. Dies würde in der breiten Mehrheit wahrscheinlich nicht dazu führen, dass Snippets aus dem Netz verschwinden und Google News seine Pforten in Deutschland schließen muss. Es würde lediglich mehr Differenzierungen ermöglichen und einen angemessenen Prozess der Rechteklärung erleichtern.

Daraus folgt, welche Schritte gleichzeitig bewältigt werden müssen, um im Internet eine funktionstüchtige Ökonomie für Inhalte entstehen zu lassen und zu befördern:

  1. Schaffung aussagekräftiger, moderner Lizensierungssprachen
  2. Klare Definition von Rechten, die durch Lizensierungsprachen ausgedrückt werden können. Dazu gehört die Schaffung eines Leistungsschutzrechts für Presseverlage.

Die Abwesenheit moderner Lizenzierungssprachen macht aber die klare Definition von Rechten nicht überflüssig, sondern erschwert lediglich ihren Ausdruck. Daher spricht der Entwicklungsrückstand des Robots.txt/Googlebot-Lichtschalter-Modells nicht gegen die klare Definition von Rechten.

Schlicht gar kein Problem löst der von Stefan Niggemeier offenbar favorisierte (wenn auch nicht in Worten ausgedrückte) Weg: Bestehenlassen der Rechtslücke beim Leistungsschutzrecht und Einfrieren des Lichtschalter-Modells auf dem Stand der 90er Jahre mit seinen Lichtschalter-konformen jüngeren Ergänzungen wie „No Snippet“. Damit würden die Inhalte-Produzenten – Urheber wie Verlage – nur dauerhaft in Nachteil gegenüber Aggregatoren gesetzt werden. Dies kann kein Ziel der Politik sein.

Fazit

  1. Dass Stefan Niggemeier glaubt, die Existenz des „No snippet“-Befehls spräche gegen das Leistungsschutzrecht, liegt an der mangelnden Unterscheidung zwischen Rechten und Lizensierungsprachen.
  2. Dass Stefan Niggemeier glaubt, ich verstünde nichts von der Sache oder würde absichtlich lügen, liegt an der Reduktion seiner Wahrnehmung auf ein einziges Zitat aus einer einzigen Antwort auf eine einzige Kommentatorin.


 

114 Kommentare

 
  1.  
  2.  
  3.  
  4. Hi there! This is my first visit to your blog! We are a team of volunteers and starting a new project in a community in the same niche.
    Your blog provided us useful information to work on. You have done a extraordinary job!

    my web-site :: XX Large Beach Vinyl Wallpapers (Kirk)

     
     
  5. Good day I am so happy I found your weblog, I really found you
    by accident, while I was searching on Digg for something else, Anyways I am here now and would just like to say thanks for a marvelous post and a
    all round entertaining blog (I also love the theme/design),
    I don’t have time to read it all at the minute but I have bookmarked it and also added
    in your RSS feeds, so when I have time I will
    be back to read much more, Please do keep up the awesome jo.

    Look at my web page Extra Large Banksy Vinyl Wall Stickers (http://www.wallart-direct.co.uk)

     
     
  6.  
  7.  
  8. I know this if off topic but I’m looking into starting my own weblog and was
    curious what all is needed to get setup? I’m assuming having a
    blog like yours would cost a pretty penny? I’m not very web savvy
    so I’m not 100% sure. Any recommendations or advice would be greatly appreciated.
    Many thanks

     
     
  9. (Pingback)

    [...] übrigens auch so etwas. Achso ja, dann wäre das Gesetz nicht mehr notwendig. Seine Argumentation ist, dass es irgendeine Vergütung für Snippets geben müsste. Sorry, im Internet wurde bisher nie bezahlt um einen verdammten Link mit einer [...]

    Das Leistungsschutzrecht: Farce ohne Happy End. | 1337core

    14. Februar 2013

     
  10. Superwallah

    Haben Sie eigentlich sicher gestellt, dass Sie rechtmäßig in diesem Blog von Google und Pingable kopieren und damit nicht gegen das Urheberrecht verstoßen?

     
     
    • Google hat mir die Erlaubnis erteilt, Texte und Bilder aus der Kampagne zu verwenden. Also kein Verstoß gegen das Urheberrecht. Bei dem Auszug aus Pingable handelt es sich um ein klassisches Zitat. Somit ebenfalls kein Verstoß.

       
       
  11. Matthias Berger

    Also bitte, informieren Sie sich bitte einmal über “Google-On” und “Google-Off” Tags, die es seit vielen vielen JAHREN gibt, und mit denen man die Indexierung von Texten nicht nur Wort- sondern sogar Buchstabengenau steuern kann!

    Insbesondere die von Ihnen geforderte “Snippet” Funktion ist dadurch mit einfachsten Mitteln zu realisieren.

    Un-glaub-lich … mal ehrlich, haben Sie keine Berater?

     
     
  12. Was der No Snippet-Befehl nicht enthält

    [...]Zum Beispiel:”

    “1. Länge der genehmigten Auszüge”

    Entweder Ihnen gefällt die Länge, die Google verwendet oder eben nicht.

    “2. Unterscheidung zwischen Snippets und Previews”

    Das könnte man eventuell diskutieren, aber mit einem zusätzlichen “Lichtschalter” wären Sie sicher auch nicht zufrieden.

    “3. Inhaber der Rechte”

    Warum sollte das Google interessieren?

    “4. Bedingungen der Nutzung”

    Entweder Sie akzeptieren Googles Bedingungen oder eben nicht.

    “5. Preis der Nutzung”

    Da Google nichts zahlen wird, ist das irrelevant.

    “6. Erlaubnis oder Verbot der Weiternutzung durch Dritte”

    Was soll Google mit dieser Information anfangen?

    Wären Sie an einer technischen Lösung interessiert, könnte man einfach festlegen, daß der ACAP-Standard Vorrang vor robots.txt/Meta-Tags hat, sofern die Suchmaschine ACAP unterstützt.

    Dann kann man in ACAP einen Preis für die Snippets definieren und in den Meta-Tags Snippets verbieten. Google News würde dann zunächst keine Snippets mehr anzeigen und, falls Google Interesse hat, könnte es die Suchmaschine aufrüsten, Snippets wieder anzeigen und dafür den per ACAP angegebenen Lizenzpreis zahlen.

     
     
  13. Christian

    ACAP ist ohnehin vollkommen ungeeignet, durch Google implementiert zu werden. Hierzu muss man nur mal nachvollziehen, was Google macht:
    Informationen, die via HTTP oder HTTPS übertragen werden für Benutzer auffindbar zu machen.

    ACAP macht dann Sinn, wenn für die Übertragung in der Tat ein anderes Protokoll genutzt wird, oder aber ein bestimmtes Format. Gibt es aber schon, für eBooks, z.B.

    ACAP hat schlicht überhaupt nichts damit zu tun, was Suchmaschinen, ob nun Google oder nicht, können müssen – und sollen. Tatsächlich ist das Ganze eine “Lichtschalterfrage”: Möchte ich miene Inhalte im Netz auffindbar halten, oder möchte ich es nicht?
    Ich finde, schon allein no-snippet ist mehr als genug entgegenkommen.

     
     
  14. Niklaas

    Herr Kleese, ständig in Bezug auf das LSR zu lügen ist ja eine Sache, sich dann aber in letztklassige Ausreden zu flüchten ist wirklich mies.

     
     
  15. (Pingback)

    [...] Er verbreitet diese Lüge schon länger und macht, wenn er damit konfrontiert wird, verrückte Ausflüchte. Den Punkt, den Keese selbst den »Kern des Problems« nennt, stellt er immer wieder falsch [...]

    Axel-Springer-Lobbyist Christoph Keese lügt. — neunetz.com

    6. Dezember 2012

     
  16. (Pingback)

    [...] das natürlich. Er verbreitet diese Lüge schon länger und macht, wenn er damit konfrontiert wird, verrückte Ausflüchte. Den Punkt, den Keese selbst den »Kern des Problems« nennt, stellt er immer wieder falsch [...]

    Lügen fürs Leistungsschutzrecht (2) « Stefan Niggemeier

    29. November 2012

     
  17. (Pingback)

    [...] haben muss Aber beim Internet Was Inhalte betrifft so muss eher dereguliert werden Man müsste Keine Lügen für das Leistungsschutzrecht der presseschauderStefan Niggemeier erhebt in seinem Blogbeitrag Lügen fürs Leistungsschutzrecht den Vorwurf [...]

    Medienmanager attackieren Google und fordern Deregulierung

    24. Oktober 2012

     
  18. Maximillionen

    Hallo Herr Keese,

    ich habe mir das alles durchgelesen. Die Kommentare habe ich am Ende nur überflogen. Es sind leider viel zu viele dabei, die Sachdiksussion und Persönlich werden so schwer auseinanderhalten können.

    Ich will daher auch all die – teilweise aber sicher auch berechtigte Kritik – einmal überspringen und gleich zur Sache kommen, die mir am Herzen liegt.

    Ich habe nach Lektüre Ihres Textes verstanden, dass es Ihnen wohl darum geht, die Suchmaschinen begrenzen zu können. Sie wollen den Suchmaschinen also die Bewerbung der Artikel nicht ganz verbieten, sondern nur so ein bisschen. Ich verstehe nun ein bisschen besser, was Sie und die Unterstützer dieser Gesetzesinitative wollen. Sinn ergibt es für mich am Ende aber immer noch nicht, weil das völlig klar keine Lösung für Ihr Problem ist.

    Wenn man etwas will, wofür es keine besondere EInzelgesetzgebung gibt oder man sie nicht so einfach bekommt, dann muss man als einfacher Bürger ja immer sehen, wie man es bekommt. Wir haben gottlob das Zivilrecht und den Markt. Wenn ich als etwas anbiete, für dass ich von anderen Geld haben will, dann kann ich üblicher Weise damit “drohen”, dass ich es den Interessenten eben einfach nicht gebe, wenn sie mir kein Geld dafür zahlen. So kann ich dann sagen: Wenn ihr das wollt, was ich hier gemacht habe, dann zahlt mir dafür Geld und dann dürft Ihr das. Vielleicht sind die Interessen ja auch so beschaffen, dass ich eine Mittellösung verhandeln kann. Also die anderen geben sich mit Teilen oder Auszügen aus meiner Leistung oder meinem Produkt zufrieden und zahlen mir dafür immerhin ein bisschen was. Vielleicht will ich das ja, weil ich mein ganzes Produkt gar nicht einfach aus der Hand geben will.

    So etwas regelt der Markt. Dafür braucht man kein Gesetz. Ich schließe dann einen Kaufvertrag und habe dafür noch unser Zivilrecht und alles wird gut.

    Was aber tun, wenn der Markt nicht mitmachen will, weil er kein Geld für mein Produkt zahlen will? Dann habe ich ein Problem. Dann brauche ich doch ein Gesetz, dass es mir ermöglicht einfach generell für meine Leistung Geld zu verlangen. Das Problem: Das wird vielleicht gar keine Lösung, denn die Leute lassen sich ja nicht zwingen, mein Produkt zu kaufen.

    Sollte ich dann nicht lieber der Realität ins Auge sehen und sagen: Vielleicht will mich dafür keiner bezahlen?

    Wie könnte man das herausfinden? Nun man könnte einfach den Interessenten sein Produkt wegnehmen (nosnippet) und sehen, was die dann machen. Wenn Ihnen das Produkt dann fehlt, dann werden die schon kommen. Und wenn nicht?

    Das wird alles sehr interessant. Auch aus der Perspektive eine Logikers. Ich finde es nur schade, dass unsere Gesetzeslandschaft weiter verwüstet wird. Aber im Ergebnis ist das Gesetzesvorhaben einfach unsinnig und zwar nicht wertend gemeint, sondern schlicht logisch betrachtet.

    Ich schaue nun Ihren BLog noch einmal durch. Ich habe bisher keine wirklich umfassende Antwort von Ihnen auf dieses Logikproblem gesehen. Vielleicht habe ich es ja übersehen. Wenn nicht: Wie sehenSie das denn?

     
     
  19. herr Kleese, es ist ja schon schlimm genug, dass sie so klar und eindeutig der Verbreitung von Unwahrheiten überführt wurden. Aber dass sie nicht einmal die Charaktergröße beweisen und ihren Fehler eingestehen, sondern sich nicht zu schade sind, sich in nachgeschobene Umdeutungen zu flüchten, welche dann aber ihrerseits ihr gesamtes Kartenhaus aus Pseudoschlussfolgerungen zum Einsturz bringen, sagt mehr über sie aus, als ihnen lieb sein kann. Wie sich jemand in ihrer Position um des schnöden Mammons willen immer noch nicht genug entwürdigt hat, um seine gesamte Glaubwürdigkeit auf so beschämende Weise zu verbrennen, ist mir schleierhaft.

     
     
  20. (Pingback)

    [...] fürs Leistungsschutzrecht” vorwarf, “konterte” der mit der labberigstmöglichen Gegenargumentation mit der argumentatorischen Härte einer aufgewärmten Götterspeise. Axel Springers [...]

    Fünf entscheidende Fragen zum Leistungsschutzrecht

    31. August 2012

     
  21. Hat der Herr Dr. Döpfner wohl hier ein Machtwort gesprochen und dieses Blog getötet?

    …schade…

    Ich hoffe, dass ich irgendwann erfahre, wie Herr Keese den neuen Gesetzesentwurf rechtfertigen will.

     
     
  22. Thomas

    Eine unterhaltsame Diskussion. Was mich erstaunt, ist, dass der Vetreter eines Medienkonzerns, der in seinen Blättern eher mit der Axt als der Laubsäge agiert und für feine Ausdifferenzierungen in der öffentlichen Debatte nicht gerade bekannt ist, bezüglich einer einfachen, kostenlosen, nützlichen Dienstleistung erwartet, dass sie bis ins kleinste Detail steuerbar ist. Wie wäre es, dieses Konzept mal in der Bild-Zeitung probezufahren, bevor man es von Suchmaschinen lautstark einfordert?

     
     
  23. Karl

    OMG warum lässt man die Verlage sich nicht ins Knie schießen wenn sie es sich denn soooooo sehr wünschen… Das Leistungsschutzrecht kommt, Google schließt alle Verlage aus dem Index und Google News aus, die Verlage jammern, verklagen Google wegen Wettbewerbsverzerrung und Monopolistengehabes, Google gewinnt weil die Verlage es ja genau so haben wollten und es kommen sehen *mussten* und die Verlage kriechen zu Kreuze, so wie in Belgen. Fertig.

     
     
    • Benjamin

      Wir sind hier bei Springer, die lernen nicht mal aus ihren eigenen Fehlern? Wie zur Hölle sollten sie aus den Fehlern der anderen lernen? ^^

      Naja, ich freu mich dann schon auf Herrn Keeses nächsten Blogbeitrag (wenn er sich denn nochmal hier blicken lässt): “Warum Google Schuld ist das unsere Webpräsenzen plötzlich nur noch 5 Klicks im Monat haben”. Warum fordern Sie eigentlich nicht, dass Google ihnen was zahlen muss damit es Sie aus seinem Suchindex nehmen darf?

       
       
  24. Watt

    kurz und knapp,
    Herr Keese sie haben die Natur des internet nicht verstanden – ihr Traum grösstmöglicher Reichweite bei absoluter Kontrolle ist genau das – ein feuchter Traum.

     
     
  25.  
  26. Benjamin

    Wow, ein Springer-Mitarbeiter ohne Rückrad, der beim Anflug von Kritik entweder die Finger in der Ohren steckt und “Lalalala” ruft, oder ganz einfach direkt die Kurve kratzt. Ich bin wirklich überrascht…. NICHT!

     
     
  27.  
  28.  
  29.  
    •  
      • B.Schneider-Mohel

        Der Berliner Datenschutzbeauftragte ist des öfteren aufsichtsrechtlich tätig. Das war er auch schon beim Niggemeier. Einfach ausgedrückt heißt das lediglich: Er prüft.
        Was dabei rauskommt, wird sich in der (fernen) Zukunft zeigen.

         
         
        • Der Berliner Datenschutzbeauftragte war nun nicht routinemäßig aufsichtsrechtlich tätig, sondern aus dem besonderen Anlass, dass die Axel Springer AG biometrische Daten erheben und verarbeiten wollte von Leuten, die sich an die Axel Springer AG gewendet haben. Es ist jedenfalls skuril, dass die BILD Fotokopien von Personalausweisen sammelt (wo sie selbst auch noch sagt massenweise), obwohl sie die Adressen auch durch eine EMRA (elektronische Melderegisterabfrage) verifizieren könnte, die wesentlich datensparsamer nach BDSG wäre als die Ausweissammlung. Diese Misstrauenskultur der Bildzeitung sollte man nicht unterstützen, sondern die BILD-Zeitung mit unserem Datenschutzrecht noch vertrauter machen.

           
           
          • Ich habe persoenliche Post von Springer bekommen, wegen dieser Sache.
            1. Sie unterstellen einem ein Verbrechen nach Par.303b.
            2. Sie fordern zur Ordnungswidrigkeit auf, indem sie Kopien von Persos per Email verlangen.
            3. und das regt mich am meisten auf: sie haben mir schriftlich versichert, dass sie all meine Daten loeschen werden, nachdem ich Widerspruch gegen die Bild-Spam Aktion eingelegt habe. Diese Loeschung kann garnicht durchgefuehrt worden sein, sonst haetten sie mir ja nicht die Mail mit der Drohung und dem Verlangen nach Perso-Kopie schicken koennen.

            Ich gebe den Heinis noch eine Woche Zeit, danach gibts nochmal ne Mail mit Androhung rechtlicher Schritte.

               
             
             
  30.  
    • M.Winter

      Möglicherweise Angst vor Niggemeier (II)?
      Diskutieren mit Kommentatoren ist auch nicht so sein Ding.
      Naja, kein schöner Job.

       
       
      •  
        • Marcel

          Die Sitzung muss wirklich sehr lange dauern. Es ist bedauerlich, dass zunächst eine Antwort/Stellungnahme/Reaktion angekündigt wird und dann doch nichts passiert (Außer die Löschung eben jenes Hinweises auf Antwort). Vielleicht ist die private Zeit (ich will nicht Freizeit schreiben) ja gerade etwas begrenzt – es gibt neben Urheber- und Leistungsschutzrechten ja auch noch den Datenschutz. Der macht der Axel Springer AG ja gerade auch so einige Probleme.

           
           
          • M.Winter

            Da hat wohl jemand oben die Reißleine gezogen.

            Fortsetzung in zehn Jahren unter der Rubrik: “Was macht eigentlich…”

               
             
             
        • Moon

          Mal abgesehen davon, dass das nicht stimmt (wie man leicht anhand der x Kommentare Niggemeiers unterhalb seiner Postings sehen kann), würde es das Unterlassen Herrn Keeses auch nur irgendwie rechtfertigen, relativieren, besser machen? Bei den Springer-Apologeten scheint die Methode “Der der hat aber auch Scheiße gebaut, Mama!” echt weit verbreitet zu sein.

           
           
  31. M.Winter

    Die ganze Übung hier hat wenig Sinn, da Herr Keese ja nicht auf Kommentare eingeht. Alles wie gehabt.

     
     
  32. Andre

    Ich freue mich schon auf Ihren nächsten Artikel, Herr Keese. Ich vermute, dass Sie sich bereits so tief in den Mist geredet haben, dass Sie da nur schwer wieder rauskommen – nichtsdestotrotz schaue ich mir Ihren Versuch gerne an.

    Sind wir mal ehrlich: Google wird NIEMALS Geld dafür bezahlen, dass Snippets angezeigt werden dürfen. Wie schon zähe Diskussion mit der GEMA zeigen, bleibt Google in seinen Standpunkten immer recht… unnachgiebig. Viel besser fände ich ein Paid-Content-Konzept, dass beispielsweise den gesamten Artikel erst nach Bezahlung einer kleinen Gebühr (durch den Leser) ermöglicht. Aber im Gegensatz zu Ihnen bin ich da leider kein Experte.

    Wie dem auch sei, der Gesetzesentwurf zum LSR sehe ich nicht nur im Bezug auf Suchmaschinen-Ergebnisse kritisch, sondern insbesondere private Blogger stehen einem nun auf der Abschussliste.

    Sie können jederzeit Blogger oder “Newsaggregatoren” abmahnen wegen Verstoßes gegen die Lizenzbestimmungen.

    Wie jüngste Beispiele von dapd und AFP zeigen, werden schon jetzt – also ohne (neue) gesetzliche Grundlage – kleine Blogger mit Abmahnungen zugeschüttet, da diese teilweise zwei Sätze inkl. Link zum Online-Artikel in ihrem Blog gepostet haben. Und genau diese Hintertür öffnet das LSR allen Online-Medien. Hier zeigt sich der pure Lobbyismus dieses vollkommen unnötigen Gesetzesentwurfs, dessen Folgen meiner Meinung nach noch gar nicht absehbar sind.

    Ich weiß es geht hier eigentlich um Ihre unhaltbaren Aussagen zum Thema Google News, aber bitte nehmen Sie sich doch mal die Zeit, und recherchieren Sie entsprechende Beiträge. Ich gebe Ihnen mal ein Beispiel:

    http://www.ndr.de/ratgeber/netzwelt/abmahnungen103.html

    Nehmen Sie sich nach diesen 6:18 Minuten dann doch bitte noch die Zeit, sich das gezeigte Szenario mit einer zusätzlichen gesetzlichen Grundlage vorzustellen.

     
     
    • Nick

      „Viel besser fände ich ein Paid-Content-Konzept, dass beispielsweise den gesamten Artikel erst nach Bezahlung einer kleinen Gebühr (durch den Leser) ermöglicht.“

      Och, für BILD-online kann das auch gerne eine hohe Gebühr sein. Das täte der „Volksgesundheit“ sicher gut.

       
       
  33. Sehr geehrter Herr Keese,

    ich weiss das ‘Wahrheit’ häufig ein sehr subjektives Konzept ist.Daher überrascht es mich auch nicht das Ihr Fazit schlichtweg falsch ist.

    Ich verstehe durchaus die Bedürfnisse die ein Urheber hat,da ich selber Urheber bin.Daraus ergibt sich die Frage:Was ist Ihr ‘gottverdammtes’ Problem?

    Ich fasse Ihre Forderung noch einmal kurz zusammen:
    Sie vertreten ein Medienhaus,das von etwa 10 Jahren davon überrascht wurde,das die Leserschaft ins Internet abwandert.
    Sie haben,zweifelsohne Absatzschwierigkeiten (die jedoch darin begründet sind das Verlage antiquerte Geschäftsmodelle verfolgen) und Probleme im Internet Fuss zu fassen.
    Nun bietet Ihnen die größte Suchmaschine die Möglichkeit kostenlos (!!!) neue User und/oder Leser zu bekommen und Sie möchten das Suchmaschinen Ihnen Geld dafür geben,dass man Ihnen diesen Dienst kostenlos zur Verfügung stellt.
    Aber ganz doll böse werden Sie,wenn sich Suchmaschinen dadurch irgendwie (sicherlich können Sie sich das überhaupt nicht erklären) gestört fühlen,dass die Suchmaschine als Leistungserbringer auch noch zahlen sollen und dann mit ausschluss (aus einem,wie bereits erwähnt, kostenlosen Service auf den es keinen Rechtsanspruch gibt) droht.

    Ich kann mich des Eindrucks nicht erwehren das es Ihnen nur um eines geht:Geld.Sie bekommen kein eigenes,tragfähiges Online-Geschäftsmodell hin,also sollen Suchmaschinen Sie bezahlen.
    Ist ja ohnehin viel einfacher gleich den Verteiler,als die einzelnen Leser abzurechnen.

    Kurzum: Wenn sie keine Snippets mehr auf Google wollen,brauchen Sie keine Lobbyisten die obskure Gesetzesregelungen fordern,sie brauchen einen Studenten der Informatik im ersten Semester,der schon mal ein HTML Referenzwerk von weitem gesehen hat.

    Andererseits ist Ihre Forderung nach einem Leistungsschutzrecht als Daseinsberechtigung für den extra geschaffenen Posten den Sie nun … bekleiden durchaus nachvollziehbar.

     
     
    • M.Winter

      Ich fürchte es geht weniger um Geld, das Google eh nicht zahlen wird, sondern um Diskurskontrolle im Internet. Das LSR einmal konsequent zu Ende gedacht wirkt aufgrund extremer Rechtsunsicherheit für alle, die im Netz publizieren, wie ein Zensurhammer.

      Das wird spätestens dann klar, wenn er Keese von “harmlosen Bloggern” spricht, denen man gnädigerweise schon nichts tun wird.

      Auch der Hinweis, das Zitatrecht werde gar nicht angetastet, ist irreführend. Das was man nämlich jetzt schützen will, fällt dank mangelnder Schöpfungshöhe gar nicht unter das Urheberrecht (und damit Zitatrecht).

      Das LSR wird damit sogar höher bewertet als das Urheberrecht.

      Es ist schlichtweg verfassungswidrig

       
       
      • lofty

        @Deneb ALgedi: “Sie vertreten ein Medienhaus,das von etwa 10 Jahren davon überrascht wurde,das die Leserschaft ins Internet abwandert.”

        Nein, das tut Christoph Keese nicht. Er ist Angestellter der Axel Springer AG. Im März wurde die Bilanz der AG vorgestellt (zeitgleich mit der Ankündigung der Bundesregierung, das gewünschte LSR auszuarbeiten). Aus der Bilanz geht hervor, dass der Print- wie der Onlinebereich sehr profitabel arbeitet. Wenn ich die IVW-Zahlen richtig überschlage, so hat Axel Springer einen Anteil von ca. 40% an der Online-Reichweite.

        @M.Winter: “Auch der Hinweis, das Zitatrecht werde gar nicht angetastet, ist irreführend. Das was man nämlich jetzt schützen will, fällt dank mangelnder Schöpfungshöhe gar nicht unter das Urheberrecht (und damit Zitatrecht).”

        Genau das ist der Kernpunkt des Leistungsschutzrechts. Ginge es nur um den Handel mit Rechten, die sich bereits aus dem bestehenden Recht ergeben, wären Dinge wie ACAP ff. leicht zu implementieren und durchzusetzen. Nur gingen sie Betreiber wie Google nichts an, die diese Rechte nicht brauchen, um zu arbeiten. Es geht um den Schutzrechteexzess, der bisher nicht vom Urheberrecht erfasste Texte und Textteile monopolisieren soll.

        Es ist völlig legitim, als Rechtehändler (Axel Springer AG, NewsRight…) möglichst viel Material handeln zu können, nur ist es nicht Pflicht der Allgemeinheit, diese Exzesse zu dulden.

         
         
  34. stefle

    Was wäre eigentlich, wenn Google seine marktbeherrschende Stellung verliert und sich mehrere Anbieter den Markt aufteilen? Wem und mit welcher Argumentation könnte man dann ACAP aufnötigen?

     
     
  35. Die Axel Springer Ag hat viele Facetten (privat bei den Mitarbeitern und von der Corporate Governance):
    “”Bild” nahm Balotelli-Collage ohne zu fragen – Bezahlung des Titanic-Grafikers erst im Nachgang”
    http://www.wuv.de/nachrichten/digital/bild_nahm_balotelli_collage_ohne_zu_fragen_bezahlung_des_titanic_grafikers_erst_im_nachgang

    Da bedient man sich kostenlos einfach auf Facebook.
    http://www.facebook.com/friedemannweise

    Wobei man bei Weise auch nicht sieht, woher er das Urfoto hat. ich glaube, das Urheberrecht hat keinen Sinn mehr. Wenn schon die BILD und die Axel Springer AG sich nicht dran halten.

     
     
  36. (Pingback)

    [...] Christopg Keese antwortet auf Stefan Niggemeiers Vorwurf, er haben entweder gelogen oder verstehe nichts von der Sache. Die Lügen-Diskussion ist mir gleich. Was spannend ist sind die von Keese verlinkten technischen Vorschläge ACAP und LCC (wobei LCC bisher noch keine Zeile technischer Spezifikation veröffentlich haben). Keeses Hautpargument in diesem Text lautet in etwa so: robots.txt und Google eigene Ergänzen dieses Standards sind nicht aussagemächtig genug für die Bedürfnisse von Inhaltsanbietern. Weder in der robots.txt noch in den Meta-Angaben im Head können bspw. die Lizenzangaben von Creative Commons maschinenlesbar abgebildet werden. Und was Keese nicht erwähnt: Das geht schon mal gar nicht für einzelne Elemente der Webseite. Also bspw. kann ich hier maschinenlesbar nicht ausdrücken, dass ich ein Bild von Photocase habe und ein anderes aus der Wikipedia. Google würde beides indizieren, wenn ich Google nicht schon ausgesperrt hätte. [...]

    Neubeurteilung | anmut und demut

    8. Juli 2012

     
  37. datenkind

    Ach schön. Ich freu mich auf den Tag, an dem Google und andere SuMas ihre überflüssigen Ergüsse aus dem Hause Springer aus dem Index wirft. Das wird ein Fest!

     
     
  38. Herr Keese, mal was ganz anderes: es heißt nicht “lizensieren”, sondern “lizenzieren”. Ersteres würde das Wort “zensieren” beinhalten. Ob das jetzt mit Herrn Freud zusammenhängt?

     
     
  39. Sehe ich das richtig, dass die LCC bisher noch keinen Vorschlag zu einer “maschinenlesbare Meta-Lizenzsprache” veröffentlicht hat?

     
     
  40. Dennis

    Google weigert sich also gegen ACAP (was ich als Akronym wegen der Nähe zu ACAB recht ungeschickt finde ;) ) und bringt dafür technische Begründungen.

    Man würde sich wünschen, dass Sie eine andere Begründung haben und ehrlich sagen:
    Wir haben kein Interesse Ihren Content zu lizensieren. Wir lehnen das Angebot, Geld für Snippets zu bezahlen dankend ab. Wir investieren unser Geld gerne in hochwertige Produkte – Ihre Artikel enstprechend nicht diesem Anspruch.

    Denn bei all dem Geschwurbel über Lichtschalter übersehen sie völlig dass für Ihr Angebot, Inhalte zu lizensieren, auch eine entsprechende Nachfrage bestehen muss, damit das funktioniert. Google hat dieses Interesse ganz offenkundig nicht, und die “anderen” sind mutmaßlich gar nicht interessant genug für derartige Lizenzabkommen.

    Ich wünsche Ihnen, dass Google all die Verlage, die ein derartiges Problem mit unvergüteten Snippets haben, aus dem Index schmeißt und die Suche nach Nachrichten zu den Angeboten führt, die verstanden haben, wie wichtig Google für die Besucherzahlen ist und wie sie diese Besucher durch Werbung, Flattr oder ähnlichen Konzepten monetarisieren können, wenn sie es denn wollen.

    Einem anderen Unternehmen Lizenzverträge für vermutlich noch (teilweise) gestohlenen Content aufdrücken zu wollen ist jedoch schlichtweg grotesk. Dass Sie, Herr Keese, soviel Zeit in maschinenlesbare Lizenzvereinbarungen die kein Geschäftpartner haben will investiert haben, tut mir fast leid.

     
     
  41. (Pingback)

    [...] ist richtig. Christoph Keese hat darauf sehr ausführlich und auch sachverständig geantwortet. Dass Keeses verkürzte Darstellung des Sachverhalts gegenüber der ehemaligen [...]

    Snippet-Krieger — CARTA

    7. Juli 2012

     
  42. (Pingback)

    [...] für das Leistungsschutzrecht”), wie Springer-Lobbyist Christoph Keese die Dinge bewusst komplizierter macht als sie sind, um so den im Internet “notleidenden” Verlagen auf Kosten der [...]

    Wie diese Woche Politikgeschichte geschrieben wurde

    7. Juli 2012

     
  43.  
  44. ThorstenV

    Ja.

    Meine Aussage “Es gibt keine Meeressäuger” ist nicht falsch. Es ist daher nicht richtig mir vorzuwerfen, dass ich entweder lüge oder keine Ahnung von Meeresbiologie habe. Wohl war meine Aussage möglicherweise nicht ausführlich genug, denn was ich meinte war “Es gibt keine Meeressäuger außer Pottwale, Seekühe, [es folgen mehrere Folianten mit allen möglichen Erläuterungen zur Meeresbiologie, nur nichts speziell dazu, wie denn die früher aus der nicht-ausführlichen Version gezogenen Schlüsse nun genau aufrecht erhalten werden sollen]”

    Zum Inhalt der Vorschläge ACAP etc.: Wäre es nicht einfacher, wenn die Regierung sich ein neues Volk wählt? Wäre es nicht einfacher statt komplexe Metasprachen zu entwerfen, die vorschreiben, dass der zweite Halbsatz im zwölften Satz von Google nur angezeigt werden darf, wenn das dritte Wort darin durch das letzte Wort im fünften Satz ersetzt wird, es sei denn der Abrufende ist gewerblich tätig etc. u.s.w. u.s.f., wäre es nicht einfacher, wenn die Verleger einfach dazu übergingen, eine Version zu schreiben, die Google aufnehmen soll und eine die es nicht nehmen soll und diese mit den schon zur Verfügung stehenden Mitteln entsprechend zu kennzeichnen? Gerne kann dann z.B. die erste auf die zweite Version verlinken und diese auf eine dritte hinter einer Paywall. Oder auf eine vierte hinter einer Berechtigungsschleuse an der sich private / gewerblich / gemeinnützige / Journalisten / etc. ausweisen können, wobei die Akkreditierung ganz nach dem Geschmasck des Verlags gestaltet werden kann. Einfach mal selber arbeiten, anstatt 1000 Wünsche an das Christkind Google zu schreiben.

     
     
    • Stefanie

      “wäre es nicht einfacher, wenn die Verleger einfach dazu übergingen, eine Version zu schreiben, die Google aufnehmen soll”

      genial, die Snippets werden außer SEO-Müll genau 0 Informationsgehalt haben und können daher dann auch direkt weggelassen werden. Anhand der Überschrift kann man ja schon lange oft nichtmal mehr ahnen was sich dahinter verbirgt, wenn dann die Snippets genau werden… Ok, bei Springer gibt es zumindest eine Richtung…je reißerischer die Überschrift desto mehr heiße Luft…

       
       
  45. Jack Bristow

    Ganz ehrlich. Ich hab diese ellenlange Rechtfertigung gar nicht erst gelesen. Die Kommentare sind hier weitaus aufschlussreicher.

    Statt eine Nebelkerze deluxe zu zünden, wäre es sinnvoller gewesen, in wenigen präzisen & einfachen Sätzen für Klarheit zu sorgen. Herr Niggemeier ermöglicht durch wissenschaftliche Methodik die Falsifizierbarkeit seiner Ergebnisse/Nachforschungen/Argumente.

    Das erlaubt die einfache Reduktion auf Ja/Nein Antworten. Das kann der Springer-Mann nicht. Aus einem einfachen Grund: Es ist ihm nicht möglich, da jedwedes Ergenbniss zu seinen Ungunsten ausfällt.

     
     
  46. Für Lesemüde hier eine Kurzfassung des obigen Beitrags: ‘Der Herr Niggemeier möge bitte erst meine Sämtlichen Werke studieren, bevor er sich ans Kritteln wagt.’

     
     
  47. stefle

    Kann Ralphs Kommentar nur zustimmen. Google hat keinen Anlass, ACAP (oder andere kürzlich von Herrn Keese geäußerten DRM-Träume) zu implementieren, denn gerade dann kämen Urheberrechte zum Tragen. Die Beschränkung auf Snippets ist ja für Google der einzige gangbare (urheberrechtsfreie) Weg, konsequenterweise gibt es auch nur die Wahl snippet/nosnippet.

     
     
  48. Benjamin

    Letztendlich ist dieses Leistungsschutzrecht doch nur wieder Ausdruck der Rechtsphilosophie von Springer:

    Wichtig sind nur die eigenen Rechte; die Rechte anderer Leute sind unwichtig, darum darf man sich gerne bei Youtbe, Facebook & Co. bedienen, selbst wenn der entsprechende Urheber was dagegen hat. Selbstbedienung zum Nulltarif ist vollkommen OK, allerdings nur wenn Springer derjenige ist der sich bedient.

    Aber wenn man mal irgendwo den Eindruck hat, die eigenen Rechte seien nicht weitreichend genug, dann ruft man mal eben bei den Kumpels von der CDU an, die drehen ein paar Schräubchen, und dafür gibts dann ein paar Monate wohlwollender Berichterstattung in der Bild.

    Verlierer ist natürlich der einfache Blogger – aber der hat ja sowieso keine Rechte.

     
     
  49. Peter

    Sehr geehrter Herr Keese, alle großen Verlage Deutschlands stehen ja angeblich einheitlich für ein LSR und gegen Google ein. Warum verbieten die Verlage dann nicht zusammen Google Snippets zu erstellen und ziehen gleichzeitig ein eigenes “Google News” auf? Werbung kann man schließlich kostenlos in den eigenen Zeitungen machen und allein mit der Bild müsste man genug Leute erreichen. Da zählen dann nur die eigenen Regeln und man könnte Werbung schalten wie man möchte. Warum machen die Verlage das nicht? Haben sie evtl Angst vor den doch sicher beträchtlichen Kosten und das so ein Dienst sich wohl nur, mit Glück, gerade so selbst trägt?

     
     
    • Klaus

      Burda hat es mit Nachrichten.de und Finanzen100.de ja versucht. Die Welle ging vor 2-3 Jahren durch die Verlagswelt, da wollten alle Google-News-Konkurrenz machen. Weil das technisch zu kompliziert und damit zu teuer war, will man jetzt halt einfach nur Geld von Google.

       
       
  50. Frank Sonnenberg

    Niemand wird gezwungen, als Verleger seine Produkte ins Internet zu stellen. Und jeder Verleger, der es tut, kann auf denkbar einfache Weise Suchmaschinen wie Google daran hindern, ihn bzw. seine Produkte zu “verwerten”. Das kann man “Lichtschalter” nennen (weil sich dann die Geschäfte des Verlegers verdunkeln?) oder “Opt-out”. Die Wirkung ist jedenfalls, daß kein Verlegerrecht, auch kein eingebildetes, verletzt werden kann.
    Auf mehr kann es keinen rechtlichen Anspruch geben. Wenn ein Barbesitzer partout nicht will, daß ihm Taxifahrer die Kunden vor die Tür bringen, hängt er ein Plakat mit “Keine Kunden bitte!” oder gleich “Wegen Reichtum geschlossen” auf. Wer noch Kunden möchte, steckt den Taxifahrern einen kleinen Obulus zu. Also gilt “Jedem das Seine” – und alle sind zufrieden. Nur die Jammerlappen, die sich “Verleger” nennen, nicht. Sie möchten den Taxifahrer Google dafür abkassieren, daß der ihnen die Kunden liefert. Und rechnen allen Ernstes vor, daß vor allem Google doch viel Geld habe. Eine insbesondere für die Marktwirtschaftler unter den Verlagen wie Springer schon erstaunliche Haltung. Daß man sich einfach nur, weil der Nachbar Geld hat, zum Plündern berechtigt fühlt, hätte man eher von Lafontaines Linken erwartet, die vom Kommunismus träumen.
    Was Herr Keese an Stelle des arg “veralteten” Lichtschalters fordert, ist eine “Weiterentwicklung” der Google-Schnipsel zu einer Art Werbeanzeige für die Verlagsprodukte mit Vertragstext, Preisschildchen und Registrierkasse. Während so etwas in Zeitungen und Zeitschriften viel Geld kosten würde, möchte Keese dafür auch noch bezahlt werden. Das ist nun wirklich Chuzpe. Aber die korrupte politische Kaste wird schon liefern? Schließlich sind die Gangster-Syndikate in den Banken sehr zufrieden mit CDU und SPD.
    Mit Google und den deutschen Verlegern kommt wohl keine echte Liebesbeziehung zu Stande. Da ist es – wie im richtigen Leben – besser, man trennt sich beizeiten und geht eigene Wege. Also: Google ignoriert bei “News” die Verleger. Und die ignorieren Google und stürmen mit ihren weltweilt bewunderten Qualitätsprodukten von Sieg zu Sieg. Wozu Google, wir haben doch Keese …
    Venceremos, Herr Keese!

     
     
  51. Ralph

    Mit Verlaub Herr Keese, das ist Käse! Sobald Google wie Sie behaupten, den ganzen Artikel darstellen würde oder auch nur mehr als ein Snippet, greift das Urheberrecht. Insofern ist das einfache “nosnippet” vollkommen ausreichend.

    Fällt nur mir auf, dass ausgerechnet der Verlag, der sich für Print und Online ständig kostenlos im Netz (z.B. bei Facebook) bedient und von dort ungefragt und unberechtigt Fotos veröffentlicht, über die Kostenlosmentalität des Internets beschwert? Ausgerechnet Springer? Diejenigen, die das Urheberrecht bei genau diesen geklauten Fotos missachten und glauben, Sie hätten Recht, obwohl Ihnen Gerichte das schon mehrfach um die Ohren gehauen haben?

    Ausgerechnet dieser Verlag möchte ein neues Recht, damit nicht einfach geklaut wird?

    Ich schließe mich meinen Vorrednern an. Erbärmlich!

     
     
  52. Heiko Dietterle

    Lieber Herr Keese,

    klasse Geschäftsmodell: “Lass Dir Deine nicht erfüllten Wünsche bezahlen!” Wenn Sie damit durchkommen, wird “lügen” ja in der Tat noch belohnt – achso halt, Sie meinen ja sie würden nicht lügen … hm, wie wollen Sie es denn dann nennen, dass Sie so tun, als ob es die Möglichkeit der Unterscheidung von Indexierung und Snippets nicht geben soll? Sorry, da ist auch der Hinweis, dass man über das Thema schon mal woanders lamentiert hat, keine Ausrede! Und welche Wünsche haben Sie denn dabei noch – es gibt ja durchaus Differenzierungsmöglichkeiten bei Google wie z. B.: <a href:="http://support.google.com/webmasters/bin/answer.py?hl=de&answer=146750&topic=1088474&ctx=topic&quot; – wenn Sie da noch mehr haben möchten, können Sie ja Google davon überzeugen, dass die es nach Ihrem Gusto tun sollen … allerdings ist dann fraglich, ob nicht Google für diese Leistung noch etwas Geld von Ihnen verlangt, anstatt Ihnen noch welches zur Erfüllung Ihrer Wünsche zu geben!

    Viele Grüße

    ein "digital native", der noch weiß wie man Lichtschalter betätigt! ;-) )

     
     
  53. Benjamin

    Sie sind mit den Funktionen des Googlebots unzufrieden? Dann nutzen Sie ihn nicht, bzw. verwenden Sie robots.txt um ihn auszusperren!

    Wer sind Sie denn dass Sie glauben das Recht zu haben, Google vorzuschreiben welche Services sie wie anzubieten haben? Akzeptieren Sie die vorhandene Funktionalität oder lehnen Sie eine Erfassung Ihrer Seite/n durch Google ab. Ganz einfach!

     
     
  54. Lutz

    Dieser Artikel liest sich für mich wie der Versuch, mit einer Masse von Fakten, die für die ursprüngliche Frage (Lüge oder keine Lüge für’s LSR) vollkommen irrelevant sind in Verbindung mit einer zweifelhaften Lichtschalter-Rhetorik beim nur oberflächlich interessierten Leser so viel Verwirrung zu stiften, dass die ursprünglichen Frage (Lüge oder keine Lüge für’s LSR) zur Nebensache wird und ein schwammiger Eindruck von Kompetenz hier und Schlichtheit dort vermittelt wird.

    Dabei ist der Lichtschaltervergleich (an/aus) – wenn auch geschickt – inhaltlich nicht überzeugend. Der Vergleich müsste, um im Lichtschalbild zu bleiben, angesichts der Anzahl von Tags (in dem Artikel werden bereits fünf genannt), nicht von einem Lichtschalter sprechen, sondern von einem Raum mit fünf Lichtschaltern, jeweils einen für die gedimmte Nachttischlampe, einen für Ecklampe, einen für das angenehme indirekten Licht, einen für die helle Deckenleuchte und einen für die Energiesparlampe.

    Mehr Lichtschalter braucht man nun wirklich nicht, weder 1990 noch 2010.

     
     
  55. Jan W.

    Keese und seine Freunde, für die er natürlich privat in seiner Freizeit tätig ist, wollen nicht den “Lichtschalter” gegen komplexe Metadaten ersetzen, sie wollen die Hand aufhalten und kassieren.
    Denn die komplexen Metadaten würden es ja Google ermöglichen, per mehrstufiger If-Abfrage alle Quellen, aus dem Suchindex zu werfen, aus denen sich Vergütungsansprüche für die Aufnahme der Quelle in den Index oder sonstige Rechte ergeben würden.
    Genau gegen ein Delisting wird aber hier fortlaufend agitiert! Man möchte aus Google (News) mittelfristig einen Geldeintreiber für Nutzerbeiträge machen, denn die Forderungen der Verleger werden sicherlich über den Erträgen liegen, die Google bisher mit seinem News-Dienst erwirtschaftet.
    In der Sparte “Geldeintreiber für Nutzerbeiträge” hat Google aber nicht die unterstellte Marktmacht – Google News ist auf diesem Feld gar nicht aktiv. Ich bin gespannt, wie sich Springer & Co. im Falle eines Delistings in eine Dienstleistung einklagen, deren Grundcharakter sie nicht akzeptieren!

     
     
  56. Moon

    Wenn Sie dann soweit sind, können Sie ja auch direkt mal erklären, wieso Ihr Link auf leistungsschutzrecht.info mit Gigel (Google Initiative gegen ein Leistungsschutzrecht) bezeichnet ist. Wollen Sie ernsthaft behaupten, man kann nur gegen ein LSR sein, wenn man für Google lobbyiert? Oder insinuieren Sie hier plump, die müssen doch einfach durch Google finanziert sein?

     
     
  57. M.Winter

    M.E. wäre das LSR in der im Referentenentwurf vorgesehenen Form sogar verfassungswidrig.

    Urhebern, die Inhalte ins Netz stellen, müssen sich damit eine “konkludente Einwilligung” zur Nutzung ihrer Inhalte im gesetzlich vorgesehenen Rahmen unterstellen lassen, wenn sie keine Einschränkungen für Suchmaschinen definieen. Hierzu hat der BGH bezüglich der Vorschaubilder bei Google Images bereits entschieden.

    Das LSR würde dagegen Verlage privilegieren, die ein schwächeres Recht als das Urheberrecht für sich in Anspruch nehmen.

    D.h. obwohl auch Verlagen mit dem Publizieren im Netz die konkludente Einwilligung zu unterstellen ist, sofern sie keine (bezüglich Google kinderleichte) Gegenmaßnahmen treffen, wäre ihre schwächer als Urheberschaft zu bewertende Leistung besser gestellt. Das widerspräche dem Gleichheitsgrundsatz.

    Tatsächlich könnten sich Verlage bei nicht dem LSR unterliegenden Blogs im Rahmen dessen, was das Urheberrecht zulässt, frei bedienen, das “Entnommene” dann per LSR schützen lassen.

    Was heißt könnten: Sie nehmen es ja schon beim Urheberrecht nicht so genau, wie man z.B. bei Facebook-Inhalten sieht.

     
     
  58. Heller

    Das Beispiel der Politikerin Brigitte Zypries zeigt das Dilemma von Herr Keese. Wenn ein Laie Herr Keese zuhört, kann er schnell das Gefühl bekommen die Verlage werden benachteiligt. Dann nimmt man sich der Sache an und stellt fest: Es braucht kein LSR!

    Die Kommentare sprechen eine klare Sprache und die Argumente der Gegner sind wirklich gut und schlüssig. Er kann höchstens noch versuchen genug Politiker zu mobilisieren die davon keine Ahnung haben. Das könnte leider wirklich noch gut gehen.

     
     
    • .. oder auch nicht. Das LSG sollte vor der Sommerpause durchgewunken werden, dass ist glücklicherweise verhindert worden. Wir alle haben also noch ein paar Wochen Zeit, unseren Politikern klarzumachen, dass das LSG unnötig ist. Da von Seiten der Verleger kein Dialog oder Kompromiss erkennbar ist, bleibt uns nichts anderes übrig, als das LSG komplett abzulehnen.

       
       
      • Moon

        Wieso Kompromiss? Auch aus dem ellenlangen Sermon, den Herr Keese nun abgeliefert hat, überzeugendt weiterhin kein einziges Argument für ein LSR. “Für Webseiten-Betreiber ist keine der beiden Optionen wirklich attraktiv.” ist nun wirklich keine Basis, auf der ein neues Monopolrecht für einige Wenige gewährt werden müsste.

        Auf die Ironie, dass ausgerechnet die Verlage nach all Ihrem verzweifelten Festhalten an den etablierten (Macht)Strukturen aus der analogen Welt von gestern nun von “Gestaltungsmöglichkeiten die mehr dem Web des 21. Jahrhunderts entsprechen” fantasieren, gehe ich besser gar erst ein.

         
         
  59. Juliane Böckler

    Wenn ich das also richtig verstehe, kann man die Sachlage wie folgt zusammenfassen:

    1.) Google übernimmt die Inhalte der Verlage für Google News. Die Verlage möchten das nicht.

    2.) Google lässt den Verlagen die technisch simple Wahl, diese Praxis ganz oder teilweise einzuschränken. Diese Möglichkeit nehmen die Verlage nicht wahr.

    3.) Stattdessen verlangen die Verlage ein Leistungsschutzrecht und / oder eine komplette, technisch hochkomplizierte Überarbeitung von Googles Indexierung.

    4.) Sollte Google die Verlage als Reaktion schlicht aus dem Suchindex werfen, steht Google eventuell ein Kartellrechtsverfahren bevor.

    Ist das in etwa richtig?

     
     
    • M.Winter

      Kartellrechtlich würde das Ganze schon deshalb scheitern, weil Google News kostenlos ist.

      Wenn die Verlage für den ihnen kostenlos gelieferten Traffic sowie für die bisher kostenlose Recherche ihrer Journalisten bei Google zahlen, können wir weiterreden.

       
       
  60. Gratulation an Stefan Niggemeier – er hat noch einmal ausführlich klargemacht, warum das Leistungsschutzrecht auf falschen Annahmen beruht. Und Sie, lieber Herr Keese, haben klargemacht, dass Sie die grundsätzliche Funktion der robots.txt und anderer META Anweisungen verstehen.

    Wo ist also jetzt das Problem? Sie haben alle Werkzeuge, um das unsägliche Treiben der Suchmaschinen endgültig zu beenden.Wozu brauchen Sie ein Gesetz?

    Ach – richtig. Ihnen gefallen die Spielregeln des Internets nicht. Deswegen wollen die Spielregeln ändern. Aber es interessiert halt niemanden. Deshalb soll es nun ein Gesetz richten. Das klingt nach Bully. Sie sind kein guter Netizen.

    Martin Belam (currybet.net) schreibt:

    Acap is a weak form of online DRM that promises you’ll get more by allowing less.

    Und Ian Douglas vom Telegraph erklärt:

    The web is not print. You don’t get to say how people come to your content online, that’s just not how it works. In exchange for a little loss of control you gain a supremely flexible international audience who can interact with you every day.

    Kleine Randbemerkung: Ich finde keine ACAP-Erweiterungen in der robots.txt z.B. von welt.de. Wenn ich einen Standard pushen wollte, würde ich ihn erstmal selber anwenden.

     
     
  61. also erstmal Danke fuer den laengeren Beitrag.
    Ich verstehe trotzdem nicht wie das Snippet-Problem ein LSR begruenden soll.

    Sie sagen’s ja selbst, man braucht 1. einen vernuenftigen Umgang bzw. technische Grundlage (= entweder erw. nosnippet, oder ACAP) und DANN geht’s weiter.
    Zuerst ein LSR und DANN Weiterverhandeln waer genau der Falsche weg.

    Legislatur ist nie kreativ immer reaktiv. Sie reagiert auf die Realitaet der Menschen und regelt diese. Wenn sich diese Realitaeten veraendern oder verschieben, werden die GEsetze entsprechend wieder angepasst. Aber es kann und darf nicht sein, dass durch Legislatur neue Bereiche eroeffnet werden, um Geld zu verdienen, und nichts anderes ist das LSR – es ist eine neue Methode geld zu verdienen – das sagt man bei Springer ja ganz offen…

     
     
  62. Usul

    Weitergehende Informationen aber können sie nicht mitteilen. Zum Beispiel: …

    Sorry, aber wenn ich diese Unmasse an Optionen sehe, die Google verstehen soll, dann kann ich nachvollziehen, dass die abgelehnt haben, diese feingranulare Struktur zu implementieren. Das da Fehler auftreten bei der Umsetzung, ist wahrscheinlich gar nicht zu vermeiden.

    Auch das bei der Ablehnung von ACAP seitens Google technische Gründe angegeben wurden, die andere Partei aber wirtschaftliche vermutet: Das ist im Endeffekt das gleiche. Macht Google bei der Umsetzung einen (technischen) Fehler, wird wahrscheinlich gleich geklagt und Schadenersatz gefordert (wirtschaftlicher Grund).

    Generell übrigens eine tolle Strategie: Google ist vermutlich aufgrund seiner marktbeherrschenden Stellung gezwungen, die Verlage zu listen, soll aber gleichzeitig ein komplexes Bollwerk an Bedingungen umsetzen, was die Verlage fordern. Tun sie es nicht, werden sie verklagt, tun sie es doch, aber es passieren aufgrund der Komplexität Fehler, werden sie auch verklagt.

     
     
  63.  
  64. Moon

    Das Bildblog beweist ja täglich, welche Stümper im Hause Springer unterwegs sind, deswegen mag die Ahnungslosigkeit Herrn Keeses nun wirklich niemanden überraschen (womit Herrn Niggemeiers Grundaussage übrigens weiterhin zutreffend ist). Dreist finde ich jedoch weiterhin seine Forderung, Google müsse seinen Job gefälligst so machen, wie die Verlage das wollen (die natürlich für den ihnen kostenlos zugeführten Traffic weiterhin nicht zahlen wollen).

     
     
  65. “Die Abwesenheit einer Zahlschranke begründet nicht das Recht, gewerbliiche Kopien ohne Genehmigung anzufertigen.”

    Doch Herr Keese, bei Suchmaschinen begründet sie genau das. Dass Sie genau das jetzt wieder anführen, unterstreicht nur ihre Unwilligkeit ihre Hausaufgaben zu machen und sich mal mit dem entsprechenden BGH Urteil auseinanderzusetzen. Peinlich!

     
     
  66. mepeisen

    Ich halte es für grob fahrlässig, technische Begründungen anzuführen, die schlichtweg falsch sind, dann aber zeitgleich diese als Argument für gesetzliche Notwendigkeiten heranzuziehen und dann auch noch, sobald jemand auf die Idee kommt, diese falschen Argumente einmal zu entkräften, sich dann nicht wenigstens einmal zu informieren.

    Aus technischer Sicht muss Google ACAP schon deswegen ablehnen, weil es in weiten Teilen überflüssig ist. Die technischen Möglichkeiten, die es heute schon gibt, gehen weit über das “AN/AUS” hinaus. Ich weiss nicht, ob Stefan Niggermeier vorhat, genau das aufzuzeigen, die (1) in seinem Beitrag lässt es vermuten, doch selbst wenn nicht: Jeder Techniker, der sich tiefer mit der Materie beschäftigt, wird herausfinden, dass viele Stoßrichtungen von ACAP überflüssig sind.
    Sicherlich sind einige Ansätze edel und sicherlich würden einige Ansätze die Sache für die Verlage etwas vereinfachen, dafür die Komplexität auf Seiten von Google und Co. deutlich erhöhen. Doch Ihnen geht es gar nicht darum, wer den Aufwand der Implementierung hat, ihnen geht es um Gründe für das Leistungsschutzrecht. Einer der Hauptargumente für das Leistungsschutzrecht ist, dass Google die Möglichkeiten, die man als Verlag braucht, nicht bietet. Dieses Hauptargument ist Unfug, wenn man die Möglichkeiten, die Sie in den Webservern ihrer Verlage gepaart mit den Möglichkeiten beispielsweise über Google Webmastertools hätten, betrachtet.

    Bleibt die Frage, wieso man das Leistungsschutzrecht braucht. Die technische Notwendigkeit ist minimal. Auch die rechtliche ist minimal, denn sie können jederzeit ihre Inhalte unter Lizenzen stellen und mit Google Verträge aushandeln. Sie können jederzeit Blogger oder “Newsaggregatoren” abmahnen wegen Verstoßes gegen die Lizenzbestimmungen. Rechtlich ist das problemlos machbar und selbst wenn es schwierig ist, braucht man dazu nur eine gewisse Hamburger Kammer befragen.
    Was bleibt? Am Ende wohl nur ein pures reines kaufmännisches Interesse. Ist dem so?

     
     
  67. Christian Dietersen

    Und nochmal ganz grundsätzlich: wirklich jämmerlich, wenn man fast 20 Jahre, nachdem das Internet seinen Durchbruch in den Massenmarkt hatte, immer noch nicht die Funktionalität einer Suchmaschine verstanden hat und nur herumwinselt, anstatt selber etwas gescheites auf die Beine zu stellen.
    Man stelle sich vor, die populärste Suchmaschine wäre aus dem Hause Springer… Aber weil man ins Hintertreffen geraten ist, soll es plötzlich die Allgemeinheit per Gesetzgebung richten, während ansonsten möglichst alles dereguliert und depubliziert werden soll, wenn es einem nur Vorteile verspricht. Lobbyismus der erbärmlichsten Sorte, fürwahr.
    Und für den in Ihrem Hause so oft beschworenen Standort Deutschland ein Armutszeugnis.

     
     
  68. Silas

    Ist es nicht so das Google lediglich ein Angebot ist welches nicht genutzt werden muss wenn es einem nicht passt? Ich kann doch auch nicht zu einem Autohersteller gehen und verlangen das er mir die Mittelkonsole in Chicherinvogelschwanzgelb anbietet weil ich es gern so haette. Entweder ich kaufe das Auto so wie es Angeboten wird oder aber ich lasse es eben.

     
     
  69. Ist es nicht eigentlich so, dass es urheberrechtlich völlig egal ist, was ich in den Meta-Text meiner Webseiten ‘reinschreibe, weil es an den deutschen Urheber-, Nutzungs- und Zitatrechten doch nichts ändern würde? Die Nutzungsmöglichkeiten beeinflussen kann ich doch – juristisch gesehen – nur im sichtbaren Text, indem ich z. B. die Inhalte unter CC oder völlig frei stelle (aber selbst das ändert nichts am unveräußerlichen Urheberrecht).

    Insofern machen Sie mit Ihrer Kritik an den mageren “ein/aus”-Wahlmöglichkeiten für Crawler-Steuerung ein Fass auf, das mit geltendem Recht nichts zu tun hat. Das “Leistungsschutzrecht” hat das meines Erachtens übrigens auch nicht.

     
     
  70. Pavel Richter

    “Verlage können dem Googlebot nicht mitteilen, dass er Snippets für die normale Suche bereitstellen darf, dass aber die Zusammenstellung umfassender Nachrichtenüberblicke an Lizenzbedingungen oder Lizenzgebühren geknüpft ist”

    Dazu zwei Fragen: Verstehe ich Sie richtig, dass bei einer “normalen Suche” die Leistungen der Verlage kostenlos und ohne eine LSR-Vereinbarung genutzt werden können sollen? Wie wäre dies denn mit dem derzeit diskutierten LSR möglich, das sich in dieser Frage doch eher wie ein Lichtschalter benimmt: LSR gilt – oder nicht. Eine Unterscheidung in “normale Suche” und News-Aggregation finde ich da jjedenfalls nicht.

    Und zweitens (und Achtung, dies ist eine Fangfrage!): Wenn es eine Möglichkeit gäbe, Google mitzuteilen, dass Snippets nicht für die Zusammenstellung umfassender Nachrichtenüberblicke genutzt werden dürften – dann wäre alles gut? Denn dadurch wäre ja sichergestellt, dass die Leistung der Verlage nicht mehr einfach so genutzt wird – und Google wird sich dann schon melden, um z.B. mit der Springer AG darüber zu sprechen, unter welchen Bedingungen sie bereit wäre, sich doch wieder in Google News mit Snippets listen zu lassen. Ein Gesetz braucht es dazu jedenfalls nicht.

     
     
  71. Jan

    Joa, im Großen und Ganzen haben Sie wohl recht, dass es sinnvoll wäre, einen Standard für maschinenlesbare Lizenzinformationen zu entwickeln und wenn dieser auch von Suchmaschinen eingehalten würde. (Wohingegen einige Verlage wohl Nachhilfe in Sachen menschenlesbarer Lizenzinformationen bräuchten, aber das mal außen vor…)

    Inwiefern damit Snippets überhaupt “unterbunden” werden sollten, oder ob das unnötig ist, weil sie vllt. doch als Zitat durchgehen, ist wieder eine andere Frage, die ich auch nicht zum 1000. mal anreißen will.

    Was aber Fakt ist: Die Aussage

    Sehr gern würden die Verlage auf eine Möglichkeit zurückgreifen, von Suchmaschinen und Aggregatoren nur indexiert und vielleicht mit einer Überschrift zitiert zu werden. Doch genau diese Differenzierungsmöglichkeit bietet Google wie die allermeisten anderen Aggregatoren nicht an.

    (Hervorhebung von mir)
    bleibt falsch und insbesondere Ihre Wortwahl (“genau”) macht es witzig – denn genau diese Differenzierungsmöglichkeit (wenn sie den Verlagen (und vllt. auch anderen Webseitenbetreibern) auch nicht weit genug geht) bietet Google ja an.

    Im Prinzip dreht sich Ihr ganzer heutiger Text mit der Lichtschalter-Argumentation darum, dass Google genau diese aber eben auch nur diese Differenzierungsmöglichkeit anbietet.

    Bin ich der einzige, der das außerordentlich ironisch findet?

     
     
    • kleitos

      Nein – ich finde das auch ironisch – verweise innerlich jedoch auf eine kognitive Dissonanz beim Herrn Keese ;-)

       
       
  72. Frau Zypries selbst war es, die als ein Argument gegen die Notwendigkeit eines Presse-Leistungsschutzrechtes anführte, dass Google “jeden rausnimmt, der nicht zitiert werden will”. Ihre Antwort darauf, Herr Keese, war nicht zu kurz oder nicht “ausführlich” genug.

    Sie war falsch.

    (Sie hätten das nicht einfach zugeben können?)

     
     
  73. Marcel

    P.S.: Ein Gedanke zum Abschluss: Springer hat auch nicht unerheblich zur Stärkung der Marktstellung von Google beigetragen. Wieviele Stellen, Personen, Studenten, Arbeitsgruppen im Konzern befassen sich mit SEO?

     
     
  74. Marcel

    Sehr geehrter Herr Keese,
    das ist – mit Verlaub gesagt – ziemlich erbärmlich. Wenn Sie sich mit Kommentaren in die Öffentlichkeit begeben, können Sie doch nicht ernsthaft davon ausgehen, dass angesichts Ihrer Behauptungen sämtliche früheren Bemerkungen, Artikel und Kommentare zu diesem Thema von Herrn Niggemeier berücksichtigt werden müssen, wenn er Ihnen Vorhaltungen bezüglich Ihrer Darstellung macht. Wenn die Vorwürfe der Lüge und der Ahnungslosigkeit vielleicht zu weit gefasst sind muss doch eines festgehalten werden: Sie verzerren die Realität. Das ein Unternehmen wie Google (oder überhaupt ein Content-Aggregator) eine Vorgabe wie ACAP nicht annimmt ist doch verständlich. Würde die BILD-Zeitung sich um Formatanforderungen des Verbandes der Kioskbesitzer scheren? Urheber- und Leistungsschutzrechte müssen gewahrt bleiben, da stimme ich Ihnen zu. Allerdings ist dazu kein weiteres Gesetz erforderlich, welches unsere wirtschaftsliberalen Verlage und Verleger protegiert.

     
     

Hinterlasse eine Antwort

Bitte füllen Sie die mit einem Stern markierten Felder aus.

*


+ 8 = 16

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>