Publishers Eye Controleren van online zoekopdrachten - Web - 2019

Anonim

Heeft u zich ooit afgevraagd of het legaal is voor internetzoekmachines zoals Google om een ​​website automatisch te crawlen en fragmenten ervan aan te bieden aan gebruikers in het zoeknetwerk? Hoe zit het met het creëren van een cache van de pagina's die het indexeert, welke volledig kan worden weergegeven zonder te refereren aan de originele site? Of fragmenten van artikelen op nieuws- en aggregatorsites gebruiken?

Welnu, zeker andere mensen hebben over deze vragen nagedacht en de Google-zoekfunctie op internet verloor zojuist haar eerste bod om een ​​Belgische rechterlijke uitspraak waarbij Google een uitspraak moest publiceren waarin werd vastgesteld dat Google de auteursrechten van uitgevers schond door fragmenten van artikelen te reproduceren op haar Google Nieuws-aggregatieservice. In maart 2006 kwam Copiepresse met een zaak tegen Google die zijn Google News-service claimde op news.google.be en illegaal fragmenten van artikelen uit zijn Belgische nieuwsbronnen herdrukte zonder uitdrukkelijke toestemming. De rechter stemde ermee in - en Google weigerde om mee te delen dat Google binnen tien dagen content van de kranten in het Frans en de Duitse taal van Copiepresse zou verwijderen van de Belgische nieuwswebsite van Google of een boete van 1 miljoen euro per dag zou betalen. Google moest ook de tekst van de uitspraak publiceren op zowel de Belgische homepage van Google als de Belgische nieuwssite of een boete betalen van € 500.000 per dag. Google heeft de nieuwsbronnen verwijderd van zijn nieuwssites en index, maar heeft geweigerd de tekst van de uitspraak te plaatsen, daarbij verwijzend naar de enorme publiciteit die de zaak al heeft ontvangen. Een beroep op de hele zaak is gepland voor 24 november 2006.

In veel opzichten komt de klacht van Copiepresse neer op toestemmingen. Zoekmachines zoals Google gaan ervan uit dat als een webpagina openbaar toegankelijk is, deze kan worden geïndexeerd, hoewel ze opt- robot.txt en geautomatiseerde middelen voor het opgeven van inhoud niet mogen worden geïndexeerd, zoals robot.txt en robots META-tags. Copiepresse (en de meeste auteursrechtwetgeving) werkt echter in de veronderstelling dat om inhoud opnieuw te publiceren of opnieuw te distribueren, eerst toestemming moet worden verkregen van de auteursrechthebbende. Copiepresse wil in het systeem van Google zijn, maar wil als uitgever worden gecompenseerd voor de waarde die hun inhoud aan Google biedt.

Daartoe lanceert de in Parijs gevestigde World Association of Newspapers (WAN) een geautomatiseerd contenttoegangsprotocol (ACAP) dat zou bepalen en specificeren hoe spiders van zoekmachines, nieuwsservices en andere crawlers inhoud van uitgevers zouden kunnen openen en gebruiken, waaronder het specificeren van royaltyovereenkomsten en toegangsniveaus - in plaats van het eenvoudige opt-in of opt-out-model dat wordt geboden door het bestaande uitsluitingsbeleid.

Google en andere exploitanten van zoekmachines betogen dat hun aggregators en indexen een nuttige service bieden aan uitgevers van inhoud, waardoor internetgebruikers hun sites kunnen ontdekken en benaderen op manieren die niet alleen voor uitgevers mogelijk zijn. Sommige uitgevers beweren echter dat Google, MSN, Yahoo en anderen in wezen hun zoek- en aggregatiebedrijven hebben gebouwd door content van uitgevers te gebruiken zonder toestemming of compensatie.