Idealo sagt Pricebots den Kampf an

Captcha 1

 

 

 

 

 

 

 

 

 

 

 

 

Bildquelle: idealo.de | Screenshot vom 10.12.2012

Die hektische Welt vieler Online-Händler ist in diesen Tagen gewaltig aus den Fugen geraten. Pünktlich zum Weihnachtsgeschäft und dem für viele umsatzstärksten Quartal sagt Idealo den Pricebots den Kampf an und wirbelt damit das Pricing bei zumindest jenen Online-Händlern durcheinander, die bei ihrer dynamischen Preisoptimierung auf moderne  automatisierte Lösungen setzen.

Was ist passiert? Eine begriffliche Einordnung

Der Preis sowie die schnelle Reaktion auf Preisänderungen der Konkurrenz sind die wichtigsten Aktionshebel eines Online-Händlers. Um keine Marge zu verschenken und dem wachsenden Preisdruck im E-Commerce standzuhalten, ist der Einsatz ressourcenschonender automatisierter Verfahren – der Einsatz von Pricebots – unumgänglich.

Der Begriff „bot“ leitet sich von dem englischen Wort „robot“ ab und bezeichnet ein Computerprogramm, das automatisiert sich wiederholende Aufgaben erledigt und dabei nicht auf eine Wechselbeziehung zu einem Menschen angewiesen ist. Bekanntestes Beispiel sind die Bots der Suchmaschinen, die man in diesem Zusammenhang als „Webcrawler“ bezeichnet.

Und wie in der echten Welt unterscheidet man auch hier zwischen Gut und Böse – je nach Ziel und Aufgabe des Bots. Deutschlands führende Preisvergleichs-Plattform Idealo.de befand nun die sog. Pricebots offenbar für böse und hat der Suche via EAN kurzerhand ein Google-Tool vorgeschaltet – den „Google-Botguard“.

Hier bin ich Mensch, hier darf ich sein

Kommt der Nutzer auf einer Website an, auf der das Tool Google-Botguard eingebunden ist, so prüft dieses, ob er auf seinem Rechner ein Cookie installiert hat. Ist dies nicht der Fall, wird ein Fingerprint des Users erstellt (Bildschirmgröße und -auflösung, Datum, Sprache, Browser-Plug-Ins, IP-Adresse) und an Google übermittelt. Für den Fall, dass der Fingerprint nicht ausreichend Unsicherheit beseitigt, weil der Eingabevorgang aus Sicht des Tools zu automatisiert stattfindet (z. B. keine Mausbewegung, Mausbeschleunigung etc.), erfolgt die Zuordnung zu einem Crawler und es wird eine manuelle Bestätigung vom Nutzer eingefordert.

Bestätigt der Anwender durch einen Klick den Hinweis „Ich bin kein Roboter“, wird er im Anschluss dazu aufgefordert, ein Captcha zu lösen.

Die Abkürzung Captcha steht für Completely Automated Public Turing Test to Tell Computers and Humans Apart. Dabei handelt es sich kurz gesagt um einen Test, der Menschen von Computern unterscheiden soll.

Captcha 2

Bildquelle: idealo.de | Screenshot vom 10.12.2012

 

 

 

 

 

 

Der Nutzer hat aus einer Bildermatrix diejenigen Bilder richtig auszuwählen, die einem vorgegebenen Motiv, z. B. der Abbildung eines Steaks, entsprechen. Auf diese Weise löst er das Captcha und wird als Mensch akzeptiert.

 

Einbruch in die Privatsphäre

Was unter dem Deckmantel der Bot-Protection daherkommt, greift allerdings massiv in die Persönlichkeitsrechte ein und wirft grundsätzlich einige datenschutzrechtlich relevante Fragen auf:

1.    Das Tool „Google-Botguard“ kommt ohne die Zustimmung des Nutzers zum Einsatz – obwohl es in hohem Maße in dessen Privatsphäre eingreift

2.    Durch die Nutzung des Tools erhalten sowohl Google, als auch der Website-Betreiber Einblick in die Nutzungsgewohnheiten des Anwenders, ohne dass dies für die konkrete Nutzung erheblich ist.
Lt. Google ist die durchaus umstrittene Cursortracking-Methode zwar kein Problem, da die Nutzer lediglich ihr „Menschsein“ bestätigen müssten und nicht ihre Identität. Es stellt sich aber die berechtigte Frage, ob die getrackten Daten nicht doch zu gegebener Zeit und ohne weitere Einwilligung für andere Zwecke genutzt werden. Man muss dem US-Konzern schon ein hohes Maß an Vertrauen entgegenbringen.

3.    Die Nutzung von Google Analytics ist seit vielen Jahren in Deutschland datenschutzrechtlich umstritten. Ist das Fingerprinting der Anwender auf Google-Servern im Vergleich zu Analytics nicht in Wahrheit eine noch viel dramatischere Form des Trackings?

4.    Ist die Verhältnismäßigkeit von Ziel und Mittel noch gewahrt? Zur Erreichung des Ziels, einen Crawler von einem Menschen zu unterscheiden, macht das Tool den Anwender kurzerhand vollkommen gläsern.

Fazit

Ein Sicherheitskonzept, dass vor Spam-Robotern schützt (und dem Nutzer mehr Komfort bietet – so Google), ist grundsätzlich eine gute Sache. Im konkreten Fall wird allerding zur Verhinderung von Bots eine noch viel bedenklichere Maßnahme angewendet: massives User-Tracking auf Kosten der Privatsphäre aller!

Da das Tool bereits auf deutschen Websites genutzt wird, ist eine zeitnahe juristische Überprüfung durch die deutschen Datenschutzbehörden dringend geboten.

 

Dieser Beitrag wurde unter News veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s