Schlagwort-Archive: Suchmaschinen

Google antwortet auf EU-Vorwürfe

Bis zum 31.8. musste Googles Antwort auf das offizielle EU-Wettbewerbsverfahren eintreffen, jetzt haben die Juristen des Suchmaschinen-Riesen vier Tage früher “geliefert”. Und selbstverständlich ist trotz der zweimaligen Bitte um Fristverlängerung kein Hauch des Zweifels an der eigenen Position im Brief an die EU bzw. im Post auf dem Google-Blog ablesbar – die Vorwürfe seien völlig unbegründet; Google würde mitnichten den Wettbewerb behindern, sondern im Gegenteil die Verbraucherauswahl erweitern und die Geschäftsmöglichkeiten von Anbietern befördern.

Vor allem aber sei Google gar nicht Marktführer oder Monopolist im Bereich Preissuche/Webshop-Aggregatoren – und damit sei auch die ganze Diskussion um die Plazierung von Anzeigen hinfällig, argumentiert das Unternehmen einigermaßen plausibel. In der Tat ist die Rolle von Ebay und Amazon in dem Segment ja nicht ganz zu vernachlässigen 🙂

Auch wenn Google sicherlich nicht ein “Verbraucheranwalt” ist – die Beschwerdeführer sind es auch nicht. Für den einigermaßen aufgeklärten User dürfte klar sein, dass Anzeigen nicht zwangsläufig zu den besten oder billigsten Produkten führen, dass es andere Preissuchmaschinen gibt und Verbrauchertests. Und auch die lassen sich über Google finden. 🙂

Ein ganz andere, viel heiklere Frage wäre, ob es in den algorithmischen Suchtreffern von Google Manipulationen gibt. Das wiederum wäre extrem schwer oder gar nicht aufzuspüren – aber darauf gibt es weder Hinweise, noch ist dies Thema im laufenden EU-Verfahren.

DRadio Wissen – Schaum oder Haase vom 28.8.2015 (Moderation: Thilo Jahn)

Suchmaschinen – Manipulation könnte Wahlen entscheiden

Manipulationsvorwürfe an Suchmaschinenbetreiber – sprich, zuallererst an die Adresse von Google – gibt es nicht gerade selten. Das ist mal mehr, mal weniger nachvollziehbar.

Eine ganz wichtige Rolle bei der ganzen Angelegenheit spielt ja auch der manipulierbare User selbst – der aus Bequemlichkeit nur die ersten zehn Treffer anschaut und aus analogen Zeiten die intuitive Gewissheit mitbringt: Was oft erwähnt wird, ist wichtig. Und was in einer Liste oben steht, ist das Beste. Das gilt dann ebenso für die Suche nach Urlaubszielen oder Kartoffelsalat wie für die Suche nach Politikern.

Unentschlossene Wähler (und das sind ja die ganz besonders wichtigen und umworbenen Wähler…) lassen sich offenbar allein schon durch die Reihenfolge von Suchmaschinentreffern beeinflussen, zu welcher Kandidatin oder welchem Kandidaten sie nach einer Netzrecherche tendieren. Wer also diese Reihenfolge manipuliert, kann Politik machen – und zwar ohne dass eine realistische Chance geben würde, die Manipulation zu bemerken oder nachzuweisen.

Wie stark das Beeinflussungspotential ist, hängt von einer Reihe von Faktoren ab – aber der Effekt ist statistisch signifikant, so das Fazit einer Studie von Robert Epstein und Ronald E. Robertson – und zwar im Laborversuch wie in “freier Wildbahn”; bei einem Real-Experiment während der Wahlen 2014 in Indien. Die Autoren fordern letztlich eine behördliche Kontrolle oder Regulierung von Suchmaschinen; im Klartext: von Google (obwohl der Name in der Studie nicht auftaucht…).

Da ist es nicht ganz unwichtig, auf die Tatsache hinzuweisen, dass Robert Epstein Google exakt seit 2012 “auf dem Kieker hat” – damals hatte der Suchmaschinenriese Epsteins Website (wie sich im Nachhinein herausstellte, zu recht…) als mit Malware verseucht eingestuft und zeitweise quasi blockiert.

Studie zu Suchmaschinen – Google könnte Politik machen

Deutschlandfunk – Forschung aktuell vom 5.8.2015

Google nimmt Abschied von Google+- Zwangsrekrutierung

So richtig Klartext reden, wenn man etwas verbockt hat – das ist ja bei Firmen und höheren Chargen in Firmen traditionellerweise verboten. Stattdessen wird dann eine schlechte Nachricht oder das nicht mehr zu umgehende Eingeständnis eines Scheiterns in blumige, semantisch positiv anmutende Formulierungen verpackt. Und die Mitarbeiter bzw. die Beobachter machen ihre Kreuzchen auf ihrem Bullshit-Bingo-Zettel.

Man habe “das User-Feedback vernommen, dass der Zugang zu den verschiedenen Google-Services ohne den Zwang zu einem Google+-Account erheblich einfacher wäre” – und ja, “man müsse ein paar frühere Entscheidungen überdenken”. (Zum Beispiel die Entscheidung, dass für das simple Kommentieren eines YouTube-Videos ein Google+-Account notwendig sein soll…)

Säuselt Bradley Horowitz, bei Google für Streams, Photo und Sharing zuständig. Und trotzdem – der Mann hat vielleicht auch recht mit seiner positiv formulierten Vision für den (zumindest zahlenmäßig…) chancenlosen Konkurrenten zu Facebook: Google+ hat eine andere User-Klientel als Facebook, und es nutzt im Grunde auch nichts, dem Social Network unwillige Zwangsrekrutierte hinzuzufügen.

Zwar wäre im Sinne der Werbe-Vermarktungsmöglichkeit ein Google+-Account noch aussagekräftiger gewesen – aber auch wenn der “normale” (nicht durchsuchbare…) Google-Account zukünftig Dreh- und Angelpunkt der Google-Nutzung wird, hat der Konzern noch genügend Informationen über seine User.

Und obwohl Google grundsätzlich nicht zimperlich ist, gescheiterte Experimente zu beenden – Google+ ist noch nicht tot.

DRadio Wissen · Liveblog: Türkei, IS und neue Wege der Musikvermarktung

DRadio Wissen – Schaum oder Haase vom 28.07.2515

Von Yelp finanzierte Studie kritisiert Google

“Google manipuliert Suchergebnisse und enthält seinen Nutzern die eigentlich optimalen Trefferlisten vor”: Der Vorwurf klingt erst einmal gewichtig, zumal er von zwei ernstzunehmenden Professoren, Michael Luca von der Harvard Business School und Tim Wu von der Columbia Law School erhoben wird – beide haben sich als Befürworter der Netzneutralität profiliert. Betrachtet man dann allerdings, wer die Studie finanziert und unterstützt hat, kommt einem die Sache schon wieder etwas zweifelhafter vor: Das Empfehlungsportal Yelp nämlich hat in den Geldbeutel gegriffen und präsentiert das Ganze auf einer eigens eingerichteten Website: „Focus on the user. Google+ is hurting the Internet. Europeans have the power to stop it.“

Daher also weht der Wind – aus der gleichen Lobby-Ecke, die kürzlich die EU-Kommission zum Jagen getrieben hat. Methodisch überzeugt die Studie auch nicht unbedingt – sie konzentiert sich auf die Ergebnis-Präsentation bei lokalen Suchanfragen. Ob mündigen Internet- und Suchmaschinennutzern die Werbungs-Platzierung wirklich so wichtig ist wie den Forschern und ihren Auftraggebern, darf bezweifelt werden. Denn solche Nutzer können eine Anzeige (oder einen “gesponserten Eintrag”) von einem algorithmisch ermittelten Treffer unterscheiden – und wissen auch, dass nicht die Schuhwerbung ganz oben auf der Seite zwangsläufig das günstigste Angebot ist, sondern dass man hier u.U. auch mal auf einer Preisvergleichs-Seite nachschauen kann…

Liveblog: Beate Zschäpe und ihre Pflichtverteidiger – “Ich fühle mich geradezu erpresst”

DRadio Wissen – Schaum oder Haase vom 30.6.2015

Google Trends ab sofort in Echtzeit

Die meisten Internet-User nehmen “Google Trends” wahrscheinlich nur einmal im Jahr wahr – wenn nämlich die Hitliste mit den häufigsten Suchanfragen der abgelaufenen 12 Monate durch die Agenturen geht. Für Journalisten, Trendforscher oder Wissenschaftler hingegen ist das zusammengerührte Abbild aus der Nutzer-Wissbegierde einerseits und der emsigen Durchforstung des Netzes durch den Googlebot andererseits eine sehr ernstzunehmende Datenquelle.

Ab sofort werden die Google Trends in Echtzeit aktualisiert und präsentiert – zudem hat das Unternehmen auch die Aufbereitung neu gestaltet: Die Startseite bietet eine Themen-Gruppierung, die sich nach “Ressorts” wie Politik, Sport, Wirtschaft oder Unterhaltung aufschlüsseln lässt – oder natürlich auch nach Regionen. Letztlich reagiert Google damit auch nach eigener Auskunft auf die Wünsche von Journalisten – der heilige Gral des tagesaktuell arbeitenden Berichterstatters wäre natürlich eine Applikation, die aus den unzähligen Quellen im Netz; aus Nachrichtenseiten, Social Media und sonstigen privaten Quellen neue und relevante Themen quasi im Alleingang identifiziert.

So ganz automatisch funktioniert das trotz technischer Feinheiten wie semantischer Suche zur Zeit noch nicht, selbst nicht bei einer Firma mit so universell zusammengetragenem Datenmaterial wie Google. Aber wer Trends identifizieren kann, der kann auch Trends setzen – und gegebenenfalls in bare Münze verwandeln. Auch Apple ist auf dieser Schiene unterwegs und sucht gerade nach Journalisten, die unwesentliches und wesentliches auseinanderklamüsern – zumindest solange, wie die Algorithmen noch zu blöd dazu sind 🙂

DRadio Wissen · Liveblog: Griechenland, Hacking im Sport, Flüchtlinge

DRadio Wissen – Schaum oder Haase vom 18.06.2015

Google droht ein EU-Strafverfahren

Für Google wird es eng – die neue EU-Kommission sieht zumindest in einigen Bereichen ein wettbewerbswidriges Verhalten des Suchmaschinen-Marktführers und Werbe-Giganten. Offenbar haben die Lobbying-Bemühungen von Akteuren wie der Axel-Springer-Gruppe sich ausgezahlt – wobei natürlich auch Google selbst politische Meinungspflege betreibt 🙂

Immerhin waren aber die Vorwürfe von Kommissarin Margrethe Vestager (wie sich dann nach der Sendung herausstellte) deutlich weniger umfassend als zunächst erwartet (bzw. von Google befürchtet…) – Google hat jetzt Zeit für eine Stellungnahme. Und danach schlägt die große Stunde der Anwälte – bis zu einer eventuellen endgültigen Entscheidung oder gar Strafzahlung kann die Netz- und Werbelandschaft schon wieder ganz anders aussehen als heute.

DRadio Wissen · Liveblog: Malta schummelt beim EU-Bio-Siegel.

DRadio Wissen – Schaum oder Haase vom 15.04.2015

TV-Doku: Nicht viel neues über Googles Macht

“Die geheime Macht von Google” – das war der Titel einer TV-Doku, die am 1.12. im ersten Programm lief. So ganz viel Geheimes oder Neues hat sich mir beim Anschauen allerdings nicht erschlossen. Googles Suchergebnisse sind nicht “objektiv” – stimmt, aber das war auch schon vor neun Jahren klar, als ich auch mal ein Feature zu dem Thema gemacht habe. 🙂

Die im Film als “Ankläger” auftretenden “Internetunternehmer” haben Probleme mit dem Giganten, die zwar individuell nachvollziehbar sind, von denen aber reichlich unklar ist, ob sie auch für die Masse der Netz- und Googleuser ebenfalls ein Problem sind: Der eine verkauft bzw. lizensiert Landkarten-Infos, und hat durch Google Maps eine übermächtige Konkurrenz bekommen. Das ist traurig für ihn, aber die Masse der Anwender freut sich natürlich, dass sie nicht mehr für ein auf einem Blog eingeblendetes Wegbeschreibungs-Schnipselchen abgemahnt und zur Kasse gebeten werden. Vielleicht sind die Google Maps auch dazu noch einfach hübscher als seine 😉 – die Frage ist halt, ob es eine ewige Weiterbestands-Garantie für einmal erfolgreich gewesene Geschäftsmodelle gibt.

Der zweite Unternehmer beklagt, seine Anzeigen würden gegenüber den von Google selbst geschalteten benachteiligt – das ist natürlich aus Kunden- oder Usersicht eine recht spezielle Diskussion, denn die allermeisten Leute interessieren sich ja eh nicht für die Werbung oder empfinden die sogar als störend – und wenn man dann doch gezielt nach einem Produkt sucht, dann wird man seine Kaufentscheidung vielleicht nicht an der Reihenfolge der oben rechts angezeigten Bildchen festmachen, sondern eher eine Recherche in einer Preissuchmaschine in Betracht ziehen. Außerdem beklagt der Mann, sein Ranking in der algorithmischen Suche sei nach einer Änderung des Google-Algorithmus plötzlich schlechter geworden. Möglicherweise war sein Ranking im Vergleich zu seiner tatsächlichen Relevanz aber vorher auch “zu gut”, soll heißen, durch Suchmaschinenoptimierer (SEOs) nach oben manipuliert worden? Die SEO-Aktivitäten und Manipulations- und Spam-Aktivitäten sind natürlich auch seit jeher der Grund, warum der Google-Suchalgorithmus niemals völlig transparent offengelegt werden kann.

Dass eine Lehrerin, die offenbar auch mit ihren Schülern über Computer und Netz spricht, von der Sammlung der eigenen Daten bei Google Dashboard überrascht ist (wo man die Historie ja auch wieder löschen kann…) – na ja… Dass ihre Schülerinnen die Schuhwerbung oben rechts auf der Googleseite angeblich nicht als Werbung erkennen bzw. unterscheiden können (von was eigentlich, von einem Lexikonartikel oder einer Foto-Doku ???), das ist schon eine geistige Bankrotterklärung 🙁

So bleibt eigentlich nur die Feststellung wie schon in der Diskussion im EU-Parlament letzte Woche: Google hat mittlerweile eine Monopolstellung, und damit die Pflicht, die Konkurrenz auch entgegen dem direktem eigenen wirtschaftlichen Interesse “zu Wort kommen zu lassen”. Eine Bevorzugung der eigenen Dienste im algorithmischen Teil der Suchmaschine ist also z.B. sicher nicht in Ordnung. Die richtige Balance auszuloten, was wettbewerbsrechtlich fair ist, ist eine heikle Aufgabe für Politik und Justiz – auf jeden Fall ist nicht jeder, der aus ganz individuellem Geschäftsinteresse (weiteres Stichwort: “Leistungsschutzrecht”…) gegen Google zu Feld zieht, schon gleich ein Netz-Freiheitskämpfer 😉 …

Und das sehen offenbar auch ein paar andere “Rezensenten” der ARD-Doku ganz ähnlich.

DRadio Wissen · Liveblog: Burka.

DRadio Wissen – Schaum oder Haase vom 2.12.2014

Was heißt hier relevant?

Von News-Aggregatoren, Social-Media-Tools und dem Aufstöbern nützlicher Informationen im Web.

Menschen, die ganz genau wissen, was sie wollen, haben es leicht – auch im Netz. Wer da zum Beispiel ganz konkret benennen kann, wonach er sucht, dem schaffen Google und Bing in Sekundenbruchteilen Antworten herbei. Je konkreter die Suchanfrage ist, umso besser, und das klappt auch bei “brandheißen”, ganz aktuellen Entwicklungen – die Suchmaschinen-Spider klappern die großen Nachrichtenseiten mittlerweile im Minutenrhythmus ab. Für Menschen, die nicht so ganz genau wissen, was sie wollen, ist alles etwas komplizierter – auch im Netz. Denn mit der Fragestellung “was passiert gerade, worüber wird gerade gesprochen und was ist davon für mich persönlich interessant?” kann man einer Suchmaschine nicht kommen – noch nicht. Dabei ist eine solche “unkonkrete” Erwartungshaltung mittlerweile nicht mehr die Ausnahme, sondern völlig normal – für alle jedenfalls, die das Internet als zentrales Informationsmedium nutzen. Theoretisch ist das aktive Suchen ja ohnehin überholt, ganz im Sinne der legendär gewordenen Formulierung eines amerikanischen College-Studenten aus dem Jahre 2008: “Wenn eine Nachricht wirklich wichtig ist, wird sie mich finden.” Eine der vielen möglichen Interpretationen des Ausspruchs: Die Information wird dann irgendwann über Facebook oder Twitter hereinkommen – und das eben nicht nur, wenn sie einfach populär ist, sondern auch dann, wenn ein Bekannter denkt, sie könnte interessant für einen sein. Die Multiplikations- und die Filterwirkung der sozialen Netzwerke erzeugt also automatisch ein zusätzliches Relevanzkriterium; gewissermaßen ein personalisiertes “Relevanz-Tag” zu einer Nachricht. In der Tat bietet sich damit der vielversprechendste Ansatz, den “unkonkreten” Zugriff auf (vermutlich …) relevante Informationen und Themenfelder im Netz einigermaßen automatisiert und strukturiert in den Griff zu bekommen. Ein Kandidat für Verbesserungen wäre ja der RSS-Newsreader, nach wie vor das Mittel der Wahl, um sich zumindest schnell einen Überblick zu verschaffen. Normalerweise sieht man dort nur Nachrichten aus Quellen, die man abonniert, also vorher explizit ausgewählt hat. Zusätzliche RSS-Feeds aus Twitter und Facebook bringen zwar theoretisch den erwünschten Blick über den Tellerrand – aber egal ob beiden grafisch nett gemachten Applikationen wie Flipboard oder Pulse für das iPad oder bei Web-Lösungen wie Google Reader und Varianten: Alles läuft hier nebeneinander her, es fehlt die thematische Gruppierung – die auf einen Blick klarmachen könnte, welche Nachrichten gerade “heiß” sind, wo Beziehungen zwischen verschiedenen Netzquellen bestehen, worüber möglicherweise gerade in Blogs diskutiert wird. Semantisches Clustering ist aber ganz und gar nicht trivial; die zusätzliche “Würzung”, sprich die Gewichtung mit Relevanz-Indikatoren aus dem “social graph” erst recht nicht. Der Newsreader Fever, den man sich auf einem Webserver installieren muss, erkennt und sortiert Themen wenigstens dann, wenn verschiedene Quellen untereinander verlinkt sind. Das interessante Projekt “Tattler”, eine Drupal-Anwendung, die ebenfalls auf einem eigenen Server eingerichtet werden muss, scheint bedauerlicherweise eingeschlafen zu sein. Soll ein “intelligenter” News-Sammler nicht nur als private Webserver-Anwendung für wenige Personen, sondern als öffentlicher Web-Service laufen, dann drohen zudem sehr schnell massive Server-Kapazitätsprobleme. Das von der deutschen Web-Community als Nachfolger des Blog-Aggregators Rivva herbeigesehnte Newshype.de scheint zumindest keine “leichte Geburt” zu sein; ambitionierter und weiter ist man beim amerikanischen Xydo. Die neuen Aggregatoren werden dringend gebraucht – und sind eigentlich schon von Anfang an chancenlos: Während die Neuankömmlinge an Bewertungsalgorithmen herumschrauben, eigene Bots auf die Reise schicken oder APIs anzapfen, haben Google und Bing schon längst alles Nötige beisammen – auch für Surfer ohne konkrete Suchanfrage.

(Dieser Text erschien als “Netz.Blick” in der Zeitschrift “Digital”, Ausgabe Juli/August 2011.)

Google und Konsorten – über die Gatekeeper des Internets

Ob einst in der Bibliothek von Alexandria mit ihren 500.000 Büchern, ob heute im “World Wide Web” mit seinen über 600 Milliarden Seiten: Wer nicht weiß, wo eine bestimmte Information zu finden ist, der steht vor dem angehäuften Weltwissen wie der sprichwörtliche Ochs vor dem Berge.

Die Macht der kenntnisreichen Bibliothekare von einst ist heutzutage auf die Internetsuchmaschinen übergegangen: Was sie für uns finden, was sie uns zu lesen geben, das prägt unseren Blick auf die Welt.

Ist das Vertrauen, das wir tagtäglich in Google und Konsorten setzen, eigentlich gerechtfertigt? Wie funktionieren die modernen Gralshüter des Wissens? Wer entscheidet darüber, was wir zu sehen bekommen?

Werden wir informiert – oder manipuliert?

Google und Konsorten

Deutschlandfunk – Hintergrund Kultur vom 9.12.2005

Suchmaschinenoptimierung: Faule Eier bei Google

Nur die allerwenigsten User schauen sich bei einer Suchmaschine die Treffer auf der zweiten oder dritten Seite der Ergebnisliste an – und das heißt für Leute, die im Netz Geld verdienen wollen: Nur ein Platz in den Top Ten ist ein Platz an der Sonne. Um eine Webseite im Ranking möglichst weit nach oben zu bugsieren, kann man Suchmaschinenoptimierer (SEOs) beauftragen – zwischen Optimierung und Manipulation ist allerdings ein reichlich schmaler Grat.

Faule Eier bei Google (Archiv).

Deutschlandfunk – Computer und Kommunikation vom 11.1.2003