Wieso du nur mit Google suchst

Wieso du nur mit Google suchst

, etwa %minutes% Minuten Lesedauer

Kürzlich sagte mir die Linken-Spitzenpolitikerin Sahra Wagenknecht im Interview: „Ich denke, dass es nicht so schwierig ist, eine ähnlich effektive Suchmaschine wie Google zu entwickeln.” Wagenknecht hat dann vorgeschlagen, Universitäten und andere öffentliche Einrichtungen dafür zu fördern, eine Google-Alternative auf den Weg zu bringen.

Völlig absurde Idee, dachte ich, aber ein interessantes Thema.

Welche Möglichkeiten habe ich denn heute, im Internet zu surfen, ohne dass meine Nutzerdaten – also wann ich wo war und mit wem ich geredet habe, was ich gekauft und was ich angeguckt habe – jahrelang gespeichert werden, abrufbereit für Geheimdienste und Werbekunden?

Google hat mit seinen genialen Diensten unser Leben verändert und das längst auch in der analogen Welt. Google ist auch deshalb so gut, weil es unfassbar viele Daten von uns sammelt – ob wir das wollen oder nicht. Es kennt unsere Vorlieben, manchmal kreiert es sie auch erst.

Auf jeden Fall hat das Unternehmen aus Kalifornien heute ein absolutes Monopol darauf, wie wir ins Internet gehen, das rechtlich gesehen immer noch eine Art World Wide West ist.

Aber was genau hat Google besser gemacht als seine Konkurrenten? Und wie funktioniert eine Suchmaschine eigentlich? Diese Frage habe ich mir noch nie gestellt, dabei nutze ich Google so gut wie jeden Tag, privat und beruflich.

Für mich war das Thema also komplett neu, ich kannte auch keine einzige alternative Suchmaschine. Also habe ich die Krautreporter-Community gebeten, mir zu helfen. 22 Leser haben mir ihre Erfahrungen mit einem Dutzend verschiedener Google-Alternativen geschildert.

Ein Leser hat sogar selbst eine Suchmaschine entwickelt, sie war eine der ersten ihrer Art, und es gibt sie bis heute. Sie heißt MetaGer, und mit ihrem Erfinder, Wolfgang Sander-Beuermann, habe ich ausführlich gesprochen.

Dabei habe ich drei Dinge gelernt:

  • Es gibt heute keine Alternative zu Google (mehr).
  • Die alternativen Suchmaschinen sind überhaupt keine Suchmaschinen.
  • Sahra Wagenknecht hat recht.

In den Anmerkungen (die kleinen Sprechblasen) habe ich einige wichtige Begriffe erklärt und zusätzliche Infos ergänzt.


Herr Sander-Beuermann, ich habe bei verschiedenen Suchmaschinen nach dem SPD-Kanzlerkandidaten Martin Schulz gesucht und die Ergebnisse verglichen. Und dann wollte ich natürlich auch wissen, ob mein eigener Schulz-Artikel bei Krautreporter unter den Ergebnissen ist. Bei MetaGer habe ich ihn nicht gefunden. Warum nicht?

Das könnte daran liegen, dass es ihr Artikel bei den anderen Suchmaschinen nicht unter die ersten 20 Ergebnisse geschafft hat. Von unseren eigenen Crawlern (siehe Anmerkung) weiß ich gar nicht, ob die Krautreporter erfassen. Aber falls das nicht so ist, werde ich das gleich mal veranlassen.

Crawler sind Programme, die bestimmte Teilbereiche des Internets absuchen. Sie machen im Grunde das, was auch Menschen machen, wenn sie sich von Webseite zu Webseite klicken. Sie gucken nach, was hinter jedem Link steckt. Dabei sammeln sie alle Webseiten-Adressen und übertragen sie auf den eigenen Server, auf dem das Programm läuft.

In einem nächsten Schritt werden die Webseiten indexiert. Das ist eine ähnliche Leistung, die auch der Index in einem Buch vollbringt: Für jedes Wort im Text wird eine Liste dafür angelegt, wo dieses Wort vorkommt. Wenn du eine Suche startest, suchst du nicht auf den Webseiten nach, sondern im Index.

Google hat den Suchmaschinenmarkt revolutioniert, als es 1998 diese Indexierung ergänzte: Es gewichtete die Suchergebnisse nun zusätzlich danach, wie wichtig die Webseite ist, auf der ein bestimmtes Wort vorkommt. Die Wichtigkeit ist danach bestimmt, wie viele Seiten auf eine Seite verlinken. Dieser heute befremdlich euphorisch wirkende Artikel aus dem Jahr 2003 erzählt Googles einzigartige Erfolgsgeschichte detailliert nach.

Das wäre nett. Und auch gleich ein typisches Beispiel dafür, wie ein redaktioneller Eingriff in den Algorithmus einer Suchmaschine aussieht, oder?

Ja, genau. Jemand sagt, es wäre doch besser, wenn die Krautreporter in unseren Suchergebnissen weiter vorne erschienen, und dann setzen wir uns hin und programmieren das entsprechend.

Wie kamen Sie überhaupt auf die Idee, eine Suchmaschine zu entwickeln?

Das war 1996. Damals gab es etwa zehn Suchmaschinen, aber keine war auch nur annähernd vollständig. Oft musste man alle zehn nacheinander absuchen, um etwas zu finden. Ich dachte mir: Da kann man doch was programmieren, damit man das nicht manuell machen muss. Das haben wir dann an der Uni Hannover auch getan.

Es gibt auf der Welt eigentlich nur noch vier originäre Suchmaschinen: Google; Yahoo und Bing, die zusammen einen Index betreiben; Baidu aus China und Yandex aus Russland. Alle anderen leben hauptsächlich von deren Datenbeständen.
Wolfgang Sander-Beuermann

Es war die Geburtsstunde von MetaGer, und Anfang der 2000er-Jahre hatten wir täglich bis zu 500.000 Suchanfragen. Durch Werbung haben wir zudem ordentlich Geld verdient für die Uni. So kann ich von mir sagen, dass ich einer der wenigen Beamten war, die ihre Stelle selber finanziert haben. Vor fünfeinhalb Jahren hat die Uni dann gesagt, MetaGer brauchen wir nicht mehr. Seitdem betreiben wir die Suchmaschine als gemeinnütziger Verein.

Wie viele Suchmaschinen gibt es heute?

Damals war eine Meta-Suchmaschine, wie wir sie sind – also eine, die andere Suchmaschinen absucht –, die große Ausnahme. Heute ist es umgekehrt: Es gibt sehr, sehr viele Meta-Suchmaschinen, aber es gibt auf der Welt eigentlich nur noch vier originäre Suchmaschinen: Google; Yahoo und Bing, die zusammen einen Index betreiben; Baidu aus China und Yandex aus Russland. Das sind die einzigen Suchmaschinen, die einen einigermaßen vollständigen globalen Index haben. Alle anderen – wie MetaGer oder DuckDuckGo – leben hauptsächlich von den Datenbeständen der anderen. Und haben eventuell noch eigene kleine Crawler.

Wie viele eigene Crawler haben Sie denn?

Etwa 20. Die Anzahl ändert sich je nach Bedarf und Ressourcen. Das hängt zum Beispiel von der Serverkapazität ab, die uns zur Verfügung steht, oder von der Stabilität der Software. Man kann das nicht alles selber programmieren, sondern man nimmt fertige Softwarelösungen. Was wir selbst programmieren, ist die Zusammenführung der Ergebnisse. Wir kriegen von 20 eigenen und noch circa 30 fremden Quellen Ergebnisse geliefert. Und die müssen sinnvoll zusammengemischt werden. Das ist ein wesentlicher Programmieraufwand.

Wolfgang Sander-Beuermann hat 1996 die Suchmaschine MetaGer entwickelt

Bernd Schwabe/CC BY-SA 3.0

Die Abfrage dieser 50 verschiedenen Quellen darf möglichst nicht länger als eine Sekunde dauern. Das heißt, diese Abfragen können nicht nacheinander, sondern müssen parallel gemacht werden, und die Datenflüsse, die zurückkommen, müssen so gemischt werden, dass möglichst auch bei uns das Wichtigste an erster Stelle steht. Und hier stehen wir vor dem Grundproblem: Wer entscheidet, was das Wichtigste ist? Es gibt immer Algorithmen, und die sind immer auch fehlerhaft – bei uns ebenso wie bei Google.

Das bringt mich auf die Frage der Personalisierung von Suchergebnissen. Je nachdem, auf welche Suchergebnisse ich in der Vergangenheit geklickt habe, macht Google Annahmen über meine Interessen und gibt mir in Zukunft mehr von dem, was dazu passt. Dadurch unterscheiden sich meine Ergebnisse von denen, die andere Menschen zu sehen bekommen. Google steckt mich in eine Filterblase. Wie verhindern Sie das bei MetaGer?

Die Filterblase ist ein schwieriges Kapitel, das auch noch nicht abschließend beantwortet wurde. In unseren Algorithmen werden keine Filterblasen gebildet. Weil bei uns die Ergebnisse nicht personalisiert werden und nicht davon abhängen, was Sie oder jemand anderes vorher gesucht haben. Aber da wir die Abfragen der anderen durchreichen, kriegen wir auch die Filterblasen der anderen indirekt mitgeliefert, ob wir wollen oder nicht. Einer unserer Hauptlieferanten ist Yahoo.

Wenn bei Yahoo sehr viel nach Krautreporter gesucht werden würde, dann wären sie in der Yahoo-Filterblase sehr weit vorne, wenn das nicht der Fall ist, ist das nicht so. Insofern kriegen wir die Filterblasen in den Gebieten, wo wir keine eigenen Crawler haben, unabsichtlich mitgeliefert. Dagegen kann die reine Meta-Suchmaschine auch gar nichts tun.

Als Einführung zu dem von Eli Pariser geprägten Begriff der Filterblase empfehle ich den Wikipedia-Artikel dazu. Er geht auch darauf ein, dass die Filterblase eigentlich ein normales Phänomen ist, das es auch außerhalb des Internets gibt.

Wie wichtig ist denn das Personalisieren von Suchergebnissen überhaupt, um eine gute Suchmaschine zu betreiben?

Nach unserer Einschätzung ist das Personalisieren (siehe Anmerkung) sogar schädlich. Wenn Suchergebnisse personalisiert werden, bekomme ich die bevorzugt angezeigt, auf die ich schon immer geklickt habe, das heißt, mein Weltbild wird immer enger. Wir erleben es manchmal, dass Leute zu uns kommen und sagen: Bei Google steht meine Seite immer an erster Stelle, bei euch ganz weit hinten – wieso das denn? Natürlich stehen die bei Google an erster Stelle, weil die Leute oft auf ihre eigenen Seiten klicken, und dann rutschen die immer weiter nach oben in den Suchergebnissen, aber schon beim Nachbarn stehen sie nicht mehr dort.

In der Laudatio des Big Brother Awards, der 2013 an Google verliehen wurde, sind die wichtigsten Kritikpunkte an Googles Sammelwut pointiert zusammengefasst.

Was bei dem Google-Algorithmus für das Autovervollständigen passiert, weiß auch keiner genau. Wie bei all den anderen Google-Algorithmen auch. Wir vertreten da eine andere Philosophie, nämlich Open Source. Jeder kann nachlesen, was wir programmiert haben. Was Google genau macht, weiß hingegen kein Mensch.

240 Millionen Euro ist in etwa die Summe, mit der man rechnen muss, wenn man einen europäischen Index zusammenstellen will.
Wolfgang Sander-Beuermann

Wie sind die Suchergebnisse bei Ihnen gerankt, wenn Sie nicht personalisieren?

Das ist so kompliziert, das verstehe ich mittlerweile im Detail ohne Weiteres auch nicht mehr. Da müsste ich in den Quellcode gucken. Das Ranking bei einer Metasuchmaschine kann aber nicht nach so vielen Kriterien geschehen wie bei einer Suchmaschine. Wir sehen vom Ergebnis die Überschrift, die Webadresse sowie eine Kurzbeschreibung bei dem jeweiligen Treffer. Und wir wissen, an welcher Stelle das Ergebnis bei der jeweiligen Suchmaschine gestanden hat. Das sind vier Kennzahlen und daraus können wir etwas mixen. Nach Worthäufigkeiten zum Beispiel, wenn ein Suchwort in der Beschreibung und in der Überschrift vorkommt und bei einer Suchmaschine ganz weit vorn gelistet ist, dann scheint es etwas Wichtiges zu sein. Das sind so Faktoren, die bei uns einfließen. Aber auch das ändert sich bei uns fast täglich.

Was machen Ihre 20 eigenen Crawler genau?

Unsere eigenen Crawler konzentrieren sich auf Teilbereiche deutschsprachiger Seiten. Selbst das deutsche Internet ist für uns noch eine Nummer zu groß. Wir sind ein Verein mit etwas mehr als 200 Mitgliedern, wir haben acht Mitarbeiter in der Geschäftsstelle, davon etliche in Teilzeit. Crawler sind ein Heidenaufwand. Google betreibt 20 Rechenzentren rings um die Welt, hat 50.000 Angestellte, dagegen kann man als gemeinnütziger Verein nicht konkurrieren.

Welche Teilbereiche des deutschen Internets bearbeiten ihre Crawler und warum haben Sie sich für diese entschieden?

Wir kommen aus einer Uni, von daher sind die akademischen Inhalte für uns ein Schwerpunkt. Jetzt gerade vor der Bundestagswahl haben wir einen Crawler in das politische Umfeld gesetzt. Wir entscheiden das bei Vereinstreffen, was ist seriös, was wollen wir uns anmaßen. Wir sind nicht diejenigen, die unterscheiden wollen, was Fake News sind und was nicht, aber wir wollen eine möglichst breite Datenbank zur Verfügung stellen. Heute haben wir einen neuen Crawler eingebaut für das Themengebiet News/Politik, der gezielt nach Tweets im Zusammenhang mit der Bundestagswahl sucht. Dahinter verbirgt sich eine ganze Reihe von Twitterern, deren Nachrichten wir erfassen und über den Index auffindbar machen. Der gleiche Crawler durchsucht zum Beispiel auch Bundestagsdrucksachen.

Das heißt, erstmal braucht man einen vernünftigen Index, um dann eine sinnvolle Suchmaschine anbieten zu können?

Ja. Derzeit sind nur vier Suchmaschinen global unterwegs. In Europa gibt es gar keinen eigenen solchen Index zurzeit. Wir versuchen seit zwei, drei Jahren, eine politische Empfindlichkeit dafür zu schaffen, dass die europäische Digitalwirtschaft so etwas nicht hat, alle Firmen aber davon abhängig sind, dass es einen solchen Index gibt.

Wir brauchen keine europäische Suchmaschine. Wir brauchen die Dateninfrastruktur, eigene Crawler und Indexer. Daraus könnte man dann eine europäische Suchmaschine bauen, aber eben auch noch ganz andere Internetdienste – wie Kartendienste, Vergleichsportale und Webanalysen.
Wolfgang Sander-Beuermann

Sie sagen damit auch: Es wäre gar nicht so schwer, Google nachzumachen. Nur die Ressourcen fehlen?

Die Ressourcen sind gar nicht unbedingt das Problem. Vor sieben Jahren gab es mal ein europäisches Vorhaben. Es nannte sich Quaero und wurde maßgeblich von Deutschland und Frankreich finanziert, aber da ist nichts Fassbares bei rausgekommen. Etwa 240 Millionen Euro sind dabei verbrannt worden. Das ist in etwa die Summe, mit der man rechnen muss, wenn man einen europäischen Index zusammenstellen will.

„Werbung von Yahoo“, steht hinter manchen Links, die ich von MetaGer zwischen den Suchergebnissen angezeigt bekomme – wie kommt das auf Ihre Seite?

Wir brauchten einen Werbepartner, um uns zu finanzieren. Werbung für Suchmaschinen wird heute nur noch von Google, Microsoft und Yahoo angeboten. Google und Microsoft verlangen, dass man bei Einblendung der Werbung die Nutzerdaten mitliefert. Das ist für uns nicht akzeptabel. Wenn Yahoo aus diesem Geschäft aussteigen würde, hätten wir ein massives Problem. Das ist fatal und ein weiterer Grund dafür, dass es in Europa einen offenen europäischen Webindex geben müsste, und zwar nach europäischen Datenschutzstandards. Dann müsste jeder, der ihn nutzt, ob als Firma, Anwender oder Programmierer, unterschreiben, dass er die Datenschutzbestimmungen akzeptiert und respektiert.

Der Dokumentarfilm Democracy - Im Rausch der Daten von David Bernet zeigt, wie kompliziert der Weg zu einem solchen europäischen Datenschutzstandard ist.

Aber das Verständnis dafür ist in der Politik unheimlich schwer zu wecken. Was häufig noch kommt ist, zuletzt von Sigmar Gabriel: Wir brauchen eine europäische Suchmaschine. Aber das ist gar nicht der Punkt! Wir brauchen keine europäische Suchmaschine. Wir brauchen die Dateninfrastruktur, eigene Crawler und Indexer. Daraus könnte man dann eine europäische Suchmaschine bauen, aber eben auch noch ganz andere Internetdienste – wie Kartendienste, Vergleichsportale und Webanalysen.

Es gibt etliche Firmen, die aus Google-Index-Daten weitere Anwendungen bauen – das ist das, was wir für Europa auch brauchen: die Dateninfrastruktur. Eine europäische Suchmaschine allein? Okay, dann hätten wir statt vier eben fünf große auf der Welt. Das hilft uns nicht weiter. Wir brauchen Nährboden, aus dem sich Internet-Start-ups entwickeln können und auch was völlig Neues entwickeln können.

Sander-Beuermann: Dass Firmen direkt bei Metager Werbung schalten, ist die große Ausnahme. Das Problem ist: Wenn man Werbung in Suchmaschinen anzeigt, muss das irgendwie zu der Suchanfrage passen. Das heißt, die Suchwörter und das, was dann als Werbung angezeigt wird, müssen irgendwie zueinander passen. Der Werbende müsste praktisch ein Produktpalette haben, die so umfangreich ist wie das Wörterbuch der deutschen Sprache. Oder man müsste mit Abertausenden Unternehmen Werbeverträge abschließen, das ist für kleine Firmen nicht machbar.

Was das Optimale wäre: Pluralismus und Vielfalt wieder herstellen, das, was es in der Anfangszeit der Suchmaschinen schon mal gab, so ums Jahr 2000 herum, da gab es weltweit etwa 20 große Suchmaschinen und davon bestimmt sieben in Europa.
Wolfgang Sander-Beuermann

Muss das Monopol von Google zerschlagen werden und wenn ja, wie?

Nein, das ist keine Lösung. Man sollte nur da regulierend eingreifen, wo Google offensichtlich Missbrauch betreibt. Aber warum sollte man eine so gute Suchmaschine zerschlagen? Was Europa machen müsste, ist, eine eigene Infrastruktur aufzubauen, einen europäischen Webindex, mit dem europäische Webdienste, und dazu gehören auch Suchmaschinen, entstehen können. Was das Optimale wäre: Pluralismus und Vielfalt wieder herstellen, das, was es in der Anfangszeit der Suchmaschinen schon mal gab, so ums Jahr 2000 herum, da gab es weltweit etwa 20 große Suchmaschinen und davon bestimmt sieben in Europa.

Jede Suchmaschine liefert durch die Reihenfolge ihrer Suchergebnisse eine bestimmte Wichtigkeitseinschätzung mit, die in den Ranking-Algorithmen drinsteckt, darin fließt natürlich immer die Sichtweise der jeweiligen Betreiber ein. Darum sollte es möglichst viele und unterschiedliche Sichtweisen geben, damit man die digitale Welt nicht immer nur durch die selbe Brille sieht.

Ist das realistisch, wenn man sich das Nutzerverhalten betrachtet? Man will doch eigentlich nur eine Suchmaschine benutzen, nicht zehn?

Die Bedienung sollte bei allen fast gleich sein. Auch wir haben mittlerweile, obwohl ich mich früher immer dagegen gesträubt habe, unsere Abfragelogik und Syntax an das User-Interface von Google angeglichen. Google hat den Standard gesetzt, danach muss man sich letztlich auch richten.

Theoretisch kann ich doch auch bei Google meine Datenschutzbedingungen anpassen und einsehen, was ich von mir preisgegeben habe, und das mittlerweile sogar löschen.

Nicht wirklich. Google speichert alles. Erst, wenn man eineinhalb Jahre lang Google nicht ein einziges Mal benutzt hat, werden diese Daten gelöscht. Aber selbst ich benutze in eineinhalb Jahren ab und zu mal Google.

Sie sagen, MetaGer ist die einzige wirklich datensichere Suchmaschine der Welt? Was unterscheidet sie denn zum Beispiel von der derzeit beliebtesten Metasuchmaschine DuckDuckGo?

DuckDuckGo (DDG) ist genau wie Google ein US-amerikanisches Unternehmen. Die Server stehen in den USA und unterliegen damit der amerikanischen Rechtsprechung, zum Beispiel dem Patriot Act. Das heißt, wenn ein Geheimdienst bei DDG anklopft und sagt, er möchte irgendwo mitlesen, dann muss DDG das ermöglichen. Und zwar so ermöglichen, dass es nicht öffentlich wird. DDG darf nicht sagen, wenn es Geheimdiensten Daten seiner Nutzer weitergibt. Die Techniker von DDG mögen so ehrlich sein, wie sie wollen, und tun, was sie können, um Datenschutz zu gewährleisten. Aber das US-Recht ist nun mal anders. Das gleiche gilt für einen Teil der Server von Startpage, die in den USA. Die Technik mag so sicher sein, wie sie will. Das nützt nichts, wenn das regionale Recht ein anderes ist.

Wie kann der europäische Suchindex umgesetzt werden, ohne eine schlechte Kopie von Google zu sein?

Das Beste wäre, wenn man viele kleine Dienste, die bereit sind, eigene kleine Crawler laufen zu lassen, eigene Datenbanken zu betreiben, eigene Indexer zu haben, unter ein Dach bringen könnte und an verschiedenen Stellen durch Metasuchmaschinen zusammenführt. Eine dezentrale Suchmaschine praktisch, das wäre dann auch deutlich günstiger umzusetzen und etwas, das eher eine Aussicht auf Erfolg hat, als Versuche wie Quaero, wo auf einen Schlag mehrere Hundert Millionen Euro verbrannt wurden.

Das wäre ja auch ein Vorschlag, bei dem die Idee von Sahra Wagenknecht tatsächlich greifen würde, Unis oder andere Institute und Vereine zu fördern, damit sie Google-Alternativen entwickeln.

Ja, das wäre die Version einer verteilten europäischen Suchmaschine oder Dateninfrastruktur.


Bei meinem Selbstversuch mit anderen Suchmaschinen beziehungsweise, wie ich jetzt weiß, Meta-Suchmaschinen, habe ich gemerkt, dass sie vielleicht nicht ganz so gut funktionieren wie Google, man prinzipiell mit ihnen aber zurechtkommt. So sehen es auch die meisten Leser, die mir geschrieben haben.

Daniela nutzt zum Beispiel Ecosia, ein Start-up, das 2009 in Berlin gegründet wurde. Sie sagt: „Ich suche seit Jahren über Ecosia und kann nicht feststellen, dass irgendwelches Wissen an mir vorbeigeht. Im Gegenteil: Ich muss mich nicht mit Werbung rumschlagen und erstmal drei Seiten überblättern, um wirklich interessante Links zu finden. Durch meine Empfehlung sind schon sehr viele Bekannte und Freunde dahin gewechselt. Zudem stecken sie ihr Geld in Aufforstungsprojekte, auch das macht den Wechsel leichter.”

Suchen für den Regenwald

Ecosia ist ein gemeinnütziges Projekt und steckt 80 Prozent seines Einnahmeüberschusses in Projekte zur Aufforstung des Regenwaldes. Auf diese Art haben die Berliner bereits mehr als zwölf Millionen Bäume pflanzen lassen. Wer hingegen Wert auf Datenschutz legt, braucht bei Ecosia keine Wurzeln schlagen. IP-Adressen, Browserdaten und Suchanfragen werden an Yahoo und Google Analytics weitergeleitet.

Beliebteste Google-Alternative bei den Krautreporter-Lesern ist DuckDuckGo, ein amerikanisches Projekt, das angibt, keinerlei Daten zu speichern und seine Suchergebnisse aus rund 400 verschiedenen Quellen zu speisen, unter anderem ebenfalls von Yahoo. „Die Suchergebnisse sind im Alltag völlig ausreichend. Die gesuchte Seite ist meist der zweite Eintrag. Der erste Eintrag ist Werbung, aber immer nur auf die aktuelle Anfrage bezogen. Dass der Nutzer bei DuckDuckGo nicht getrackt wird, merke ich daran, dass mich frühere Suchen, oder gar Aktivitäten auf anderen Plattformen, nicht in Form von Werbung verfolgen”, schreibt KR-Leser Uwe. Andere Leser schildern, dass DuckDuckGo, wie andere (Meta-) Suchmaschinen, vor allem bei der Bildersuche im Vergleich mit Google eine lahme Ente ist.

Das Magazin t3n hat eine Liste mit den 30 besten (und witzigsten) Suchmaschinen erstellt, auch zu sehr speziellen Suchen, beispielsweise nach akademischen Inhalten oder Bilder-Rückwärts-Suchen.

KR-Leser Sebastian nutzt ebenfalls DuckDuckGo und beschreibt, warum das Problematische an Google eben oft auch das Besondere ist. „Die Abwesenheit einer Filterblase beziehungsweise das bewusste An-/Abstellen von sprachspezifischen Ergebnissen sind bei Wissensrecherche oft das, was ich mir wünsche. Verwendet man die Suchmaschine jedoch, um zum Beispiel Händler, Restaurants oder ähnlich lokale Informationen zu suchen, ist Google klar besser – hier ist ein persönlicher Filter exakt das, wonach man sucht.”


Rico Grimm bei der Erarbeitung des Textes geholfen. Vera Fröhlich hat gegengelesen. Martin Gommel hat das Aufmacherbild ausgesucht (iStock / martin-matthews). Herzlichen Dank an Jens, Christoph, Roland, Stefan, Lothar, Silke K., Achim, Silke J., Markus, Klaus, Sebastian, Cillian, Mario, Dorothea, Frank E, Frank H., Wolfgang, Uwe, Robert, Ruben, Daniela und Tobi, die ihre Erfahrungen mit alternativen Suchmaschinen geteilt haben!