All diejenigen, die in den 1990ern keinen Zugang zum Internet hatten und „erst“ in den letzten 20 Jahren online gegangen sind, kennen praktisch nur Google. Der US-amerikanische Suchmaschinendienst ist unangefochtener Marktführer in globaler Hinsicht, auch wenn es einige Länder gibt, in denen mitunter mehrere Angebote um die Gunst der Suchenden buhlen.
Tatsache ist: Auch wenn Google natürlich seit mehr als zwei Jahrzehnten dominiert, so bildet die Suchmaschine des Unternehmens gewiss nicht die erste Suchmaschine überhaupt. Diese gab es 1990 nämlich bereits als sogenannte FTP-Suchmaschine – hier wurde nicht das Web durchforstet, sondern auf Grundlage von Dateien und Ordnern ein Suchergebnis generiert. Verantwortlich hierfür zeichnete die McGill University im kanadischen Montreal.
Natürlich führte diese Beschränkung dazu, dass sich „Archie“ als erste Suchmaschine nicht durchsetzen konnte. Zwar zählte sie über einen gewissen Zeitraum zu den hoch-frequentierten Angeboten, allerdings sprangen zu Beginn der 90er-Jahre viele andere namhafte Unternehmen auf diesen Zug. Als 1993 dann das World Wide Web (WWW) für die Allgemeinheit zugänglich wurde, gab es mit „The Wanderer“ einen vom MIT entwickelten Suchbot. Dem folgten Suchdienste als sogenannte Spider oder Crawler, vor allem Yahoo! hat sich positiv hervorgetan.
Hier eine kleine chronologische, aber nicht vollständige Übersicht der Entwicklung der Suchmaschine:
Wie wird das Wetter heute? Bis wann hat das Einkaufszentrum geöffnet? Wo ist die nächste Tankstelle? Diese oder ähnliche Fragen hat wohl jeder schon einmal im Internet gestellt. Suchmaschinen sind aus unserem Alltag kaum mehr wegzudenken – auf jede Frage finden wir unzählige Antworten, Tipps und Ratschläge. Doch wie funktionieren Suchmaschinen überhaupt und gibt es außer Google noch andere? Dieser Artikel gibt die Antwort.
Die meisten von uns haben täglich Suchmaschinen in Gebrauch, doch die wenigsten können wirklich beantworten, was eine Suchmaschine überhaupt ist. Per Definition ist eine Suchmaschine ein Programm zur Recherche von Dokumenten, welche sich in einem Netzwerk von Computern oder einem Computer befinden. Die wohl bekannteste Form ist eine Suchmaschine für das World Wide Web, doch es gibt auch firmeninterne Suchmaschinen, die auf das Intranet eines Unternehmens zugreifen.
Nachdem ein User, also ein Benutzer des Internets, einen Suchbegriff in die Suchleiste eingegeben hat, liefern die Suchmaschinen eine Liste von unterschiedlichen Suchergebnissen. Diese werden jedoch nicht willkürlich angezeigt: User bekommt von Suchmaschinen stets die Inhalte angezeigt, die relevant erscheinen.
Folgende Aufgaben erfüllen Suchmaschinen:
Suchmaschine | Juli 2020 | Mai 2019 | Juli 2018 | März 2017 |
94,3 % | 94,5 % | 93,4 % | 90,3 % | |
Bing | 0,7 % | 2,8 % | 4,2 % | 8,1 % |
Yahoo** | 0,8 % | 0,8 % | 0,9 % | 1,1 % |
T-Online* | 0,0 % | 0,2 % | 0,2 % | 0,1 % |
Web.de* | 0,0 % | 0,0 % | 0,1 % | 0,0 % |
Ask.com | 0,03 % | 0,0 % | 0,0 % | 0,0 % |
Andere | 0,9 % | 1,4 % | 1,1 % | 0,4 % |
Besonders interessant ist die Entwicklung, die Google im Laufe der Jahre genommen hat. Das Unternehmen fungiert seit Jahren nicht mehr „nur“ als Suchmaschine, sondern bietet dutzende an Tools und Diensten für sämtliche Bereiche und schafft sogar indirekte Arbeitsplätze, zum Beispiel für Online Marketing Agenturen. Auch Suchmaschinenoptimierung (SEO), wie wir sie kennen, ist angelehnt an Updates, Algorithmen und Co., die Google prägt.
Jedoch: Google mag als „Mainstream-Suchmaschine“ den State-of-the-Art darstellen, gewiss gibt es jedoch noch viele weitere Suchmaschinen, die Nischen abdecken. Zwar ist Google auf vier Kontinenten der Platzhirsch, in Ländern wie China oder Russland sowie grundsätzlich in Asien gibt es weitere relevante, alternative Suchmaschinen.
Bevor wir von der Seo Agentur Suchhelden uns den alternativen Suchmaschinen widmen, wollen wir kurz die Bedeutung von Google anhand von Zahlen darlegen. Sie basieren auf einer Erhebung aus dem Januar 2021 und repräsentieren den weltweiten Suchmarkt.
Daraus folgt: Zwar mag die Übermacht von Google erdrückend wirken, allerdings existiert eine Reihe an Alternativen zur Suchmaschine aus dem Silicon Valley. Die folgenden Absätze zeigen, welche Vielfalt hier tatsächlich gegeben ist.
Wie bereits zu Beginn ersichtlich wurde, ist Suchmaschine nicht gleich Suchmaschine. Es gibt unterschiedliche Ansätze im Aufbau, der Funktionsweise und der Zielsetzung von Suchmaschinen. Wir möchten daher zunächst differenzieren und darlegen, welche Suchmaschinen-Typen wir in den folgenden Absätzen vorstellen möchten. Mit einem Klick auf die jeweilige Kategorie gelangen Sie direkt zur Liste.
So, nachdem das geklärt wurde, legen wir direkt los mit unserer übersichtlichen Darstellung von Suchmaschinen-Alternativen zu Google.
Solche Alternativen zu Google, die nach einem eigenen Algorithmus funktionieren und ein eigenständiges Crawler-System aufweisen, gibt es relativ häufig. Wir stellen die besten Alternativ-Suchmaschinen im Folgenden kurz vor.
Ask
Die 1996 in den USA gegründete Suchmaschine bietet einen eigenständigen Suchindex, vor allem liegt hier der Schwerpunkt auf klassische „Frage-Antwort-Szenarien“. Der Algorithmus ist also so ausgelegt, dass Fragen in ganzen Sätzen beantwortet werden. Die Suchmaschine Ask hat in den USA noch vor einigen Jahren einen Marktanteil von 1,4 Prozent (2016) dargestellt, dieser schwindet jedoch zunehmend.
Ask wurde sukzessive an den Google-Index angepasst, damit verschwand natürlich ein USP (Unique Selling Proposition), der bei dieser alternativen Suchmaschine gerne als Argument genutzt wurde. Nachdem Google verstärkt auch Frage-Antwort-Suchanfragen abdeckte, wurde das Ende von Ask praktisch besiegelt. Anzeigen werden hier relativ prominent zu den klassischen SERPs (Search Engine Result Pages) dargestellt, zudem erhalten User eine Auswahl an verwandten Suchbegriffen.
Baidu
Die im Jahr 2000 aus der Taufe gehobene Suchmaschine Baidu ist der unangefochtene Platzhirsch in China. Die in Peking gegründete Suchmaschine ist an der Börse notiert, existiert ausschließlich in Mandarin und zählt global gesehen zu den fünf meistgenutzten Suchmaschinen im Internet. Mit Baidu Baike gibt es neben dem klassischen Suchindex auch eine der Enzyklopädie ähnliche Wiki-Plattform.
Angesichts der Bevölkerungszahlen in China ist der globale Anteil von Baidu relativ hoch, in China selbst beträgt der Marktanteil mehr als 70 Prozent. Google hingegen kann lediglich 2 Prozent in China beanspruchen, natürlich begründet in der sprachlichen Komponente und der Tatsache, dass Zensur auch bei Baidu als chinesische Suchmaschine ein Thema ist. Baidu gilt als Google von China und bietet eine umfassende Auswahl an Tools, wie etwa Baidu Maps, Baidu News oder Baidu Tieba.
Bing
Bing, die weltweit zweiwichtigste Suchmaschine, aus dem Hause Microsoft, existiert erst seit 2009. Der als Suchindex und Webcrawler aufgebaute Suchdienst beansprucht 2,6 Prozent des weltweiten Suchmarktes (Desktop-Suche); in Deutschland liegt der Anteil mit knapp 4 Prozent deutlich höher. Das hinter Bing stehende Unternehmen betrachtet die Suchmaschine nicht als originären Suchdienst, sondern als sogenannte „Entscheidungsmaschine“. Der Anspruch dahinter ist klar: Bing soll den Usern schwierige Entscheidungen abnehmen oder die Entscheidungsfindung unterstützen. Mit der Funktion „Bing & decide“ gibt es eine Google-ähnliche Funktion bzw. ein Pendant zum „Auf gut Glück!“.
Zu beachten: Vor allem was die Suche nach Videos und Bildern anbelangt, bietet Bing eine gute Alternative zu Google.
Yandex
Wenn wir von einem „Sprach-Index“ sprechen, dann handelt es sich dabei zwangsläufig um die russisch-niederländische Suchmaschine Yandex. Denn der Begriff entspricht der russischen Transliteration und zeigt klar auf, worum es geht. Yandex zählt als Nummer 5 im weltweiten Suchmaschinen-Markt, nach Google, Bing, Yahoo! und Baidu. Die Suchmaschine ist zudem Marktführer in Russland, dicht gefolgt von Google – die beiden teilen sich praktisch 97 Prozent des russischen Suchmarktes unter sich auf.
Beachtenswert ist, dass Yandex als Google-Alternative seit dem Jahr 2015 explizit auch Backlinks in die Rankingbewertung mit aufnimmt. Ähnlich der US-amerikanische Konkurrenz, bietet Yandex eine Vielzahl an Services, darunter Musikstreaming, Nachrichten, Spiele oder Karten. Wer mit dieser Suchmaschine agieren möchte, findet in Yandex.Metrica ein Pendant zum beliebten Google Analytics.
DuckDuckGo
Das 2008 online gestellte Produkt unter dem Markennamen DuckDuckGo stellt eine Mischung aus Webcrawler und Meta-Suchmaschine dar. Mag auch der globale Anteil bei lediglich 0,54 Prozent liegen, so genießt DuckDuckGo angesichts der aufgedeckten Überwachungsorgien westlicher Staaten (Stichwort: PRISM, Edward Snowden) ein gewisses Image.
Die Besonderheit bei DuckDuckGo ist, dass keine personenbezogenen Daten gespeichert werden. Im Zentrum steht das Suchergebnis als solches, das zeigt sich u.a. auch beim Verzicht auf störende Werbung oder eine klarere Struktur der SERPs.
FastBot
Die deutsche Suchmaschine FastBot, die von einem Unternehmen mit Sitz in Hamburg betrieben wird, bietet Websuche und Wörterbuch zugleich. Ebenso findet sich eine Toolbar. Die Besonderheit hierbei ist, dass annähernd vollständig auf Werbung gesetzt wird. Klassisches auf Keyword basierendes Advertising fehlt. FastBot war die weltweit erste Suchmaschine mit Sprachausgabe.
Google wurde 1997 gegründet und hat weltweit betrachtet einen Marktanteil von über 90 Prozent. Die Suchmaschine wird in 173 Sprachen angeboten, darunter sind auch Kunstsprachen. Die auf C, C++ und Python basierende Suchmaschine bietet einen kompletten Werkzeugkasten mit unterschiedlichen Tools, darunter Google Trends und Google AdSense.
Die Suchmaschine, die Google einst ausschließlich war, entspricht im Grundaufbau auch noch dem heutigen Design. Allerdings gab es gewisse Änderungen, etwa in der Darstellung der SERPs, die Integration von Geo-Daten und dergleichen.
Mojeek
Mojeek ist eine in Großbritannien entwickelte Suchmaschine, die als klassischer Webcrawler fungiert. Das Unternehmen schreibt sich auf die Fahne, keinerlei Tracking zu ermöglichen und legt auch sonst großen Wert auf benutzerfreundliche Privatsphäre-Einstellungen. Im Jahr 2018 hat Mojeek zwei Milliarden URLs im Programm, u.a. wurde auch im Jahr danach die „Search Engine Map“ gestartet.
Qwant
Qwant ist so konzipiert, dass Privatsphäre und gute Suchergebnisse nicht im Kontrast zueinanderstehen. Die europäische Suchmaschine verpflichtet sich zu Neutralität, bietet eine panoramische Suche und verspricht unvoreingenommene Suchergebnisse. Suchanfragen werden nicht gespeichert, auch Werbeanzeigen sucht man hier vergeblich.
Die Suchmaschine Qwant ist in insgesamt 26 Sprachen einsetzbar und hat allein im Jahr 2016 über 2,6 Milliarden Suchanfragen erhalten.
Sogenannte Proxy-Suchmaschinen sind so konzipiert, dass Suchanfragen über einen Proxy-Server verschlüsselt werden. Das bedeutet, dass User gewissermaßen anonym surfen und suchen können. Cookies werden bei diesen Suchanbietern weniger oder gar nicht angelegt. Wir stellen die wichtigsten Alternativen in diesem Bereich vor.
Disconnect Search
Die Zusammenarbeit eines ehemaligen Google-Programmierers sowie eines NSA-Angestellten hat dazu geführt, dass mit Disconnect Search ein wirkungsvolles Anti-Tracking-Suchtool entstehen konnte. Das Besondere daran ist, dass der Anwender auf beliebige Suchmaschinen zugreifen kann, dabei jedoch keine IP-Adresse nebst Suchbegriffen und Co. übermittelt und zugeordnet werden. Damit bleibt die Privatsphäre gewahrt, was auch die Beliebtheit dieser Suchmaschine erklärt.
Fireball
Fireball ist eine jener deutschen Suchmaschinen, die es bereits seit den 90er-Jahren gibt. Gegründet im Jahre 1996, ermöglicht Fireball eine Internet-Suche getreu dem Motto „Deine anonyme Suchmaschine“. Fireball konnte 2002 einen Marktanteil von rund 2,5 Prozent beanspruchen, hat diese jedoch sukzessive wieder abgegeben und wurde dann von Lycos Europe übernommen.
Nach einem Relaunch im Jahre 2018 steht das Nicht-Tracken von Informationen im Fokus. Spracheinstellungen, besuchte Webseiten, IP-Adressen oder User Agents werden nicht gespeichert. Ebenso werden keine Cookies gesetzt.
Lycos
Die US-amerikanische Suchmaschine Lycos ging 1995 an den Start und war lange Zeit recht beliebt, nicht zuletzt wegen des stilisierten Hundes als Markenzeichen. Das Unternehmen, das deutlich vor Google existierte, konnte sich im Laufe der Jahre jedoch nicht etablieren. Etwa ab 2004, also rings um den Börsengang von Google, begann der Abstieg. Einige Jahre später übernahm das indische Unternehmen Hyderabad den Suchdienst Lycos.
Lycos war mehr als nur eine Suchmaschine, es bot mit Tripod und Angelfire auch Blog-Dienste und war hier einer der Vorreiter. Auch ein Webmaildienst sowie ein Chatprogramm waren häufig mit Lycos assoziiert worden.
Ecosia
Ecosia ist eine von Christian Kroll entwickelte Suchmaschine aus Berlin. Sie versteht sich als ökologische Suchmaschine und basiert in ihren Ergebnissen auf Bing – sowohl was die generischen SERPs betrifft als auch die Suchanzeigen. Das Unternehmen beschäftigt sogar einen „Chief Tree Planting Officer“ und versucht, es fundamental anders zu machen.
Startpage
Das niederländische Unternehmen Startpage ging 1998 mit Ixquick an den Start, die namensgleiche Suchmaschine hingegen erst im Jahre 2006. Nach erfolgter Zusammenlegung 2016 existiert mittlerweile ein einheitliches Auftreten. Startpage ähnelt DuckDuckGo und fungiert als Meta-Suchmaschine, das heißt, dass Suchergebnisse von anderen Suchmaschinen wie Google oder Bing abgeschöpft werden. Der große Vorteil in der Nutzung von Startpage besteht darin, dass zwar einerseits Google-Ergebnisse angezeigt werden, die Suche jedoch vollständig anonymisiert ist. Startpage selektiert diese nach eigenen Regeln und Algorithmen.
Yahoo
Die von David Filo und Jerry Yang gegründete Suchmaschine Yahoo! war ab 1994 der erste global bedeutende Suchdienst überhaupt. Das Angebot basiert auf dem Grundprinzip einer Meta-Suchmaschine, in den Jahren bis 2009 wurden dazu Suchergebnisse von AltaVista, Google und Inktomi abgegriffen. Seit dem Jahr 2009 besteht eine Kooperation mit Bing. Das als Webkatalog gestartete Yahoo! hat im Laufe der Jahre viele Tools hinzugefügt, darunter Flickr, Tumblr und natürlich auch einen Webmail-Dienst.
Das Charakteristikum einer Meta-Suchmaschine besteht darin, dass in die Erstellung der Suchergebnislisten mehrere originäre Suchmaschinen eingebunden sind. Die Aufbereitung und Selektion nehmen Meta-Suchmaschinen hingegen nach eigenen Regeln vor, auch ein separater Index existiert nicht.
MetaGer
Die deutsche Meta-Suchmaschine MetaGer entstand bereits 1996 im Rahmen der Entwicklung an der Universität Hannover. Sie ermöglicht eine Suche nach strengen Privatsphäre-Einstellungen, gesucht wird in bis zu 30 Suchmaschinen gleichzeitig. Aufgrund der Einbeziehung von Crawlern und Index-Suchmaschinen lässt sich MetaGer gewissermaßen als hybride Suchmaschine bezeichnet.
Searx
SearchX basiert als Meta-Suchmaschine auf der GNU Affero General Public License Version 3 und ist so konzipiert, dass keinerlei Daten geteilt werden. Die IP-Adresse ebenso wie der Suchverlauf des jeweiligen Users bleiben deshalb anonym, auch wenn auf Suchergebnisse klassischer Suchdienste wie Google oder Bing zurückgegriffen wird.
Das Besondere an einer Peer-to-Peer-Suchmaschine (auch P2P-Suchmaschine) ist es, dass kein zentraler Server alle Suchanfragen verarbeitet, sondern die Rechenkraft der Anwender dies übernimmt.
YaCy
YaCy steht als Abkürzung für „Yet another Cyberspace“ und basiert plattformübergreifend auf Java. Die mehrsprachige Peer-to-Peer-Suchmaschine ist so aufgebaut, dass ein sogenannter YaCy-Proxy dafür sorgt, dass sämtliche aufgerufenen Webseiten und andere Daten in lokaler Hinsicht indexiert werden. Der User, der dann final YaCy in Form des Webinterfaces einsetzt, kann damit dann gezielt suchen. So werden unter anderem Webseiten aus dem Deep Web ersichtlich, weil eine Kopplung mit dem Proxy-Client diese ggfs. mit in die Indexierung nimmt.
Das sogenannte Darknet muss nicht zwangsläufig etwas Illegales oder Anstößiges verbergen, sondern bezeichnet grundsätzlich einmal einen versteckten Dienst als solchen. Spezielle Darknet-Suchmaschinen helfen Inhalte solcher Seiten aufzufinden.
Ahmia
Ahmia steht für die leistungsfähigste Darknet-Suchmaschine. Hier finden Suchende ausschließlich Ergebnisse von Darknet-Seite. Nach eigenen Angaben trackt Ahmia keine IP-Adressen. Doch da sich der Betreiber in Finnland befindet, unterliegt die reguläre Website europäischer Gesetzgebung. Dadurch können die Server theoretisch durch neue Gesetzgebung oder Strafverfolgungsmaßnahmen kompromittiert werden. Das bedeutet, dass sich Angreifer Zugriff zum System verschaffen und somit Daten manipulieren und ausspähen könnten.
Torch
Torch dient als Suchmaschine für „Hidden Services“ bzw. versteckte Dienste, also all das, was Sie über reguläre Suchmaschinen so nicht finden werden. Mithilfe des sogenannten Tor-Netzwerkes ist ein Aufruf dieser Seiten möglich, erkennbar häufig an der Endung „.onion“. Torch ähnelt Google in Bezug auf das Design und lässt sich entsprechend einfach nutzen.
Sogenannte Kinder-Suchmaschinen sind speziell an die Bedürfnisse unserer Kleinen angepasste Suchdienste, die einfach bedient und entsprechend gefilterte Ergebnisse liefern.
Blinde Kuh
Die Kinder-Suchmaschine Blinde Kuh gibt es bereits seit 1997, es stellt die älteste deutsche Suchmaschine speziell für Kinder dar. Webseiten, die auf diesen Index gelangen wollen, müssen sehr strenge Kriterien erfüllen. Das Besondere hierbei ist, dass eine Redaktion jene über 30.000 Webseiten bearbeitet und „kindgerecht“ darstellt.
FragFINN
Kinder im Alter zwischen sechs und zwölf Jahren, die Videos, Nachrichten und Co. suchen möchten, sind bei FragFINN richtig. Diese Kinder-Suchmaschine existiert auch als App, sie kann damit gezielt auf dem Smartphone oder Tablett eingesetzt werden. Dies ermöglicht eine Sperrung alternativer Dienste durch Eltern. Enthalten sind hier etwa 5.000 Webseiten, geprüft durch Medienpädagogen.
Helles Köpfchen
Helles Köpfchen vereint die Funktion einer Kinder-Suchmaschine mit den Services und Programmen, die Kinder und Jugendliche gerne benutzen. Die Zielgruppe umfasst alle Kinder im Alter zwischen acht und 16 Jahren. Hier finden sich Spiele, Nachrichten und Wissensbereiche, auch der Anteil eigener redaktioneller Beiträge ist groß – und entsprechend präsent in der Suchergebnisliste.
Qwant Junior
QWANT JUNIOR ist als kostenloser Service speziell für Kinder im Alter zwischen sechs und 13 Jahren konzipiert. Die Inhalte werden überprüft – gefährliche Inhalte somit unterdrückt. Eine besondere Technologie analysiert Metadaten, Kommentare, Keywords, Fotos und dergleichen, die bei Anschlagen des Systems ihren Weg auf eine Schwarze Liste finden. Der Fokus liegt dabei auf Bildungsinhalten.
Nachdem wir im obigen Abschnitt die grundlegenden Suchmaschinen nach ihrem Typ kategorisiert haben, wollen wir zum Schluss noch ausgewählte Spezialsuchmaschinen vorstellen. Das sind Suchmaschinen, die sich an die Bedürfnisse einer bestimmten Zielgruppe richten. Hier ein paar Beispiele, um das Thema besser zu ergründen:
Suchmaschinen erfüllen eine wichtige Funktion, auch und gerade angesichts der Dominanz von Social-Media-Plattformen im Internet. Sie liefern Ergebnisse auf Anfragen, die für den jeweiligen User relevant sind. Zwar gelten Unternehmen wie Yahoo! oder Google als „Datenkralle“, die Unmengen an Daten abgreifen – zugleich liefern sie ein hohes Maß an Individualisierung und eine Genauigkeit in den Suchergebnissen, die dennoch einen Mehrwert liefert.
Allerdings zeigt sich auch ein Trend hin zu Spezialsuchmaschinen, die eben den Fokus auf einzelne Aspekte einer Suche legen. Seien dies Preis-Suchmaschinen wie Idealo oder anonyme Suchmaschinen wie Ecosia, die auf Tracking verzichten. Zumindest in diesem Segment erscheint es fraglich, inwiefern Google hier bald eine Alternative anbieten kann. Es dürfte jedoch weiterhin die Unterscheidung zwischen den großen Mainstream-Suchmaschinen und allen anderen Portalen geben, die dann gezielt genutzt werden.
Auf allen Kontinenten ist die Suchmaschine Google der Liebling unter den zahlreichen Suchmaschinen. Die Google Websuche ist die Suchmaschine #1, da sie im Jahr 2020 auf allen Kontinenten dominant war.
Kontinent |
Suchmaschine #1 |
Marktanteil (Ø 2020) |
Afrika |
|
97,15% |
Asien |
|
91,33% |
Antarktis |
|
86,72% |
Australien |
|
94,44% |
Europa |
|
93,41% |
Nordamerika |
|
89,46% |
Südamerika |
|
97,44% |
Global betrachtet ist die Suchmaschine Google unangefochtener Sieger. Mit einem Marktanteil von 92,08% ist Google demnach die beliebteste Suchmaschine auf der Welt. Den zweiten Platz belegt die Suchmaschine Bing, während Yahoo! auf dem dritten Platz landet.
Top-Suchmaschinen weltweit |
Marktanteil (Ø 2020) |
|
92,08% |
Bing |
2,69% |
Yahoo! |
1,63% |
Baidu |
1,16% |
Yandex |
0,60% |
In China ist die Suchmaschine Google stark zurückgefallen. Das spiegelt übrigens ganz und gar nicht den Marktanteil von Google in allen anderen Ländern wider. Die Suchmaschine Baidu hat den größten Marktanteil in China.
Top-Suchmaschinen China |
Marktanteil (Ø 2020) |
Baidu |
70,13% |
Sogou |
17,84% |
Haosou |
3,51% |
Shenma |
3,03% |
|
2,92% |
Auch in Europa ist die Suchmaschine Google mit 93,41% absoluter Spitzenreiter. Eine Besonderheit in der europäischen Platzierung ist allerdings der dritte Platz. Mit 1,54% konnte sich die Suchmaschine Yandex RU noch vor Yahoo! den dritten Platz sichern.
Top-Suchmaschinen Europa |
Marktanteil (Ø 2020) |
|
93,41% |
Bing |
2,94% |
Yandex RU |
1,54% |
Yahoo! |
0,86% |
DuckDuckGo |
0,45% |
Auch in Deutschland ist Google die beliebteste Suchmaschine. Darauf folgen die Suchmaschinen Bing und Ecosia.
Top-Suchmaschinen Deutschland |
Marktanteil (Ø 2020) |
|
92,97% |
Bing |
4,20% |
Ecosia |
0,79% |
DuckDuckGo |
0,69% |
Yahoo! |
0,61% |
In Großbritannien verhält sich der Marktanteil der Suchmaschinen wie der weltweite Marktanteil. Auf dem ersten Platz ist Google, der zweite Platz wird von der Suchmaschine Bing belegt und auf dem dritten Platz findet man die Suchmaschine Yahoo!
Top-Suchmaschinen Großbritannien |
Marktanteil (Ø 2020) |
|
92,74% |
Bing |
4,67% |
Yahoo! |
1,40% |
DuckDuckGo |
0,67% |
Ecosia |
0,32% |
Top-Suchmaschinen Russische Föderation |
Marktanteil (Ø 2020) |
|
55,48% |
YANDEX RU |
41,88% |
Mail.ru |
1,50% |
Bing |
0,50% |
Yahoo! |
0,27% |
Die Fakten in der Tabelle beziehen sich auf die bevölkerungsstarken europäischen Länder. Man kann klar erkennen, dass Google den Suchmaschinenmarkt eindeutig beherrscht.
Land |
Top-1 Suchmaschine: Marktanteil (Ø 2020) |
Frankreich |
Google: 91,89% |
Spanien |
Google: 95,96% |
Italien |
Google: 96,18% |
Polen |
Google: 97,08% |
Niederlande |
Google: 94,86% |
Top-Suchmaschinen Asien |
Marktanteil (Ø 2020) |
|
91,33% |
Baidu |
2,81% |
Yahoo! |
1,63% |
YANDEX |
1,42% |
Bing |
1,07% |
Top-Suchmaschinen Japan |
Marktanteil (Ø 2020) |
|
76,29% |
Yahoo! |
18,85% |
Bing |
4,38% |
Baidu |
0,18% |
DuckDuckGo |
0,14% |
Top-Suchmaschinen Indien |
Marktanteil (Ø 2020) |
|
98,57% |
Bing |
0,87% |
Yahoo! |
0,46% |
DuckDuckGo |
0,08% |
Other |
0,03% |
Top-Suchmaschinen Nordamerika |
Marktanteil (Ø 2020) |
|
89,46% |
Bing |
5,91% |
Yahoo! |
2,92% |
DuckDuckGo |
1,37% |
Ecosia |
0,12% |
Top-Suchmaschinen USA |
Marktanteil (Ø 2020) |
|
87,98% |
Bing |
6,64% |
Yahoo! |
3,39% |
DuckDuckGo |
1,62% |
Ecosia |
0,13% |
Top-Suchmaschinen Kanada |
Marktanteil (Ø 2020) |
|
91,81% |
Bing |
4,91% |
Yahoo! |
1,92% |
DuckDuckGo |
1,01% |
Ecosia |
0,12% |
Top-Suchmaschinen Südamerika |
Marktanteil (Ø 2020) |
|
97,44% |
Bing |
1,41% |
Yahoo! |
0,94% |
DuckDuckGo |
0,10% |
Ecosia |
0,07% |
Top-Suchmaschinen Brasilien |
Marktanteil (Ø 2020) |
|
96,86% |
Bing |
1,75% |
Yahoo! |
1,19% |
DuckDuckGo |
0,11% |
Ecosia |
0,04% |
Top-Suchmaschinen Argentinien |
Marktanteil (Ø 2020) |
|
97,41% |
Bing |
1,40% |
Yahoo! |
0,98% |
DuckDuckGo |
0,10% |
Ecosia |
0,08% |
Top-Suchmaschinen Australien |
Marktanteil (Ø 2020) |
|
94,44% |
Bing |
3,73% |
Yahoo! |
0,78% |
DuckDuckGo |
0,67% |
Ecosia |
0,20% |
Top-Suchmaschinen Afrika |
Marktanteil (Ø 2020) |
|
97,15% |
Bing |
1,72% |
Yahoo! |
0,89% |
DuckDuckGo |
0,11% |
YANDEX RU |
0,04% |
Top-Suchmaschinen Ozeanien |
Marktanteil (Ø 2020) |
|
94,48% |
Bing |
3,66% |
Yahoo! |
0,79% |
DuckDuckGo |
0,68% |
Ecosia |
0,20% |
Top-Suchmaschinen Antarktis |
Marktanteil (Ø 2020) |
|
86,72% |
Bing |
8,95% |
DuckDuckGo |
3,44% |
Ecosia |
0,62% |
Yahoo! |
0,19% |
Auch wenn die Diskussionen rund um Datenschutz mittlerweile an der Tagesordnung sind, so sollten wir nicht vergessen, dass Suchmaschinen äußerst praktische Tools sind. Sie ermöglichen es uns, relevante Inhalte teils in Bruchteilen einer Sekunde darzustellen. Ohne Suchmaschinen wäre es nicht möglich, die immense Bandbreite an Inhalten auch nur annähernd zu erreichen, wie dies aktuell möglich ist. Die Kombination aus trainiertem Algorithmus und einem höheren Maß an Personalisierung erscheint angesichts dessen als unschlagbares Argument für Suchmaschinen – auch über 2020 hinaus! Noch Fragen? Kontaktieren Sie unser Team jetzt!
Auf die Antwort, welche Suchmaschinen es gibt, werden die meisten zunächst einmal „Google“ antworten. Dies ist der Marktführer und wird von einer Vielzahl von Usern weltweit täglich genutzt. Jedoch gibt es auch noch andere Suchmaschinen.
Zu den Suchmaschinen, die einen eigenen Index erstellen, zählt nicht nur Google, sondern auch Baidu, Duckduckgo, Bing und viele andere. Suchmaschinen, welche keinen eigenen Index von Inhalten erstellen, sondern auf fremde Indizes zurückgreifen, gibt es jedoch auch. Zu diesen zählen Yahoo, Lycos, Ecosia oder die Suche über t-online.
Darüber hinaus gibt es Suchmaschinen, welche sich auf spezielle Anwendungsfälle beschränken. YouTube beispielsweise ist eine Video-Suchmaschine, bei Amazon handelt es sich um eine Produktsuchmaschine und Google-Bildersuche oder -Videosuche sind wohl selbsterklärend: Sie beschränken sich bei den Suchergebnissen auf Bilder bzw. Videos.
Suchmaschinen sind praktisch – das liegt auf der Hand. Doch was steckt hinter einer Suchmaschine, wie funktioniert sie überhaupt? Zunächst muss man zwei Arten von Suchmaschinen unterscheiden: Volltext-Suchmaschinen und Meta-Suchmaschinen.
Zu den Volltext-Suchmaschinen gehören unter anderem Bing, Yahoo und der Marktführer Google. Bei einer Eingabe in die Suchleiste durchsuchen und indizieren sie den gesamten Text, der sich auf einer Webseite befindet. Sie verweisen auf relevante Begriffe oder Wortgruppen, wobei sie sich eines sogenannten Crawlers bedienen.
Der Begriff „Crawler“ leitet sich aus dem englischen Wort „to crawl“, also übersetzt „kriechen“ oder „krabbeln“ ab. Er kriecht sozusagen in alle Winkel des World Wide Webs und sucht nach den Begriffen, die ein User in die Suchleiste eingibt. Dazu jedoch später noch mehr.
Im Gegensatz dazu sammelt eine Meta-Suchmaschine nicht selbst Ergebnisse. Sie leitet die Suchanfragen der User an andere weiter. Diese Ergebnisse greift die Meta-Suchmaschine ab und verarbeitet sie in einer eigenen Trefferliste. Man spricht hierbei auch von SERP.
Welche Suchmaschinen arbeiten auf diese Art und Weise? Die bekanntesten Meta-Suchmaschinen sind Yippy, Metager und Ixquick.
Was viele nicht wissen: Bei einer Suchanfrage in Suchmaschine wird nicht das komplette Internet durchforstet, sondern die Suche beschränkt sich auf das World Wide Web. Während User einfach nur einen Begriff ins Suchfeld eingeben und sich die fertigen Ergebnisse präsentieren lässt, laufen im Hintergrund jedoch viele Prozesse, welche gar nicht einmal so einfach sind.
Crawler werden auch als Bot oder Spider bezeichnet. Wie bereits erwähnt, sind es sie, die das Internet nach Inhalten durchsuchen. Darüber hinaus analysieren sie ihre Verbindungen und folgen Links auf Seiten, die bereits indexiert sind. Man spricht hierbei auch von „Harvesting“. Crawler zielen vor allem auf HTML-Seiten ab, jedoch können sie auch .ppt- oder .pdf-Dateien erfassen. Außerdem analysiert ein Crawler die Meta-Tags einer Webseite. Deshalb ist das Meta-Snippet auf Webseiten so wichtig, um gut im Internet gefunden zu werden.
Wurde eine Internetpräsenz gecrawlt, werden die erfassten Daten auf einem Server abgespeichert. Diese indexierten Webseiten werden in regelmäßigen Abständen von einem Crawler besucht, damit etwaige Veränderungen registriert und aufgenommen werden können. All das läuft also im Hintergrund ab. Endnutzer bemerken davon gar nichts. In Sekundenschnelle wird eine Vielzahl an Suchergebnissen präsentiert.
Vor allem für Webseitenbetreiber ist es relevant zu wissen, wie häufig ein Crawler eine Webseite besucht. Das hängt von verschiedenen Faktoren ab. Zum einen spielt die Anzahl von verwendeten Backlinks eine Rolle. Dabei handelt es sich von einem Link einer Webseite zu einer anderen, weshalb Backlinks auch als Rückverweis bezeichnet werden.
Auch eine interne Verlinkung beeinflusst, wie oft ein Crawler eine Webseite besucht. Diese sollte daher möglichst übersichtlich und sinnvoll verwendet werden.
Zudem besucht ein Crawler eine Webseite dann umso häufiger, je öfter sie sich aktualisiert. Werden stetig Veränderungen durchgeführt, wird sich der Crawler von Suchmaschinen auch öfter auf der Webseite aufhalten und die Inhalte durchsuchen.
Übrigens: Je häufiger ein Crawler Abfragen im World Wide Web durchführt, desto aktueller sind die Suchmaschinen.
Man hat als Webseitenbetreiber durchaus die Möglichkeit dazu, zu kontrollieren, welche Inhalte in einem Index landen und zu welchen Inhalten ein Crawler keinen Zugang hat. Mit einem speziellen Dokument kann man dies steuern. Es handelt sich um robots.txt, womit man einzelne Seiten oder auch Verzeichnisse vor einem Crawler verbergen kann.
Zudem hat man die Möglichkeit, bestimmte Bots auszuschließen, um zu selektieren, wer die Inhalte auf der Webseite durchsuchen darf oder nicht. Ein Trugschluss ist allerdings, dass die Inhalte dadurch nicht in den Suchergebnissen erscheinen. Dies ist trotz Verwendung von robots.txt noch möglich.
Wer die Indexierung seiner Webseite komplett verhindern möchte, kann einen Robots-Meta-Tag namens „noindex“ verwenden. Crawler haben dadurch zwar Zugriff auf die Seite, doch der Indexer nimmt sie nicht in sein Verzeichnis auf. Es macht jedoch keinen Sinn, robots.txt und noindex zeitgleich zu verwenden. Damit noindex greift, muss der Crawler die Seite einmal durchsuchen – verweigert man dem Crawler mittels robots.txt den Zugriff, macht das also wenig Sinn.
Mit der Arbeit des Crawlers ist es nicht getan. Suchmaschinen funktionieren weitaus komplexer und beinhalten mehr Bestandteile. Während der Crawler Daten findet, ist es der sogenannte Indexer, welcher diese verarbeitet und strukturiert.
Die gecrawlten Seiten werden in ein Verzeichnis eingeordnet, bei Bedarf überschreibt der Indexer alte Daten und indexiert die Inhalte, um sie schnell finden zu können. Suchmaschinen bedienen sich an dieser Stelle auch eines Rechenprozesses, welcher die gesammelten Daten auswertet und eine Webseite als relevant oder weniger relevant für bestimmte Schlüsselwörter – auch Keywords genannt – einstuft. .
Aus diesem Grund ist eine Keywordrecherche notwendig, bevor man einen Text auf einer Webseite veröffentlicht, um eine möglichst hohe Relevanz zu erreichen
Startet ein User nun eine Suchanfrage, greifen Suchmaschinen auf dieses vom Indexer angelegtes Verzeichnis zurück und analysieren, welche Webseite den gesuchten Begriff enthält. Dadurch fällt die Notwendigkeit, bei jeder Suchanfrage das komplette World Wide Web zu durchsuchen, weg. Nur der angelegte Index spielt eine Rolle.
Webseitenbetreiber haben bestimmt schon das ein oder andere Mal vom sogenannten Ranking von Suchmaschinen gehört. Das Ranking gibt an, auf welcher Position eine Webseite in den Suchergebnissen platziert wird. Dabei gilt: je weiter oben, desto besser.
Wenige Nutzer scrollen in der Liste der Suchergebnisse weit nach unten. Noch weniger von ihnen werfen einen Blick auf Seite 2. Daher ist es für Webseitenbetreiber, die Erfolg mit ihrer Webseite haben möchten, unumgänglich, sich mit dem Ranking auseinanderzusetzen.
Es gibt sogenannte Rankingfaktoren, mit denen Webseitenbetreiber erzielen können, dass ihre Webseite auf einer höheren Position angezeigt wird. Grundsätzlich gehen jedoch nicht alle Suchmaschinen beim Ranking gleich vor. Das liegt daran, dass jeder Anbieter einen eigenen Algorithmus verwendet.
Aus dem Grund ist die Suchmaschinenoptimierung aus dem Marketing von Unternehmen heute kaum mehr wegzudenken. Sie zielt darauf ab, das Ranking von Inhalten nachhaltig und kontinuierlich zu verbessern.
Folgende Kriterien haben einen Einfluss auf das Ranking:
Das bedeutet, dass Webseitenbetreiber sinnvolle Backlinks und interne Verlinkungen benötigen und ihre Inhalte stets aktuell halten sollten. Außerdem spielt die Qualität eine große Rolle: Unique Content und eine gute Ausdrucksweise sowie eine einwandfreie Rechtschreibung und Grammatik sind gefragt.
Unique Content lässt sich auch als „einzigartiger Inhalt“ übersetzen. Es handelt sich dabei um Texte, die in dieser Form im Internet noch nicht vorkommen. Jeder Text sollte demnach neu geschrieben werden. Suchmaschinen erkennen es, wenn Inhalte von anderen oder aber auch von der eigenen Webseite kopiert und veröffentlicht werden.
Darüber hinaus sollte eine Webseite technisch einwandfrei funktionieren. Stellen Suchmaschinen fest, dass zum Beispiel die Ladezeit einer Seite zu lange oder die Ansicht fehlerhaft ist, wird die Webseite kein gutes Ranking erhalten.
Zusammengefasst kann man also sagen, dass Suchmaschinen nach einem 3-Schritte-Prinzip arbeiten. Im ersten Schritt werden Daten gesammelt, im zweiten werden diese Daten analysiert und im dritten ausgegeben. Man spricht daher auch von Crawling, Indexing und Serving.
Wie bereits erwähnt, spielt die Suchmaschinenoptimierung beim Ranking einer Webseite eine große Rolle. Auch als SEO bezeichnet, bedient sie sich der Funktionsweise von Suchmaschinen, um Inhalte weiter oben platzieren zu lassen.
Kann man denn auch das angezeigte Ergebnis in den Suchergebnissen einer Suchmaschine optimieren? Das sogenannte Snippet, welches auf der Suchergebnisseite angezeigt wird, besteht aus einem Titel-Tag, der URL der Webseite und einer Meta-Beschreibung. Im Zuge einer Suchmaschinenoptimierung gehört es für Webseitenbetreiber sogar dazu, diese zu optimieren.
Damit die Anzeige benutzerfreundlich ist und von Suchmaschinen als relevant eingestuft wird, sollten Webseitenbetreiber einen prägnanten Seitentitel vergeben und eine Meta-Beschreibung verfassen, welche den Inhalt der Webseite schmackhaft macht. Dabei sollten bereits wichtige Keywords enthalten sein und natürlich gilt es, die Beschreibung so zu verfassen, dass Nutzer die Webseite gerne anklicken.
Dabei gilt es, wichtige Informationen möglichst weit vorne zu platzieren. So wissen auch die User, die ein Smartphone zur Suche nutzen, worum es auf der Seite geht. Häufig kürzen Suchmaschinen die Beschreibung, damit sie auf mobilen Endgeräten angezeigt werden kann.
Genauso wie bei den anderen Inhalten auf einer Webseite gilt: Alles muss unique sein. Es ist nicht gut, ein und dieselbe Meta-Beschreibung immer und immer wiederzuverwenden. Suchmaschinen erkennen diesen Trick – das Resultat ist ein schlechtes Ranking.
In einem gängigen CMS Content-Management-System lassen sich sowohl Title-Tag als auch Meta-Beschreibung einfach abändern. Häufig führen solche Systeme bereits eine erste Prüfung durch, ob der Titel vielleicht zu lang ist oder ob er nicht SEO-konform ist. Bereits an frühere Stelle wurde von Keywords gesprochen. Auch sie haben viel mit der Suchmaschinenoptimierung zu tun und basieren auf der Funktion von Suchmaschinen. Es handelt sich dabei um Schlüsselwörter, welche von Usern in die Suchmaschinen eingeben, um Inhalte angezeigt zu bekommen.
Verfasst man einen Text für seine Webseite, sollte man zunächst eine Keywordrecherche durchführen oder von einer SEO Agentur durchführen lassen. Dabei wird ermittelt, welche Keywords eine Webseite enthalten muss, um für diese oder jene Suchanfrage von Suchmaschinen als relevant eingestuft zu werden. Diese Keywords gilt es nun auf natürliche Art und Weise in einem Text auf der Webseite unterzubringen. Wenn der Crawler nach der Veröffentlichung des Textes im World Wide Web auf die Suche geht, stößt er auf die Keywords und erkennt, dass der Inhalt diesen zugeordnet werden muss.
Das Ergebnis: Sucht ein User das nächste Mal nach dem Begriff, erscheint der Inhalt in den Suchergebnissen. Bis dies geschieht, kann jedoch etwas Zeit vergehen. Wie bereits erwähnt, ist ein Crawler nicht ständig auf einer Webseite und der Indexer erstellt nicht pausenlos Indizes. Je nach Suchmaschine kann es daher etwas dauern, bis der Inhalt in den Suchergebnissen auftaucht.
Genauso verhält es sich mit dem Ranking. Ergreift man Maßnahmen, um dieses zu verbessern, bedeutet das nicht, dass bereits morgen Ergebnisse sichtbar sind. Es kann ein wenig Zeit verstreichen, bis man das Resultat der Optimierungen in Form von Traffic auf der Webseite verspürt.