Ich begrüße Dich herzlich im Jahr 2020 und zu meiner neuen Artikelserie zu den Grundlagen der Suchmaschinenoptimierung (SEO). Es ist die erste Artikelreihe in meinem Blog dieser Art. Ich habe mir für das Jahr 2020 einiges vorgenommen. Unter anderem möchte ich mehr kompakte und laienfreundliche Artikel schreiben anstatt der üblichen holistischen „Fachwissen-Schinken“ von über 5000 Wörtern. Die werden natürlich auch weiterhin hier erscheinen, aber für die Serie habe ich mir etwas anderes vorgenommen.
Ich selbst halte das Thema Suchmaschinenoptimierung für einfacher konsumier- und lernbar, wenn man sich auf das Wesentliche konzentriert, Unnötiges weglässt und das Ganze dann mehr praxisbezogen und mit Beispielen untermalt. Mittlerweile blicke ich nicht nur auf eine saftige Berufserfahrung von über 10 Jahren SEO und SEM zurück, sondern auch auf viel Erfahrung als Dozent an Hochschulen, Speaker auf Konferenzen und Wissenvermittler für Unternehmen. Dabei habe ich unter anderem verstanden, dass es nicht immer die Vollständigkeit eines Themas ist, was Einsteiger brauchen, sondern mehr die Greifbarkeit und der Praxisbezug. Diese Art und Weise möchte ich auch in der nun folgenden Artikelreihe anwenden.
Solltest du Themenwünsche, Kritik oder Anregungen haben, dann freue ich mich auf eine Mail von Dir.
Inhaltsverzeichnis
Was ist Suchmaschinenoptimierung (SEO)?
Unter Suchmaschinenoptimierung (kurz: SEO englisch: Search Engine Optimization) versteht man alle Maßnahmen, die dazu beitragen, die Platzierung einer Website zu bestimmten Keywords (Suchwörtern) in den organischen Suchergebnissen von Suchmaschinen zu verbessern. SEO unterteilt sich dabei in mehrere Aufgabenbereiche wie z.B. Contentoptimierung, Keywordoptimierung und die technische Optimierung. Vor allem letztere ist bei besonders großen und umfangreichen Websites enorm wichtig.
Warum braucht man SEO?
SEO hat im Onlinemarketing einen sehr hohen Stellenwert, da sich Suchmaschinenoptimierung nachhaltig auf die Sichtbarkeit einer Website auswirkt und somit langfristig relevanten und „kostenlosen“ Traffic (Besucher) erzeugt. Studien belegen, dass Internetnutzer noch immer ein höheres Vertrauen in nicht-bezahlte Listings bei Google & Co. haben, als bei bezahlten Werbeanzeigen. Auch spart SEO langfristig auch Geld für Werbeanzeigen ein, die aufgrund der besseren Positionierung nicht geschaltet werden müssen.
Da heutzutage fast jeder Kauf mit einer Suchanfrage bei einer Suchmaschine beginnt, ist die Bedeutung von Suchmaschinenoptimierung selbstredend sehr hoch. In fast jedem Unternehmen, dass Abverkäufe oder Leads online generiert, ist SEO ein Thema. Die Informationsangebote und Anzahl an Websites steigen, da können eine höhere Sichtbarkeit und bessere Rankings ein enormer Wettbewerbsvorteil sein.
SEO ist dabei heutzutage keineswegs mehr manipulativ. Vielmehr zielt Suchmaschinenoptimierung darauf ab, dass Inhalte einer Website optimal durch Suchmaschinen gefunden und verarbeitet werden können und man die größtmögliche Relevanz zu den Suchanfragen von Nutzern erreicht.
Eins vorweg: Ich habe über dieses Thema im meinem Studium der Wirtschaftskommunikation meine Abschlussarbeit geschrieben, welche ich auch auszugsweise in meinem Blog hier veröffentlicht habe. Wenn du eher gerne wissenschaftlich liest, dann spring doch direkt zu diesem Artikel. Ansonsten bleib gerne hier. Ich werde aber in diesem Beitrag aus meiner bereits vorhandenen Arbeit zitieren.
Wie funktionieren Suchmaschinen?
Ganz einfach erklärt…
…beantwortet eine Suchmaschine die Suchanfrage eines Nutzers, der über ein Eingabefeld bestimmte Suchwörter oder Suchphrasen eingibt. Dabei sucht der Nutzer aber nicht direkt im Internet, sondern im Index der Suchmaschine und auch nur im öffentlich zugänglichen Teil des World Wide Web (FTP-Server, E-Mails und andere geschützte Bereiche werden nicht indexiert). Dazu bedient sich die Suchmaschine einer eigenen Datenbank, in der alle Websites weltweit kategorisch und nach verschiedenen Merkmalen und Eigenschaften abgespeichert sind. Mit so genannten Crawlern oder Spider-Bots erfassen und sammeln Suchmaschinen stetig neue und aktualisierte Informationen im Internet. Stellt nun ein Internetnutzer eine Suchanfrage, so entscheidet ein Suchmaschinen-Algorithmus darüber, welche Suchergebnisse diesem Nutzer in welcher Reihenfolge (Ranking) angezeigt werden. Das Verarbeiten einer Suchanfrage ist heute schon so schnell, dass von der Suchanfrage bis zur Ausgabe der Suchergebnisseite (SERP) weniger als eine Sekunde vergeht.
- Pro Tag verarbeitet Google weltweit ca. 5,6 Milliarden Suchanfragen auf hundertausenden Servern in 15 Rechenzentren weltweit
- Eine Suchanfrage wird in weniger als einer Sekunde beantwortet eine Suchmaschine in unter einer Sekunde
- Wenn man bei Google eine Suche ausführt, dann sucht man nicht direkt im Internet – man durchsucht die Datenbank von Google
- Heutzutage kann man nicht nur Textsuchen ausführen sondern auch vertikal nach Bildern, Videos, Blogs
- Google ist nicht die einzige Suchmaschinen, es gibt etliche andere z.B. DuckDuckGo, Yandex, Bing, Baidu, Ecosia – eine komplette Liste gibt es hier
Etwas ausführlicher und technischer erklärt
Eine Suchmaschine – und das gilt für alle existierenden Suchmaschinenanbieter weltweit – besteht aus drei „Modulen“ bzw. essentiell wichtigen Funktionen:
- Dem Crawling (Web-Robot-System) für die Beschaffung und Analyse der Daten
- Der Indexierung (Information Retrieval System) – Aufbereitung und Analyse der Daten
- Den Rankings (Query Processor) – Ranking und Aufbau der Ergebnislisten
Crawling (Web-Robot-System)
Durch das so genannte Web-Crawling beschaffen sich Suchmaschinen alle Informationen, die später für die Generierung von Suchergebnissseiten wichtig sind. Da man bei einer Google-Suche nicht direkt im Internet selbst, sondern in der Datenbank von Google sucht, ist die Aktualität von Daten und somit das Crawling von sehr hoher Wichtigkeit. Es kommt auch schon einmal vor, dass man in den Suchergebnisseiten auf einen Link klickt, der zu einer nicht mehr existierenden Seite zeigt. Das ist für den Nutzer eine keine so gute Erfahrung. In solch einem Fall hat der Web-Crawler der Suchmaschine diesen Link noch nicht erneut besucht. Hätte er die getan, so würde dieser Link in den Suchergebnissen nicht mehr erscheinen – zumindest nicht, wenn es sich um eine nicht mehr existierende Seite handelt.
Indexierung (Information Retrieval System)
Wenn Crawler eine Webseite finden, werden die Seiteninhalte wie in einem Browser aufgerufen. Sie analysieren die wichtigsten Elemente – von den Keywords bis zur Aktualität der Website – und vermerken sie im Suchindex.
Der Google-Suchindex umfasst Milliarden von Webseiten und ist über 100.000.000 Gigabyte groß. Er funktioniert wie das Stichwortverzeichnis am Ende eines Buchs: Jedes Wort, das Crawler auf einer indexierten Webseite gefunden haben, erhält einen Eintrag. Wenn wir eine Webseite indexieren, fügen wir sie allen Einträgen für Wörter hinzu, die auf dieser Seite vorkommen.
Google
Die vom Web-Crawler gesammelten Informationen und Daten werden im Index (Datenbank) einer Suchmaschine abgelegt und gespeichert. Dabei werden die Daten bereits so kategorisiert, dass sie später bei der Verarbeitung durch den Algorithmus bestmöglich verarbeitet werden können. Beispielsweise wird erfasst, um welches Thema sich ein Blogartikel dreht, zu welcher Kategorie die Website gehört und auch, ob eine Website responsiv ist und auf mobilen Endgeräten dargestellt werden.
Wenn du an dieser Stelle gerne weiterlesen möchtest, dann empfehle ich dir diesen Entwickler-Leitfaden von Google.
Ranking (Query Processor)
Alle durch die Web-Crawler gesammelten und im Index kategorisierten Daten bilden schließlich die informelle Grundlage für den Ranking-Algorithmus, der bei einer Suchanfrage anhand mehrerer hunderter Signalen entscheidet, welches Suchergebnis der Nutzer erhält. Dabei spielt z.B. der Standort des suchenden Nutzers, die Relevanz der Website zum Suchwort und die Ladegeschwindigkeit der Website eine Rolle. Heutzutage werden Suchanfragen durch Suchmaschinen immer individueller beantwortet, weshalb die Suchergebnisseiten zu dem selben „Keyword“ bei unterschiedlichen Nutzern trotzdem unterschiedlich sein können.
Begriffe und Definitionen
Im nachfolgenden Abschnitt möchte ein paar grundlegende und essentiell wichtige Fragen in Form einer kleinen Suchmaschinen–FAQ beantworten.
Unter einer Suchmaschine ist ein Programm / eine Software zu verstehen, die das Internet nach Inhalten durchsucht, diese indexiert (kategorisch in einer Datenbank abspeichert) und Suchanfragen mithilfe eines Algorithmus beantwortet. Führt man in einer Suchmaschine eine Suche aus, dann durchsucht man nicht das Internet – man erhält seine Suchergebnisse aufgrund des Algorithmus und seiner Relevanzkriterien.
Ein Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems. Den Rankingsystemen von Suchmaschinen liegen eine ganze Reihe von Algorithmen zugrunde. Unter Berücksichtigung vieler verschiedener Faktoren versucht eine Suchmaschinen eine Suchanfrage bestmöglich und relevant zu beantworten. Der Ranking-Algorithmus von Google ist in seiner groben Funktionsweise bekannt, im Detail jedoch geheim.
Suchmaschinen nutzen Computerprogramme um Informationen und neue Websites im Internet zu finden und zu indexieren (archivieren). Diese Programme nennt man auch Robots oder Crawler. Sie erfassen automatisch und kontinuierlich neue Inhalte und Inhaltsänderungen im gesamten Internet.
Beim Crawling erfasst und katalogisiert ein Programm den Inhalt einer Website oder eines Dokuments und zerlegt die angebotenen Informationen in alle für die Indexierung wichtigen Bestandteile und Kategorien. Diese gesammelten Informationen werden dann in der Datenbank der Suchmaschine abgelegt. Der Crawler bereitet dabei jedoch schon während der Verarbeitung die Daten zu auf, dass die Suchmaschine diese verwerten und bewerten kann.
Ich hoffe, Du fandest den ersten Teil meiner Serie hilfreich und informativ. Falls ja, freue ich mich, wenn du den Beitrag teilst und weiterempfiehlst. Der nächste Teil der SEO-Serie geht im Februar online. Ich habe eine Frequenz von ca. 1 Mal pro Monat geplant.