Suchmaschinenoptimierung oder auch Search Engine Optimization kurz SEO genannt, ist die Bezeichnung für Maßnahmen, welche den Zweck haben, Webseiten samt deren Inhalt im organischen Suchmaschinenranking möglichst weit vorn erscheinen zu lassen. Die Platzierung von Webseiten, Videos, Bildern und weiteren Inhalten wird bewusst beeinflusst, um höhere Reichweiten bei Suchmaschinen zu generieren. Dabei beinhaltet die Optimierung verschiedenste Arten von Suchverfahren wie zum Beispiel die Video-, Bilder- oder Nachrichtensuche.

Die Geschichte des SEO

Mitte der 90er Jahre begann das Katalogisieren des World Wide Webs durch die ersten Suchmaschinen. Darauf reagierten findige Webmaster und fingen damit an Webseiten für Suchmaschinen zu optimieren. Zu Beginn genügte es, die URL der dazugehörigen Seite an verschiedene Suchmaschinen zu senden. Dort wurde ein Computerprogramm, genannt Webcrawler, entsendet, welches die Seite analysierte und indexierte. Anschließend lud der Webcrawler die Webseite auf den Server der Suchmaschine wo ein weiteres Programm zum Einsatz kam. Dieses zweite Computerprogramm war der Indexer. Er las aus den Inhalten der Webseite Informationen heraus und katalogisierte zum Beispiel genannte Wörter oder Links zu anderen Seiten. Schnell erkannten die Seitenbesitzer den Mehrwert, den die bevorzugte Listung bei den Ergebnissen von Suchmaschinen schaffte. Fast genauso schnell entwickelten sich, auf diese Technik spezialisierte, Unternehmen.

Basierend auf Informationen, welche Webmaster selbst lieferten, Meta-Elementen oder Indexdateien entstanden die ersten Suchalgorithmen. Weil die Auswahl der verarbeiteten Schlüsselwörter durch den Webmaster zur ungenauen Darstellung des Seiteninhalts führen konnte, stellte sich zügig heraus, die Nutzung der Meta-Elemente war nicht zuverlässig. Daten in den Meta-Elementen, welche unvollständig oder ungenau waren, konnten bei spezifischen Suchanfragen, irrelevante Ergebnisse herbeiführen. Außerdem war es den Seitenerstellern möglich mittels Manipulation unterschiedlicher Attribute im HTML-Code, bessere Suchergebnisse zu erzielen.

In der Anfangszeit waren Suchmaschinen von Faktoren abhängig, welche nur von den Webmastern beigebracht werden konnten. Damit waren aber auch Missbrauch und Manipulation im Ranking, Tür und Tor geöffnet. Die Betreiber der Suchmaschinen waren gezwungen sich diesen Gegebenheiten anzupassen. Nur so konnten bessere und relevantere Ergebnisse bei Suchanfragen erzielt werden. Der Erfolg einer Suchmaschine war schließlich davon abhängig zum gestellten Suchbegriff, relevante Ergebnisse zu liefern. Denn unpassende Ergebnisse hätten dazu führen können, dass sich der Anwender dem aufkeimenden Wettbewerb für die Suche im Web zuwendet. Komplexere Algorithmen für das Ranking, welche auf Faktoren basierten, die nicht oder nur schwer vom Seitenersteller beeinflusst werden konnten, war die Antwort der Suchmaschinenanbieter. Mit „Backrub“ entwickelten Sergey Brin und Larry Page, eine auf einem mathematischen Algorithmus basierende Suchmaschine, welcher die Prominenz von Webseiten ermittelte. Im groben stellt der PageRank Algorithmus die Wahrscheinlichkeit dar, mit der ein Anwender zufällig Links anklickend auf einer bestimmten Seite landet.

1998 gründeten Brin und Page eine Suchmaschine, deren simples Design bezeichnend für den immer noch andauernden riesigen Erfolg wurde. Google war geboren. Sowohl Off-Page-Faktoren, zum Beispiel PageRank und Hyperlinkanalysen, als auch One-Page-Faktoren, dazu zählen Häufigkeit von Schlüsselwörtern, Metadaten und Seitenstruktur, wurden von Google für das Ranking ausgewertet. Manipulationen, welche in Suchmaschinen vorkamen, die nur On-Page-Faktoren nutzten, wollten die Google Erfinder damit umgehen. Die Seitenersteller waren in der Zwischenzeit nicht untätig. Strategien und Tools wurden entwickelt, mit denen es gelang die Suchmaschine Inktomi zu beeinflussen. Es zeigte sich, dass diese Mittel auch erfolgreich auf PageRank anwendbar waren. Dadurch verschob sich der Schwerpunkt vieler Seiten auf den Handel oder Tausch mit Links, häufig in ausufernden Ausmaßen. Es entstanden sogenannte Linkfarmen, die mit ihren oft tausendfach erstellten Seiten, regelrechtes Linkspamming betrieben. Dem setzten seit 2004 Suchmaschinen ein breites Spektrum an geheimen Faktoren entgegen, welche den negativen Einfluss mittels Linkmanipulationen eindämmen sollen. Um in ihren Suchergebnissen die Listung bestimmter Webseiten zuverlässig ermitteln zu können, verwendete Google 2007 bereits über 200 unterschiedliche Faktoren. Die Algorithmen für das Ranking sind bei den führenden Suchmaschinen Google, Bing und Yahoo ein streng gehütetes Geheimnis.

Google begann im Jahre 2005 seine Suchergebnisse auf Grundlage früherer Suchanfragen registrierter Anwender zu personalisieren. Dies personalisierten Suchen nahmen dem eigentlichen Ranking den Sinn und ließen damit gleichzeitig Ranking-Manipulationen bei Suchmaschinen überflüssig werden. Denn übereinstimmende Suchanfragen von unterschiedlichen Anwendern würden ohnehin zu verschiedenen Ergebnissen führen. 2009 ergriff Google Maßnahmen gegen eine Methode, die bestimmten Links auf einer Webseite eine höhere Gewichtung verleihen konnte. Es dauerte allerdings nicht lange, bis findige Webmaster mit anderen Techniken auch diese Maßnahmen für sich zu nutzen wussten. Schließlich gab Google 2009 bekannt, die Suchhistorie der Anwender für populäre Ergebnisse heranzuziehen. 2010 veröffentlichte Google ein neues Indexsystem, welches Google Caffeine genannt wurde. Google Caffeine machte es Anwendern möglich, kurz nach der Veröffentlichung Nachrichten, Forenbeiträge und anderweitige Inhalte zu finden. Mit Google Caffeine änderte sich die Art und Weise, wie der Index des Suchdienstanbieters aktualisiert wird. Damit die Suchergebnisse noch zeitnaher und relevanter erscheinen konnten, stellte das Suchmaschinen Unternehmen 2010 Google Instant vor. Mit der nun vorhandenen Echtzeitsuche wurde der Fokus verstärkt auf die wachsende Beliebtheit von sozialen Netzwerken und Blogs gelegt. Weiterhin gelang es 2011 mit dem Panda-Upgrade Webseiten abzustrafen, welche Seiteninhalte von anderen Seiten kopiert hatten. Seit April 2012 werden Webseiten, die ihr Ranking mit manipulativen Techniken verbessert haben, konsequent herabgestuft.

Arbeitsweise der Suchmaschinen

Da das Lesen und Suchen der Inhalte von Webseiten den bekannten HTML-Standards des World Wide Web folgt, ist die Einhaltung dieser bei der Seitenerstellung, der erste Schritt in Richtung Optimierung. Die Validität einer HTML Seite spielt wohl beim Ranking keine Rolle. Allerdings können HTML-konforme Webseiten vom Browser schneller geladen werden. Dieser Umstand wird von Suchmaschinen gern belohnt. Beim Online-Marketing wird die Suchmaschinenoptimierung in zwei Aufgabengebiete unterteilt. Dies ist zum einen die Offpage- und zum anderen die Onpage-Optimierung. Bei der Einteilung ist entscheidend, ob Einfluss auf eine andere Webseite genommen wird oder die eigene bearbeitet.

Onpage-Optimierung

Zur Onpage-Optimierung zählen alle Anpassungen, die inhaltsseitig an der eigenen Internetseite vorgenommen werden. Dazu gehört die Optimierung des Seiteninhalts betreffend der Inhaltsqualität, Formatierungen oder Überschriften sowie technische Aspekte, wie zum Beispiel Header, Tags oder die interne Link-Struktur. Daraus ergibt sich, dass einer Offpage-Optimierung immer eine Onpage-Optimierung vorausgeht. Für einen weiteren Schritt wird es nötig, die geeigneten Suchbegriffe oder Keywords auszuwählen. Dabei können frei verfügbare Keyword-Datenbanken oder der MetaGer-Web-Assoziator sehr hilfreich sein. Ein weiteres nützliches Hilfsmittel ist das Google-AdWords-Keyword-Tool. Dieses Werkzeug listet sowohl verwandte Suchbegriffe als auch Werte über die Anzahl der monatlichen Suchanfragen pro Suchbegriff auf.

Offpage-Optimierung

Offpage-Optimierung werden die Maßnahmen genannt, welche außerhalb der eigenen Internetseite stattfinden. Allein die Erhöhung der Relevanz durch Onpage-Maßnahmen reicht nicht aus. Soll ein hohes Listing bei Suchmaschinen erreicht werden, muss auf die Qualität und Quantität von eingehenden Links, sogenannter Rückverweise oder Backlinks, geachtet werden. Die Offpage-Optimierung versucht eine Linkstruktur mit anderen Webseiten herauszubilden, damit die Webseite in bestimmten thematischen Bereichen besser positioniert ist. Um diesen Effekt zu erreichen, werden Webseiten passend zur eigenen Thematik gesucht und versucht diese für eine Linkpartnerschaft zu gewinnen. Außerdem kann eine Linkanalyse des Wettbewerbs hilfreich sein, Linkpartner zu finden. Aber auch die Nutzung eines Link Research Tools unterstützt beim Durchwühlen der besten Unterseiten einer Domain. Weiterhin hat die Gestaltung des Linktextes bei einem Backlink, enormen Einfluss auf die Platzierung ausgewählter Suchwörter. Kostenlos nutzbare Webanwendungen ermöglichen es, das Potenzial einer Webseite einfach zu ermitteln. Sind die Defizite erst einmal gefunden reichen meist schon kleine Veränderungen, um das Ranking bei Suchmaschinen deutlich zu verbessern.

Mit erfolgreichem SEO-Marketing zu mehr Kunden, mehr Traffic und mehr Umsatz: Hier klicken!

©2019 Socialblog Branchenportal24

Schnellzugriff auf Ihr Profil
Sie müssen eingeloggt sein um den Schnellzugriff nutzen zu können

Log in with your credentials

or    

Forgot your details?

Create Account