Die 5 größten SEO-Mythen und Irrtümer

Aktualisiert: Aug 24

Ob Duplicate Content, die Bedeutung von Keywords oder die Frage, wie lange es dauert bis sich SEO-Erfolge einstellen. Es gibt zahlreiche SEO-Mythen und -Irrtümer, die immer wieder für Verwirrung und fragende Gesichter sorgen. Wir klären über die größten Mythen auf und bringen Licht ins Dunkel.

„Duplicate Content sorgt für Abstrafungen“

Eines jener SEO-Irrtümer, die sich seit Jahren am hartnäckigsten halten: doppelte Inhalte und Duplikate schaden einer Seite und sorgen in Form von Ranking-Verlusten für Abstrafungen durch Google. Die Wahrheit lautet, dass die allermeisten Befürchtungen und Sorgen von Webmastern und Seitenbetreibern in diesem Zusammenhang übertrieben sind. Duplicate Content kann im Zweifel sogar besser sein als zu wenig Inhalt. Fakt ist: Google „betraft“ keinen Duplicate Content, im Zweifel ignoriert er ihn nur da es bereits „Ursprungsseiten“ gibt, welche den entsprechenden Text(abschnitt) – im Original – beinhalten. Und die Google für die entsprechende Suchanfrage bzw. das gesuchte Keyword als relevanter ansieht und damit prominenter in den Suchergebnissen anzeigt.

Google versucht also zu jedem Inhalt oder Thema nur die relevanteste, wichtigste Adresse bzw. URL herauszufinden und dem User zu präsentieren. Kopierte Textstellen wird Google auf anderen Seiten einfach ignorieren. Zudem erkennt die Suchmaschine, falls man tatsächlich bestimmte Textstellen anderer Seiten einfach ein-zu-eins übernommen hat, den eigentlichen Content-Urheber am Crawling-Zeitstempel.

Die Wahrheit lautet: Duplicate Content schadet nicht, allerdings bringt es auch keine Vorteile. Deshalb kann man sich die „Mühen“ des Kopierens einfach sparen.


"Ich muss meine Website aktiv selber bei Google eintragen“

Ein weiterer Klassiker unter den SEO-Mythen. Niemand muss aktiv und von sich aus

Anstrengungen unternehmen, um seine Seite bei Google „einzutragen“. Schon die Formulierung „eintragen“ existiert in diesem Zusammenhang gar nicht und meint letztlich nur den Irrglauben, man könne seine Domain bzw. seine Website selbstständig irgendwo bei Google, möglicherweise in einer Art Verzeichnis oder Liste, hinterlegen und eingeben.

Tatsache ist, dass Google Ihre Seite auch so findet und diese crawlt, auch wenn dies möglicherweise ein paar Tage dauern kann – oder auch mal etwas länger, je nachdem wie gut die Seite


· strukturiert

· aufgebaut und

· (SEO-) optimiert ist

Und ob zum Beispiel eine Sitemap in der Search Console hinterlegt ist und das Indexierungsmanagement selbst betreut und angestoßen wird. Denn eines ist klar: Durch die Nutzung der Search Console und das Einreichen einer Sitemap kann man Prozesse wie das Crawling, Indizieren und letztlich das Ranking in jedem Fall beschleunigen.

Die Wahrheit lautet: Man muss (und kann) seine Seite nicht eigenständig bei Google eintragen. Google wird die eigene Webpräsenz früher oder später selbstständig finden.


„Eine per robots.txt blockierte Webseite kann nicht in den Index gelangen“

Fragen und Themen rund um die Steuerung und Beeinflussung der Crawler, etwa durch Eintragungen in der robots.txt oder den Meta Robots Tags, gehören schon zu den etwas anspruchsvolleren und komplexeren SEO-Inhalten. Entsprechend halten sich viele Irrtümer und SEO-Mythen rund um die robots.txt hartnäckig. Viele SEO-Neulinge und Site-Betreiber etwa vertreten die Ansicht, dass eine per robots.txt blockierte Webseite nicht in den Index kommen kann.

Dabei haben Eintragungen in der robots.txt nur Einfluss auf das Crawling, nicht auf die Indizierung. Das heißt: Die URL/Seite und damit ihr Inhalt (die Artikel, Beiträge, Videos usw.) werden nicht gecrawlt bzw. erfasst – Google listet diese Seite aber dennoch. Und da Google die Site also in jedem Fall kennt, kann die Suchmaschine diese auch entsprechend indexieren und in den Datenbestand aufnehmen. Tipp: Möchte man die URL nicht im Index haben, sollte man sie über das entsprechende Meta Robots Tag „noindex“ auf Seitenebene sperren.

Die Wahrheit lautet: Über die robots.txt blockierte Seiten können in den Index gelangen. Die Angaben in der robots.txt beeinflussen das Crawling, nicht die Indexierung.



„SEO-Erfolge zeigen sich schnell“


Ebenfalls ein großer SEO-Mythos. Denn die Erfolge der SEO-Optimierungs-maßnahmen sind immer auch abhängig davon, wie viel Zeit und Energie man in die Optimierung seiner eigenen Website steckt. Und wie die Qualität des eigenen Webauftritts allgemein ist. Hat man von Beginn an, bereits beim Bau der Site, zum Beispiel auf

· übersichtliche Strukturen

· sinnvolle URL-Bezeichnungen

· eine kluge interne Verlinkung

· hochwertige Web-Inhalte

· nutz- und mehrwertige SEO-Texte


geachtet und seine wichtigsten Seiten zudem über die Sitemap in der Search Console eingereicht, können sich beachtliche Ranking-Erfolge schon nach wenigen Wochen zeigen. Bereits nach vier bis sechs Wochen sind erste Positionierungen auf Seite Eins bei Google möglich und absolut realistisch. Natürlich immer in Abhängigkeit von der Konkurrenzsituation eines Keywords und des Suchvolumens.

Wenn Sie das Thema SEO jedoch immer schon vernachlässigt haben und erst im Nachhinein aufwendig, kleinteilig optimieren und SEO-Fehler beheben müssen, kann es bis zu einigen Monaten dauern, bis Google die (verbesserte) Qualität Ihrer Website erkennt – und diese mit attraktiveren, höheren Platzierungen belohnt.

Die Wahrheit lautet: Wie schnell sich positive Auswirkungen von SEO-Maßnahmen zeigen hängt immer davon ab, wie viel Zeit und Mühen Sie in die SEO-Optimierungen stecken, wie die Qualität der (Verbesserungs-)Arbeiten ist und ob sie – hinsichtlich der „Fehler“ – richtig priorisieren.

„Wer in SEO investiert, sollte (Back)Links kaufen“

Ein SEO-Irrglaube, welcher sich ebenfalls seit vielen Jahren in den Köpfen vieler Seitenbetreiber hält. Natürlich: Die Versuchung ist verlockend, denn es gibt mittlerweile unzählige Linkagenturen und (fadenscheinige, unseriöse) Backlink-Anbieter, die mit günstigen Preisen und Linkpaketen locken. Und klar ist auch, dass Backlinks noch immer zu den wichtigsten Google-Rankingfaktoren zählen. Doch Vorsicht, nicht wenige dieser Unternehmen arbeiten mit unlauteren Mitteln, die auch Abstrafungen für Ihre eigene Website nach sich ziehen können. Einige Agenturen bedienen sich automatisierter Software, um etwa in

· Foren

· sozialen Medien

· Bulletin Boards

Postings und Kommentare mit unseriösen Links zu hinterlassen. Diese Seiten werden mit solchen Postings regelrecht überflutet und zugespammt. Doch der Google-Algorithmus ist schlau.


Der Algorithmus erkennt, wie schnell sich Backlinks aufbauen und merkt, wenn diese in unnatürlicher Weise und übertrieben gehäuft in kürzester Zeit entstehen – mit möglichen negativen Folgen in Form von Abstrafungen nicht nur für die Linkagentur sondern auch für jene Seiten bzw. Seitenbetreiber, welche diese Angebote nutzen.

Um sinnvolle Backlinks zu erhalten, die als Rankingsignal ihre volle Wirkung entfalten, sollte man zur Generierung nützlicher, relevanter „Empfehlungen“ (denn nichts anderes sind Backlinks) lieber wie folgt vorgehen: Erstellen Sie nach einer ausgiebigen Keyword-Recherche einmalige, herausragende und den Search Intent berücksichtigende multimediale Inhalte (Texte, Podcasts, Videos), die von anderen Webseiten gerne aufgegriffen und geteilt werden. Zielführendes Content-Seeding und die gesteuerte Verbreitung der Inhalte in den sozialen Medien im Anschluss ergänzen dies und können auf die lange Sicht ebenfalls zu guten Backlinks führen.

Die Wahrheit lautet: Der (übertriebene, inflationär betriebene) Kauf von Backlinks wird niemals denselben positiven Effekt haben wie das Aufbauen von Rückverweisen durch selbst erstellte, nutzerzentrierter und erlesene Web-Inhalte. Auch wenn Letzteres zeitaufwendiger ist, auf die lange Sicht lohnt dies mehr als teures Geld in – bisweilen fragwürdige – Machenschaften zu investieren.




146 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen