Crawling

Robots.txt
1.         Sind Seiten auf Disallow gesetzt?
2.         Sie gibt einen 500 oder 403 Statuscodes zurück?
Zugriff
3.         Ist der Google Bot gesperrt?
4.         Zugriffe aus der USA gesperrt?
5.         Tritt beim Aufrufen der Seite einen SSL Fehler ein?
6.         Der Server gibt einen falschen Statuscode zurück

Canonicals

1.         Wenn die verlinkte original Seite im Webmastertool gesperrt ist, werden beide Seiten nicht indexiert.
2.         Wenn sich die Originale und die Duplicate Content Seite gegenseitig mit dem Canonical Tag verlinken, dann werden beide Seiten nicht indexiert.
3.         Der Canonical weist auf die Startseite, dies kann dazu folgen, dass nur noch die vom Google Bot indexiert wird.
4.         Der Canonical ist im Body-Bereich einer Webseite.

Inhalt

1.         Pagespeed? > 10 Sek?
2.         Wird Flash genutzt.
3.         Sind Rechtschreibfehler vorhanden?
4.         Sind viele Stockbilder auf der Webseite?
5.         Werden keine/zuwenig Keywords verwendet.
6.         Interne Links über Weiterleitungen. Sind interne Links direkt verlinkt?

Weiterleitungen

1.         Ein Redirect ist auf sich selbst verlinkt, für den Browser zu viele Weiterleitungen.
2.         Redirect ist auf eine nicht existierende Seite weitergeleitet.
3.         Es gibt Seiten mit 302 Weiterleitungen.
4.         Permanente Weiterleitung durch JavaScript.
5.         Die „WWW“ und die „ohne WWW“ Seite haben verschiedenen Inhalt.
6.         Es gibt einen eingebunden Meta-Refresh.

Neben diesen, einfacher zu findenden SEO-Fehler gibt es manchmal Probleme, die nicht so leicht zu finden sind. Dann braucht es die Expertiese von einer SEO-Agentur.