• SEO-Tipps

7 Technische SEO-Probleme, die Sie vergessen haben zu überprüfen

  • David Ryan
  • 3 min read
7 Technische SEO-Probleme, die Sie vergessen haben zu überprüfen

Intro

Das Leben eines technischen SEOs kann sehr schnelllebig sein. Ein Pagespeed-Audit in der einen Woche, internationale Überlegungen in der nächsten, Content Pruning in der nächsten, usw. usw.

Technische SEOs können sich so sehr in einer fleischigen (oder veganen) Aufgabe verlieren, dass sie oft die kleineren Korrekturen übersehen, die einen großen Einfluss auf Ihre organische Leistung haben können.

Dies sind keine technischen SEO-Silberkugeln, sondern Empfehlungen, von denen Sie wissen, dass Sie sie beheben sollten, es aber nie tun.

Deshalb möchte ich Ihnen einige meiner liebsten "Ach ja, das habe ich vergessen zu überprüfen"-Probleme beim Überprüfen einer Website vorstellen.

Umleitungsregel in Großbuchstaben

Jeder Tech-SEO, der etwas auf sich hält, kennt die offensichtlichen Weiterleitungsregeln und weiß, wo sie angewendet werden sollten, z. B. http auf https-Seiten, Schrägstrich auf nicht-schrägstrich usw.

Aber wann haben Sie das letzte Mal überprüft, ob alle Seiten-URLs die Kleinschreibung erzwingen?

Da die URL der eindeutige Bezeichner für eine Webseite ist, werden www.example.com/category und www.example.com/Category als unterschiedliche Seiten betrachtet, auch wenn der Inhalt derselbe ist.

Dies kann bei Suchmaschinen zu Problemen mit doppelten Inhalten führen, daher sollte die Kleinschreibung von URLs erzwungen werden.

Probleme mit der Paginierung

Wenn die von Ihnen verwaltete Website eine Paginierung nach Kategorien aufweist, sieht das URL-Muster oft wie folgt aus

www.example.com/mattresses/memory-foam-mattresses?p=1
www.example.com/mattresses/memory-foam-mattresses?p=2
www.example.com/mattresses/memory-foam-mattresses?p=3

Allerdings ist die Seite ?p=1 in diesem Beispiel ein Duplikat der kanonischen Seite "www.example.com/mattresses/memory-foam-mattresses".

Daher sollte dieses ?p=1 Duplikat auf die Seite "www.example.com/mattresses/memory-foam-mattresses" umgeleitet werden, wobei alle internen Links aktualisiert werden, um die Änderung widerzuspiegeln.

Ein weiteres leicht zu vernachlässigendes Problem bei der Paginierung sind die kanonischen Tags. Oft verweisen die Seiten ?p=2, ?p=3 in ihren kanonischen Tags auf die erste paginierte Seite.

Der Verweis auf die erste Seite auf allen paginierten Seiten sagt den Suchmaschinen, dass die Seiten mit der ersten Seite identisch sind, was bedeutet, dass Crawler die anderen Seiten nicht crawlen oder den Links zu den Produkten auf diesen Seiten nicht folgen können. Machen Sie sie selbstreferenzierend!

Verwenden Sie den Meta noindex Tag anstelle von robots.txt

Ich sehe die Meldung "Für diese Seite sind keine Informationen verfügbar " Ständig, wenn ich mir indizierte Seiten in Google ansehe:

Use Meta noindex Tag Instead of robots.txt

Dies liegt daran, dass der Webmaster versucht hat, eine Seite aus dem Index zu entfernen, indem er in der robots.txt eine disallow-Direktive gegen sie einfügte.

Diese Seiten können jedoch immer noch über Suchvorgänge gefunden werden, daher ist es besser, sie aus der robots.txt zu entfernen und ein noindex-Tag zwischen die HEAD Tags der Seiten, die nicht indiziert werden sollen.

Meta nofollow von ausgewählten Seiten entfernen

Dies gilt natürlich nicht für alle Seiten, die ein nofollow-Tag haben, aber viele nofollow-Tags werden oft versehentlich mit einem noindex-Tag hinzugefügt. Das Entfernen der nofollow-Anweisung verbessert den Fluss der Link-Autorität und den Crawler-Zugriff auf die Website.

Auch wenn Suchmaschinen diese Seiten nicht indizieren müssen, könnten Seiten, auf die sie verlinken, indiziert werden, weshalb die Links befolgt werden sollten.

Dev Site im Index

Ich finde es toll, wenn ich bei der Prüfung der Website eines potenziellen Kunden eine Staging-Site finde, die noch indiziert ist. Das zeigt, dass es dem Entwickler an Sorgfalt mangelt, und kann eine gute Möglichkeit sein, den Kunden schon früh in einer Geschäftsbeziehung auf Ihre Seite zu ziehen.

Die beste Möglichkeit, eine Testumgebung vor der Indizierung zu schützen, ist ein Passwortschutz oder eine Einschränkung auf der Grundlage eines IP-Bereichs.

Einige schnelle Methoden, um zu überprüfen, ob Ihre Entwicklungsseite von Google indiziert wird, sind erweiterte Suchoperatoren wie:

- Standort:dev.beispiel.com
- Standort:staging.beispiel.com
- Standort:prod.beispiel.com
- Standort:beispiel.com inurl:test
- Standort:beispiel.de -inurl:www.

Überprüfen Sie Ihre XML-Sitemap

XML-Sitemaps werden oft vergessen, wenn sie nicht automatisch erstellt werden. Hier sind 3 schnelle Überprüfungen, die zusammen weniger als 5 Minuten dauern:

Check 1 - Wird die XML-Sitemap in der robots.txt verlinkt?

Suchmaschinen-Crawler suchen immer nach einer robots.txt-Datei im Stammverzeichnis einer Website. Wenn Sie also einen Link zu Ihrer XML-Sitemap in die robots.txt-Datei einfügen, werden alle wichtigen Suchmaschinen auf diesen Ort hingewiesen.

Check 2 - Wurde die XML-Sitemap zur Google Search Console hinzugefügt?

Die Übermittlung von XML-Sitemaps an Google Search Console stellt sicher, dass Google sie finden und crawlen kann. Nach der Übermittlung können Sie sehen, ob Google Ihre Seiten-URLs erfolgreich ermitteln kann:

Wurde die XML-Sitemap der Google Search Console hinzugefügt? (image3.png)

Check 3 - Gibt es Fehler in der XML-Sitemap?

URLs in Sitemaps sollten nicht umleiten oder Fehler zurückgeben - jede Seite sollte einen 200 OK Statuscode zurückgeben. Suchmaschinen können Sitemaps komplett ignorieren, wenn sie zu viele Fehler enthalten.

Sie können feststellen, ob Ihre Sitemap Fehler enthält, indem Sie in der Google-Suchkonsole nachsehen, sobald die XML-Sitemap übermittelt wurde. Alternativ können Sie eine XML-Sitemap in Screaming Frog crawlen, indem Sie Modus > Liste > Hochladen > XML-Sitemap herunterladen wählen.

Alten Inhalt aus dem Index entfernen

Wann haben Sie das letzte Mal einen Blick auf Ihre veralteten Inhalte geworfen, wie z.B. Gewinnspielseiten für Wettbewerbe, die im Jahr 2017 endeten?

Die Überprüfung der Inhalte, die von Google indexiert werden, kann zu technischen SEO-Vorteilen führen, wie z. B. einer verbesserten Crawling- und Indexierungsleistung, und ist daher ein wichtiger Bereich, den Sie berücksichtigen sollten.

Wenn zum Beispiel Hunderte von veralteten Blogbeiträgen indexiert werden, könnten Suchmaschinen ihr Crawl-Budget für den Besuch dieser Seiten verschwenden, während sie wichtigere Seiten bearbeiten könnten.

Alte Inhalte aus dem Index entfernen](image2.png)

Ich finde diese veralteten Blog-Posts gerne mit erweiterten Suchoperatoren. Einige meiner Favoriten sind:

- Seite:beispiel.com inurl:Weihnachten
- Seite:beispiel.de inurl:Wettbewerb
- Seite:beispiel.de inurl:Auszeichnung
- Seite:beispiel.de inurl:august
- Seite:beispiel.de inurl:september
- Seite:beispiel.de inurl:2016
- Seite:beispiel.de inurl:2017
- Etc.

Ranktracker kostenlos testen