• SEO Tips

7 Technische SEO problemen die je bent vergeten te controleren

  • David Ryan
  • 3 min read
7 Technische SEO problemen die je bent vergeten te controleren

Intro

Het leven van een technische SEO kan erg snel gaan. De ene week een pagespeed audit, de volgende week internationale overwegingen, daarna content snoeien, enz. enz.

Technische SEO's kunnen zich zo verliezen in een vlezige (of veganistische) taak, dat ze vaak de kleinere fixes over het hoofd zien die een grote impact kunnen hebben op je organische prestaties.

Dit zijn geen technische SEO-zilverkogels, dit zijn aanbevelingen waarvan je weet dat je ze zou moeten oplossen, maar die je nooit doet.

Daarom ga ik een aantal van mijn favoriete "oh ja, vergeten te controleren" kwesties delen bij het auditen van een website.

Hoofdletter redirect regel

Elke SEO'er die de moeite waard is, kent de voor de hand liggende redirect-regels en weet waar ze moeten worden toegepast, bijv. http naar https pagina's, trailing slash naar non-trailing slash, enz.

Echter, wanneer was de laatste keer dat u gecontroleerd heeft of alle pagina URL's de kleine letters afdwingen?

Aangezien URL de unieke identificatie is voor een webpagina, worden www.example.com/category en www.example.com/Category beschouwd als verschillende pagina's, ook al is de inhoud hetzelfde.

Dit kan leiden tot duplicate content problemen bij zoekmachines, dus moeten URL's met kleine letters worden geforceerd.

Paginatie problemen

Als de website die u beheert een categorie-paginatie heeft, dan is het URL-patroon vaak als volgt:

www.example.com/mattresses/memory-foam-mattresses?p=1
www.example.com/mattresses/memory-foam-mattresses?p=2
www.example.com/mattresses/memory-foam-mattresses?p=3

Echter, de ?p=1 pagina, is een duplicaat van de canonieke www.example.com/mattresses/memory-foam-mattresses pagina, in dit voorbeeld.

Daarom moet deze ?p=1 duplicaat 301 redirected worden naar de www.example.com/mattresses/memory-foam-mattresses pagina, met alle interne links bijgewerkt om de verandering te reflecteren.

Een ander makkelijk te vergeten paginering probleem is met canonieke tags. Vaak verwijzen de ?p=2, ?p=3 pagina`s naar de eerste gepagineerde pagina in hun canonieke tags.

Het verwijzen naar de eerste pagina op alle gepagineerde pagina's vertelt zoekmachines dat de pagina's hetzelfde zijn als de eerste pagina, wat betekent dat crawlers de andere pagina's misschien niet crawlen of de links naar de producten vanaf die pagina's niet volgen. Maak ze zelfverwijzend!

Gebruik Meta noindex Tag in plaats van robots.txt

Ik zie het bericht "Er is geen informatie beschikbaar voor deze pagina " ALTIJD als ik naar geïndexeerde pagina's in Google kijk:

Gebruik Meta noindex Tag in plaats van robots.txt](image1.png)

Dit komt omdat de webmaster heeft geprobeerd een pagina uit de index te verwijderen door een disallow directive toe te voegen in de robots.txt.

Deze pagina's kunnen echter nog steeds gevonden worden via zoekopdrachten, dus het is beter om ze te verwijderen uit de robots.txt en een noindex tag toe te voegen tussen de HEAD tags van de pagina's die niet geïndexeerd moeten worden.

Verwijder Meta nofollow van geselecteerde pagina`s

Dit geldt natuurlijk niet voor alle pagina's die een nofollow tag hebben, maar veel nofollow tags worden vaak per ongeluk toegevoegd met een noindex tag. Het verwijderen van de nofollow instructie zal de stroom van link autoriteit en crawler toegang rond de site verbeteren.

Hoewel zoekmachines deze pagina's misschien niet hoeven te indexeren, kunnen pagina's waarnaar ze linken wel geïndexeerd worden, en daarom moeten de links gevolgd worden.

Dev Site in de Index

Ik vind het geweldig om een staging site te vinden die nog steeds geïndexeerd is wanneer ik een website van een potentiële klant controleer. Het toont een gebrek aan zorg voor de ontwikkelaar en kan een geweldige manier zijn om de klant al vroeg in een relatie aan jouw kant te krijgen.

De beste manier om te voorkomen dat een testomgeving geïndexeerd wordt is door deze te beveiligen met een wachtwoord of te beperken op basis van IP range.

Enkele snelle methodes om te controleren of uw dev site geïndexeerd wordt in Google is met geavanceerde zoekoperatoren zoals:

- Site:dev.example.com
- Site:staging.voorbeeld.com
- Site:prod.voorbeeld.com
- Site:voorbeeld.com inurl:test
- Site:voorbeeld.com -inurl:www.

Controleer uw XML Sitemap

XML-sitemaps worden vaak vergeten als ze niet automatisch worden gegenereerd. Hier zijn 3 snelle controles die samen minder dan 5 minuten in beslag nemen:

Check 1 - Wordt er naar de XML Sitemap gelinkt in de robots.txt?

Zoekmachine crawlers zullen altijd zoeken naar een robots.txt bestand in de root folder van een website. Daarom is het toevoegen van een link naar uw XML sitemap in de robots.txt wijst alle grote zoekmachines naar de locatie.

Check 2 - Is de XML Sitemap toegevoegd aan Google Search Console?

Het indienen van XML-sitemaps bij Google Search Console zorgt ervoor dat Google ze kan vinden en crawlen. Eenmaal ingediend, kunt u zien of Google succesvol in staat is om uw pagina URL's te ontdekken:

Is de XML-sitemap toegevoegd aan Google Search Console?

Check 3 - Zijn er fouten in de XML sitemap?

URL's in sitemaps mogen niet redirecten of fouten teruggeven - elke pagina moet een 200 OK statuscode teruggeven. Zoekmachines kunnen sitemaps volledig negeren als ze te veel fouten bevatten.

Je kan ontdekken of je sitemap fouten bevat door in Google Search Console te kijken nadat de XML sitemap is ingediend. Als alternatief, kunt u een XML sitemap crawlen in Screaming Frog door het selecteren van Mode > Lijst > Upload > Download XML Sitemap.

Oude inhoud verwijderen uit index

Wanneer was de laatste keer dat je naar je gedateerde inhoud hebt gekeken, zoals wedstrijdpagina's voor wedstrijden die in 2017 zijn afgelopen?

Door te bekijken welke inhoud wordt geïndexeerd binnen Google kan dit leiden tot technische SEO-voordelen, zoals verbeterde crawling en indexatieverbeteringen, dus het is een belangrijk gebied om te overwegen.

Als er bijvoorbeeld honderden verouderde blogberichten worden geïndexeerd, kunnen zoekmachines hun crawlbudget verspillen door deze pagina's te bezoeken, terwijl ze belangrijkere pagina's zouden kunnen verwerken.

Oude inhoud verwijderen uit index](image2.png)

Ik vind deze gedateerde blog posts graag met geavanceerde zoekoperatoren. Enkele van mijn favorieten zijn:

- Site:voorbeeld.com inurl:Kerstmis
- Site:voorbeeld.com inurl:wedstrijd
- Site:voorbeeld.com inurl:award
- Site:voorbeeld.com inurl:augustus
- Site:voorbeeld.com inurl:september
- Site:voorbeeld.com inurl:2016
- Site:voorbeeld.com inurl:2017
- Enz.

Probeer Ranktracker GRATIS