Door Derek Visser

Na onze ultieme on-site SEO checklist kan een volledige update over technische SEO niet achterblijven. Naast on-site SEO en off-site SEO vormt technische optimalisatie de derde pijler van een doortimmerde organische zoekmachine strategie.

Geen zin om te lezen? Skip het verhaal en geef me gewoon de checklist

Wat is technische SEO?

Je techniek goed op orde hebben is een vereiste voor een goede organische vindbaarheid. Een goede techniek zorgt er niet alleen voor dat je site beter wordt gewaardeerd door Google, ook de bezoeker is erbij gebaat. Zodoende is een verbeterde vindbaarheid mooi meegenomen maar is een solide techniek onontbeerlijk voor je gehele online prestaties.

Crawling & Indexatie

Je kunt de mooiste website ter wereld hebben met de meest waardevolle content, maar wat als die content niet vindbaar is in de zoekmachine? Een belangrijk onderdeel van technische SEO is optimale indexatie faciliteren zodat al je content gevonden wordt en wordt weergegeven in de zoekmachine.

Om indexatie goed te begrijpen moet je iets weten over crawling. Google - en elke andere zoekmachine - gebruikt een spider, ook wel bot of crawler genoemd, om het web te indexeren. Deze geautomatiseerde programma’s volgen links om van de ene pagina naar de andere pagina te springen (of kruipen). Op deze manier ontstaat letterlijk een web van pagina’s en sites waarbij de links de draadjes vormen die alles met elkaar verbinden. Vandaar de naam spider.

 

De nulmeting: waar sta je nu?

Met een eenvoudig trucje kun je het aantal geïndexeerde pagina’s van jouw site achterhalen in verschillende zoekmachines.

Vul in de zoekbalk van Google of Bing eenvoudig site:jouwdomein.nl in, bijvoorbeeld: site:uncharteddigital.nl. Zo zie je direct hoe veel pagina’s van je site zijn opgenomen in de index van de zoekmachine.

Het absolute aantal pagina’s van je site dat geïndexeerd is, is niet eens zozeer van belang. Het gaat er om dat alle pagina’s van je site zijn geïndexeerd, niet meer en niet minder. Wat ons op de vraag brengt:

Hoe veel pagina’s heeft mijn site?

Als je website een sitemap.xml heeft, geweldig. In dit bestand zijn (als het goed is gegenereerd) alle pagina’s van je site vermeld. Leg het aantal pagina’s uit je sitemap naast het aantal geïndexeerde pagina’s en voila.

Heb je geen sitemap kun je er een genereren met een online tool. Dit werkt prima voor kleinere sites, voor grotere sites is het handig om een spidering-tool als Screaming Frog te gebruiken.

 

Zijn je links zichtbaar voor de spider?

Een website moet voor menselijke gebruikers goed te gebruiken zijn, vanuit SEO oogpunt kijken we meer naar de bruikbaarheid van een site vanuit de ogen van de spider. Een spider is een - voornamelijk - tekst-gebaseerd programma. Dit houdt in dat de spider tekst kan lezen maar plaatjes, scripts (Javascript) en Flash over het algemeen lastiger vindt om te begrijpen.

Kijken door de ogen van de spider

Google en Bing hebben programma’s ontwikkeld, bedoeld voor webmasters, waarmee je kunt zien hoe de spider jouw website ziet. Voor Google heet dit programma Search Console, in Bing heet dit Webmaster tools. Wanneer je in Search Console zit kies je voor ‘crawlen’, daarna ‘Fetchen als Google’. Hier zie je de content van je site die de spider ziet, samen met de HTTP status codes.

Door de ogen van de spider

Belangrijk is dat de interne links in je site - voornamelijk die van je menu - als tekst zichtbaar zijn. Spiders kunnen het best HTML en CSS lezen, als je indexatie issues hebt volg dan even deze checklist:

  • Hoe ziet de spider jou, zijn de links op je site zichtbaar als je de spider-view in Search Console of Webmaster tools gebruikt?
  • Pas op dat je geen Javascript-menu gebruikt dat wordt gegenereerd in de browser van de bezoeker (client-side rendered content)
  • Zorg ervoor dat je site geen Flash gebruikt - hoe dan ook erg verouderd en wordt niet meer geladen in (mobiele) browsers.
  • Zit een stuk van je content misschien achter logins of paywalls?

 

Laat de zoekmachine weten hoe je site er uit ziet

Als je site goed te spideren is door de zoekmachine kun je er van uit gaan dat Google of Bing je pagina’s weet te vinden. Je kunt het proces ook een handje helpen door een sitemap.xml te uploaden of aan te geven bij Google Search Console en / of Bing Webmaster tools.

Er bestaan verschillende soorten sitemaps, als je veel afbeeldingen of video’s hebt die je geïndexeerd wil zien kun je ook sitemaps voor images en sitemaps voor video’s toevoegen.

Sitemaps gebruiken een standaard protocol, oftewel opmaak waaraan het xml bestand moet voldoen. Dit protocol kun je vinden op sitemaps.org. Mocht je sitemap.xml niet aan het protocol voldoen geeft Search Console daar overigens een melding van.

 

Robots

In vroeger tijden was het zo dat je eerst een site ‘aan moest melden’ bij een zoekmachine voordat deze werd geïndexeerd, vaak tegen betaling. Nu is de gedachte bij veel mensen dat we maar moeten hopen en afwachten waar Google zin in heeft.

Maar wist je dat je Google gewoon instructies kunt geven wat ‘ie met je site moet doen? In een klein tekstbestandje, genaamd robots.txt dat je op de root van de site plaatst (dus direct na je domein) kun je instructies voor de zoekmachine geven. Dit bestand wordt niet alleen gebruikt door Google maar door een hele hoop geautomatiseerde processen (bots) die je site afstruinen.

In de robots.txt kun je een aantal dingen aangeven:

  • Of je überhaupt wil dat je site wordt geïndexeerd - we gaan er wel van uit, anders zou je deze guide niet lezen.
  • Welke onderdelen van je site niet geïndexeerd mogen worden, denk hierbij aan de login omgeving of tijdelijke onderdelen van je site
  • Wat de locatie is van je sitemap
  • Welke bots wel en niet je site mogen betreden

Net als de sitemap.xml dient ook de robots.txt aan een strict format te voldoen. Je leest alles over robots.txt op robots.org

 

Redirects en status codes

Het ‘normale’ internet (www) draait op het HTTP of HTTPS protocol. Dit is de taal waarin jouw browser met servers over het hele internet communiceert. Dit gebeurt door middel van status-codes. Wanneer je een pagina opvraagt het alles gaat goed komt de status ‘200, OK’ terug, de pagina wordt geladen. Echter zijn er een hoop andere status codes mogelijk, waarvan de meest voorkomende zijn:

  • 301 - Permanent redirect
  • 302 - Found (vaak als temporary redirect gebruikt)
  • 400 - Bad request
  • 401 - Unauthorized
  • 403 - Forbidden
  • 404 - Not found
  • 500 - Internal server error
  • 503 - Service unavailable

In de wereld van SEO zijn eigenlijk alle statuscodes slecht nieuws, behalve 200 en 301. In de 400-range gaat er op je site zelf iets mis, in de 500-range gaat er op de server iets mis.

In de eerder besproken spider-view van Google Search Console worden ook de status codes weergegeven die Googlebot krijgt te zien. Krijg je op pagina’s vreemde statuscodes terug is dit iets wat het onderzoeken waard is.

Ook kun je voor het onderzoeken van statuscodes verschillende browserplugins of extensies gebruiken, waaronder HTTP Spy.

 

Vriendelijk ogende URLs

Zoekmachines, net als mensen, halen betekenis uit tekst. Op basis van de tekst van een pagina wordt afgeleid wat het onderwerp is. De URL vormt een zeer belangrijke indicator van het onderwerp van tekst. Waar kun je eenvoudiger het onderwerp van deze pagina uit afleiden:

  • https://uncharteddigital.nl/ultieme-technische-seo-checklist-2018
  • https://uncharteddigital.nl/90q87a?id=46499

Zorg er dan ook voor dat de URLs die je gebruikt leesbaar zijn (woorden bevatten), liefst geen speciale tekens en alles in kleine letters - non-case-sensitive. URLs worden vaak automatisch gegenereerd door het CMS dat je gebruikt. Als er een probleem is met je URLs is hier dan ook vaak een technische ingreep in je CMS voor nodig.

Een sterke siteopbouw: site-architectuur

Aan tekst is betekenis te ontlenen maar ook aan de structuur van een tekst, en hoe verschillende teksten met elkaar samenhangen is een hoop betekenis te ontlenen. Het is voor zowel je menselijke bezoeker als de zoekmachine erg belangrijk dat je je site op een eenvoudig te begrijpen wijze structureert.

Door een heldere structuur wordt duidelijk welke onderdelen van je site meest van belang zijn, in welke categorieën je je producten indeelt en wat je bedrijf eigenlijk doet. Een goede site-architectuur helpt je bezoeker sneller door je site te navigeren en te vinden waar hij naar op zoek is.

Met het aanbrengen van een duidelijke hierarchie in je site-structuur profiteer je ook op andere wijze. De waarde van je inkomende links (linkwaarde of 'linkjuice') wordt beter verspreid over je site. Er vloeit zo meer linkwaarde door naar meest belangrijke pagina's en site-onderdelen, welke beter gaan ranken.

Better safe than sorry

Het is al lang bekend maar neemt steeds meer in belang toe, ook voor je organische rankings: een met https beveiligde website. Een website zonder https kan eigenlijk niet meer, ziet er verouderd uit. Ondertussen geeft Chrome nog steeds niet actief de melding 'niet veilig' weer voor onbeveiligde sites maar dit gaat binnenkort wel gebeuren.

Ook de SEMRush Ranking factors study geeft aan dat het meerendeel van de sites die ranken op keywords met een hoog volume gebruik maken van https. Hoe hoger een site gemiddeld rankt, hoe vaker deze over https beschikt. Dit geeft niet direct een causaal verband aan maar laat wel zien dat je niet achter kunt blijven.

Laat niet op je wachten: Laadtijd

Twee belangrijke trends:

  1. Mensen worden steeds ongeduldiger, ook jouw gebruikers
  2. Mobiel internetgebruik wordt steeds groter

Deze twee trends zorgen ervoor dat een snel ladende site niet alleen fijn is maar essentieel om goed online zaken te kunnen doen. De zoekmachine is er op gericht om haar gebruikers een aangename ervaring te verschaffen. Als Google of Bing naar websites verwijst die er lang over doen om te laden leidt dat niet tot een tevreden gebruiker.

Daarom is laadtijd ook een ranking-factor geworden. Heb je een traag ladende site kun je er van uit gaan dat je site het minder doet in de zoekmachine, waardoor je ook organische bezoekers misloopt.

Laadtijd is zo’n enorm uitgebreid onderwerp dat het zijn eigen gids rechtvaardigt. Daarom geef ik hier slechts een korte opsomming van aandachtspunten rond laadtijd:

  • Check de laadtijd van je site in tools als Google Pagespeed Insights, Pingdom of YSlow
  • Zorg ervoor dat afbeeldingen geoptimaliseerd zijn voor web
  • Zorg ervoor dat CSS en JS bestanden minified zijn
  • Zorg voor server-side compressie van resources

Rich snippets & microdata

Al worden spiders (bots, crawlers) steeds slimmer, nog steeds vinden ze het lastig de exacte betekenis van onze woorden te interpreteren. De gouden regel is dat hoe makkelijker je informatie te interpreteren maakt voor de zoekmachine, hoe beter dit geindexeerd zal worden.

Om geen onduidelijkheid over informatie te laten bestaan en de zoekmachine meer informatie te geven over de inhoud van je site en pagina's kun je microdata gebruiken, ook wel rich snippets genoemd. In voor de bezoeker onzichtbare code geef je extra informatie mee aan de zoekmachine over de inhoud van je pagina.

Er zijn meerdere protocollen welke door verschillende zoekmachines worden herkend voor het meegeven van microdata. Ondertussen is schema.org het de facto standaardprotocol geworden. Zorg ervoor dat je verschillende onderdelen van je site verrijkt met microdata, waar dat mogelijk is. Denk hierbij aan:

  • Productnamen en prijzen
  • (tijdelijke) aanbiedingen
  • Beschikbaarheid van producten
  • Reviews en ratings (fijn, sterretjes in de zoekresultaten)
  • Je breadcrumbs opmaken (zorgt voor een mooiere vermelding van je sitepad in de SERPS)
  • Plaatsen & vestigingen (bijvoorbeeld je bedrijfsadres

Vergeet niet te checken of je opmaak voldoet aan de voorwaarden en foutvrij gelezen kan worden door de zoekmachine door de Structured data testing tool toe te passen

Duplicate content

Zoekmachines verwijzen het liefst bezoekers naar originele, unieke en hoogwaardige content. De originele bron waar content het eerst op het web verscheen. En niet alleen op het web, maar ook op jouw site zelf.

Vaak is het zo dat precies dezelfde content op meerdere pagina’s van je website verschijnt. Dit geeft twee problemen:

  1. De zoekmachine kan niet kiezen welke versie de voorkeur moet krijgen om te vertonen in de zoekresultaten
  2. Omdat de content vaker voorkomt op je site kan deze als minder waardevol of uniek worden gezien

Om optimale ranking te behalen is het daarom van belang dat je content uniek is. Soms heeft een website veel duplicate content vanwege technische oorzaken.

 

Technische oorzaken duplicate content

De zoekmachine gaat er van uit dat elke unieke URL van je site een unieke pagina aanduidt. Dit betekent dat als je pagina zowel benaderen is via http://www.site.nl als via http://site.nl dit in de ogen van de zoekmachine twee unieke pagina’s betreft, terwijl ze exact dezelfde content bevatten.

Zo ook voor de https:// versie. Als je content zowel via https://site.nl als http://site.nl te benaderen is heb je hetzelfde probleem. Zelfs de URL met en zonder een / (slash) aan het einde wordt als twee verschillende pagina’s gezien.

Daarom is het essentieel dat je alle URL-variaties redirect (met een 301 redirect) naar de URL zoals je ‘m wil voeren. Het belangrijke is dat je homepage (en eigenlijk elke pagina op je site) maar via een enkele URL te benaderen is. Denk samenvattend aan het volgende:

  • Trailing slash redirect
  • www redirect
  • http naar https redirect

 

De canonical

Soms is het niet te voorkomen dat verschillende pagina’s bijna dezelfde content hebben. Denk aan een webshop met verschillende filter opties waarbij de URL verandert maar de tekst op de pagina hetzelfde blijft en een selectie van producten wordt ingeladen.

In dit soort gevallen komt de canonical van pas. De canonical is niets meer dan een aanduiding, bedoeld voor de zoekmachine, om de ‘bronversie’ van een bepaalde pagina aan te duiden.

De canonical staat in de <head> sectie van de website en ziet er als volgt uit:

<link rel="canonical" href="https://www.jouwsite.nl/map" />

Let wel op dat het gebruik van de canonical secuur moet gebeuren, deze moet namelijk uniek zijn voor elke unieke pagina. Als je dezelfde canonical op elke pagina van je site gebruikt heb je in de ogen van de zoekmachine maar één unieke pagina!

 

De noindex

Eerder hebben we al gezien dat je in je robots.txt bepaalde pagina’s uit kunt sluiten van indexatie door het toepassen van een disallow. Echter, als je een pagina uitsluit in de robots.txt wordt deze geheel niet meer gecrawled. Links op deze pagina worden dan ook niet meer gevolgd. Dit kan weer een negatieve invloed hebben op de ‘spiderability’ van je site.

Een alternatief voor uitsluiten in de robots.txt is daarom het toepassen van een noindex op de pagina. Bij een noindex kan de zoekmachine nog steeds de pagina bekijken en links die de pagina bevat volgen maar zal de pagina met de noindex niet worden opgenomen in de zoekmachine. De noindex tag wordt ook toegevoegd aan de <head> sectie van je site en ziet er als volgt uit:

<meta name=”robots” content=”noindex” />

 

Printen?

Het uitprinten van pagina’s is natuurlijk verschrikkelijk uit de tijd maar de functionaliteit kan zeker meerwaarde bieden in sommige situaties. In een print wil je de cartridge van je bezoeker sparen en niet de navigatie en afbeeldingen afdrukken.

Het levert soms wel een interessante duplicate content situatie op: als jouw printvriendelijke pagina een eigen URL heeft wordt deze door de zoekmachine gezien als een unieke pagina. Maar wel met exact dezelfde content. Duplicate content dus. In deze situatie is de noindex uitstekend toe te passen; zorg dat printvriendelijke pagina’s met een eigen URL een noindex krijgen.

 

Back & forth

Overzichtspagina’s zijn een vaak voorkomende bron van duplicate content issues. Heb je bijvoorbeeld honderden producten in een enkele productcategorie kun je niet allemaal op een enkele pagina kwijt. De logische oplossing is dan om ‘pagination’ toe te passen waarbij je een lange pagina opdeelt in verschillende deelpagina’s.

Het is dezelfde pagina maar hij ‘leeft’ wel op verschillende URLs, bijvoorbeeld:

  • https://jouwsite.nl/productcategorie
  • https://jouwsite.nl/productcategorie?page=2
  • https://jouwsite.nl/productcategorie?page=3

Eigenlijk maken de ?page=2, ?page=3 pagina’s onderdeel uit van de /productcategorie pagina en wil je ze niet los geindexeerd hebben. Om pagination duidelijk te maken aan de zoekmachine kun je de rel=”prev” en de rel=”next” op de pagination-links gebruiken. Daarmee geef je aan de relatie die deze pagina’s hebben met de hoofdpagina (canonical) aan en voorkom je duplicate content.

Beter een goede buur dan een verre vriend

Je ziet het niet, maar jouw website is een server, een computer aangesloten aan het internet. Nu is het zo dat een server vele websites kan ‘hosten’. Eigenlijk staat jouw website zodoende naast andere websites op een server. Als je gedeelde serverruimte (shared hosting) afneemt van een hostingprovider heb je eigenlijk geen zeggenschap over wie je buren zijn.

 

A bad neighborhood

De virtuele locatie waar jouw site is gevestigd wordt gebruikt als indicator voor de betrouwbaarheid ervan. Staat jouw keurige website op een server waar verder alleen sites op staan over gokken, drugsgebruik en geweld? Dan heeft deze ‘bad neighborhood’ mogelijk invloed op jouw organische rankings.

De tool Majestic, voornamelijk gebruikt als backlinktool, biedt een uitstekende tool die ‘neighborhood checker’ wordt genoemd. Hiermee kun je snel zien wie jouw server met je deelt, en wat de inhoud is van de servers die zich verder in jouw omgeving bevinden (je IP-omgeving).

server omgeving

Checklist

Crawling & indexatie

  • Nulmeting: hoe veel pagina's van je site zijn geindexeerd?
     Zoek op site:jouwdomein.nl in Google en Bing
  • Heb je een sitemap.xml en hoe veel pagina's zijn daar in vermeld?
     Heeft de sitemap.xml meer pagina's dan geindexeerd zijn?
  • Doe een spiderview-check om te zien hoe de spider jouw site ziet door 'Fetch as Google' in Search Console te kiezen
  • Gebruik je een Javascript menu of Flash of is je content afgeschermd voor de spider?

Veiligheid

  • Nog steeds geen https op je site? Ga dat is even snel fixen!

Site architectuur

  • Zorg voor een eenvoudig te begrijpen structuur van je site
  • Ga niet te 'diep', liefst tot maximaal twee sub-mappen

Laadtijd

  • Zijn externe bestanden zoals CSS en JS geminified?
  • Kun je CSS bestanden combineren tot een enkel bestand om server requests te verminderen?
  • Zijn afbeeldingen geoptimaliseerd voor web?

Duplicate content

  • Zorg ervoor dat je homepage slechts via één URL te benaderen is
  • Worden de non-www en https versies goed geredirect of zijn ze apart te benaderen?
  • Heb je niet-unieke pagina's een canonical meegegeven?
  • Pas je noindex toe op pagina's die je wel gecrawled wil hebben maar niet geindexeerd?
  • Pas je op printvriendelijke pagina's met een unieke URL een noindex toe?
  • Gebruik je rel=prev en rel=next op pagination pagina's?

Server neigborhood

  • Heb je een cleane server omgeving? Check of je je in een shady neighbourhood bevindt met de Majestic Neighbourhood checker