Grote webshops laten seo-kansen liggen, zo beweert online marketingbureau Brandfirm. Het bureau deed onderzoek naar de honderd grootste webshops uit de Twinkle100. Zo blijkt de laadtijd van de sites vaak te lang te zijn en de internationale seo niet op orde.
In 92 procent van de gevallen worden er te lange URL’s gebruikt en bij 82 procent van de internationale webshops is de belangrijke ‘Hreflang-tag’ niet goed.
Websitetechniek weegt zwaar mee in seo. Als de techniek niet goed is duurt het te lang om relevante info te vinden en beoordeelt Google de site veel slechter, met gevolgen voor de online vindbaarheid.
De acht meest gemaakte seo-fouten volgens Brandfirm:
1. Niet-geoptimaliseerde headers (100 procent van de webshops)
Headers zijn een belangrijke factor als het aankomt op contentoptimalisatie. Google gebruikt hoofd-headers om sites te beoordelen en subheaders bieden kansen om beter op longtail-varianten te scoren. Alle sites missen (sub-)headers of hebben dubbele headers. Dit is niet goed voor de vindbaarheid.
2. Matig gebruik van paginatitel en metabeschrijving (100 procent)
Google beoordeelt sites aan de hand van paginatitels en meta-beschrijvingen in de zoekresultaten. Ze bevorderen daarbij de doorklikratio en maken bezoekers duidelijk wat ze mogen verwachten van de site. Hoewel ze belangrijk zijn, zijn ze echter vaak niet uniek of hebben ze te lange of korte beschrijvingen.
3. Te lange, onduidelijke of inconsistente URL’s (92 procent)
Een goede URL laat duidelijk zien waar de site over gaat en wordt beter beoordeeld door zoekmachines. Consistente URL’s zorgen ervoor dat er intern goede doorverwijzingen mogelijk zijn.
4. Foutieve of ontbrekende hreflang voor internationale seo (87 procent)
Internationale webshops moeten hreflang-tags gebruiken, maar dat doet slechts een krappe meerderheid, aldus het online marketingbureau. Webshops die wel gebruikmaken van deze tool, maken daar in acht van de tien gevallen nog onnodige fouten mee.
Brandfirm: ‘Van de Twinkle100 zijn 79 websites internationaal actief, 53 websites (67,09 procent) hebben Hreflang-tags geïmplementeerd. Van die 53 websites blijken er 43 fouten in de Hreflang-tags te hebben staan. Slechts tien van de 79 websites (12,66 procent) hebben dus hun Hreflang tags voor internationale seo op orde.’
De gemiddelde laadtijd is 4,2 seconden, 1,2 seconden te lang
5.Te lange laadtijd (65 procent)
Websites met een te lange laadtijd worden afgestraft door Google. Duurt het langer dan 3 seconden om de site te laden? Dan haakt meer dan de helft van de bezoekers af. De gemiddelde laadtijd voor de webshops is 4,2 seconden.
6. Te veel niet-originele content (51 procent)
Zoekmachines straffen websites af die te veel niet-originele content hebben. Bij veel productsites is dat niet te voorkomen. Toch heeft meer dan de helft van de grote webshops meer dan 20 procent zogenoemde ‘duplicate’ content.
7. Niet gebruikmaken van trailing slash voor juiste redirect (49 procent)
Met een ‘.htaccess’-bestand kun je zorgen voor belangrijke doorverwijzingen, zodat er geen technisch duplicate content ontstaat. Juist omdat veel webshops te veel niet-originele content hebben, zou er meer aandacht voor deze oplossing moeten zijn, zo is het advies van het bureau.
8. Onjuist gebruik van Robots.txt (34 procent)
Een robots.txt-bestand bevat instructies die zoekmachines helpen om websites te indexeren. Veel van deze bestanden verwijzen nog niet naar de juiste directie, wat een gemiste kans is.
Christiaan Pol van Brandfirm geeft in het persbericht over de whitepaper met daarin het onderzoek als voorbeeld de site van een ‘groot Nederlands warenhuis’: ‘(Het) heeft maar liefst 30 headers op de homepagina: dat is funest voor de organische vindbaarheid van de site.’
Een paar vragen aan de auteur van de whitepaper: 1. Sinds HTML5 zijn meerdere H1 headings geen enkel probleem. Is daar rekening meegehouden? 2. Wat is de waarde van meerdere Hx koppen als er verder weinig tekstuele content is? 3. Hoevaak gebruikt Google de originele aangegeven meta description nog in de SERPs? Oftewel, hoeveel zin heeft het om honderd-duizende meta descriptions uniek te schrijven? 4. Je kunt intern toch ook gewoon naar lange URLs linken? Ranken langere URLs minder goed dan kortere URLs? Hoe staat dit in verhouding met het feit dat Google tegenwoordig vaak breadcrumbs toont in de SERPs? 5. hreflang annotaties: zijn die ook nodig als webshops gewoon prima scoren in specifieke landen? Kan het zijn dat het toevoegen van hreflangs zelfs nadelig werkt dankzij Google die onjuiste canonicals kiest of denkt minder te hoeven crawlen omdat pagina's toch gelijkwaardig zijn? 6. Wat doet Google met foutieve hreflangs? Als Google die gewoon negeert, dan heeft het toch ook geen impact op de SEO resultaten? 7. Waar komt de statistiek vandaan dat de helft van de gebruikers afhaakt als de pagina in meer dan 3 seconden laadt? 8. Hoe zijn die laadtijden gemeten? Hoeveel metingen zijn er verricht om tot een relevant resultaat te komen? 9. Duplicate content: is het niet zo dat duplicate content slechter rankt, maar dat niet betekend dat je afgestraft word? Dat zou dan toch betekenen dat al die sites niet zouden ranken? 10. Is er bij het beoordelen van de trailingslash redirects ook gekeken naar canonical directives? 11. Kan het zijn dat sites niet naar hun XML sitemaps verwijzen in robots.txt omdat ze niet willen dat scrapers deze gebruiken om sites effectief te kopieren?
Enige relativering is hier op zijn plaats. Het kan altijd beter, maar dat wil niet zeggen dat je meteen slecht scoort als niet alles SEOptimaal is.
Als er maar tien paginas over een bepaald onderwerp zijn, staan die allemaal op pagina één van Google.
Tenenkrommend artikel, hier heeft iemand al jaren zijn kennis niet meer bijgespijkerd. En er worden aardig wat zaken als feiten gebracht die totaal niet kloppen. Jan-Willem somt alles al aardig op.
Bron van punt 5 is misschien een artikel van Google over mobile page speed: https://www.thinkwithgoogle.com/marketing-resources/data-measurement/mobile-page-speed-new-industry-benchmarks/ Dit artikel dateert van februari 2018 en gebruikt bronnen van 2016 t/m 2018. Eén van die bronnen uit 2016 is een analyse door Google van anonieme Google Analytics data van 3700 mobiele websites (global).
Wat een flutartikel! Bijna alles is achterhaald en dus niet meer waar.
Point taken en les geleerd.
Same here. Ons uitgangspunt is altijd geweest: onderzoeken waar de kansen en uitdagingen liggen op het gebied van SEO, zodat we daar lering uit kunnen trekken. Volgende publicaties zullen meer scherpte hebben. Bedankt voor jullie kritische blik op het artikel!
Vat dit artikel het whitepaper samen (de link werkt niet meer)? Dan is het des te triester dat eigenlijk van een online marketingbureau komt. Of zouden ze daarom hun whitepaper offline hebben gezet?