Veel websites zakken in Google, niet omdat Google “streng” is, maar omdat bepaalde technische en inhoudelijke fouten het algoritme dwingen om andere pagina’s hoger te waarderen. Hieronder vind je de actuele negatieve rankingfactoren voor 2026. Deze lijst is gebaseerd op Google Search Essentials, Google’s spam policies, praktijkcases in het MKB en mijn eigen audits en SEO-trajecten.
Gebruik de checklist die een eindje verderop staat. Kun je meerdere vakjes aanvinken, dan is de kans groot dat je rankings worden geremd.
Wil je eerst begrijpen waarom websites structureel dalen? Lees dan het strategische overzicht Waarom websites niet ranken. «
In dit artikel gaat het níet over een volledige ban of handmatige penalty (<- check dan dit artikel) maar over de negatieve signalen die je dagelijkse posities stap voor stap kunnen afremmen. Met een uitleg over technische- en contentfactoren die een grote rol spelen.
Inhoudsopgave rankingfactoren checklist
De Checklist
Wil je snel controleren of jouw site risico loopt?
Check de onderstaande punten. Niet alle factoren wegen natuurlijk even zwaar. Uit studies en praktijk zie ik dat vooral indexatieproblemen, sitesnelheid, onduidelijke site-structuur en extreem lage contentwaarde de grootste impact hebben. Andere factoren, zoals layout-details of lichte overoptimalisatie, zijn vooral een probleem als er meerdere tegelijk spelen. Maar die wegen minder zwaar.
De factoren met een rood streepje ervoor zijn de belangrijkste. Deze bovenstaande checklist is gebaseerd op Google Search Essentials, de officiële spam policies, openbare studies naar rankingfactoren én meer dan 250 SEO-audits voor MKB-bedrijven die ik in de afgelopen jaren voor bedrijven en organisaties heb gemaakt.


Technische factoren die rankings verlagen
Noindex, foutieve canonical of geblokkeerde crawler
Wanneer een pagina onbedoeld op noindex staat, een canonical naar de verkeerde URL verwijst of robots.txt Googlebot blokkeert, kan Google de pagina niet indexeren. Dit is een van de meest voorkomende redenen voor slecht presterende content.
Wat kun je doen:
- URL testen in Search Console (URL-inspectie)
- Controleren op noindex-tags
- Canonical-tags nalopen op juistheid
- Robots.txt controleren
- SEO-plugin-instellingen nalopen
Slechte Core Web Vitals en trage laadtijd
Google beoordeelt pagina’s onder meer op laadsnelheid en stabiliteit. Trage hosting, zware scripts of slechte optimalisatie zorgen voor slechte LCP-, INP- en CLS-scores, wat negatieve rankingsignalen geeft.
Wat kun je doen:
- PageSpeed Insights-rapport analyseren
- Hosting of caching optimaliseren
- Afbeeldingen comprimeren en converteren naar WebP
- JavaScript verminderen of uitstellen
- Kruimels en banners stabiliseren om CLS te voorkomen
404-fouten, kapotte interne links en redirectketens
Kapotte links en lange redirectketens maken het voor Google moeilijk om je site te crawlen en ondermijnen de interne linkstructuur.
Wat kun je doen:
- Screaming Frog draaien op je volledige site
- 404-pagina’s herstellen of omleiden
- Redirectketens inkorten tot maximaal één stap
- Interne links bijwerken naar actuele URL’s
In een recente audit bij een webwinkel zag ik dat 30% van het crawlbudget op 404-pagina’s werd verspild. Alleen al door redirects op te schonen en de interne links te repareren, steeg het organische verkeer naar categoriepagina’s in 3 maanden met 28%.
Onveilige of inconsistente HTTPS-implementatie
Wanneer een website deels http en deels https laadt, ontstaat mixed-content. Dit veroorzaakt beveiligingswaarschuwingen en beïnvloedt gebruikersvertrouwen én rankings.
Wat kun je doen:
- Controleren of alle assets via https worden geladen
- Hard redirect naar https instellen
- Mixed-content fouten opschonen in de broncode
Onlogische of te diepe website-architectuur
Pagina’s die te diep in de site verstopt zitten of geen interne links ontvangen worden door Google minder vaak gecrawld en lager gewaardeerd.
Wat kun je doen:
- Belangrijke pagina’s maximaal drie klikken van de homepage plaatsen
- Interne links strategisch toevoegen
- Orphan pages opsporen en verbinden met relevante clusters
Contentfactoren die Google als laagwaardig beoordeelt
Dunne, generieke of ongecontroleerde AI-content
Content die weinig expertise toont of sterk generiek klinkt, wekt bij Google en gebruikers de indruk dat de pagina weinig waarde toevoegt. Dit geldt vooral voor AI-teksten zonder redactionele verbetering.
Wat kun je doen:
- Praktijkvoorbeelden en data toevoegen
- Inhoud uitbreiden met concrete stappen, methodes en tools
- Paragraaf “Over de auteur” toevoegen voor E-E-A-T
- AI-content altijd herschrijven en verrijken
Duplicate content en automatische vertalingen
Bijna-identieke pagina’s of automatisch vertaalde teksten zonder menselijke review veroorzaken verwarring voor Google. Daardoor worden varianten vaak niet of laag gerankt.
Wat kun je doen:
- Canonical-tags instellen bij varianten
- Unieke teksten schrijven voor belangrijke pagina’s
- Automatische vertalingen redactioneel verbeteren
- Overbodige content consolideren
Mismatch tussen zoekintentie en inhoud
Als bezoekers iets anders verwachten dan je pagina biedt, ontstaat een intentiemismatch. Dit leidt tot snelle terugkeer naar Google (pogo-sticking), een negatief signaal voor relevantie.
Wat kun je doen:
- De huidige SERP analyseren op intentie (informatief, commercieel, lokaal, transactioneel)
- Contenttype aanpassen aan wat Google dominant toont
- Headers herschrijven zodat ze aansluiten op de behoefte van de zoeker
Verouderde informatie en achterhaalde voorbeelden
Pagina’s die verouderd zijn, brengen de betrouwbaarheid van de website omlaag. Google geeft duidelijk de voorkeur aan actuele, nauwkeurige content.
Wat kun je doen:
- “Laatst bijgewerkt”-label toevoegen
- Verouderde beweringen vervangen door recente data
- Screenshots, tools en verwijzingen actualiseren
- Periodieke contentreviews plannen
Link- en reputatiefactoren
Onnatuurlijk of risicovol linkprofiel
Een onnatuurlijk linkprofiel, bijvoorbeeld veel exact-match anchors, betaalde links of irrelevante bronnen, kan de autoriteit van een domein ondermijnen, zelfs zonder handmatige penalty.
Let op: niet alle risicovolle links zijn ‘je eigen schuld’. Soms schieten concurrenten of bots spammy links naar jouw site (negatieve SEO). In de praktijk zie ik dat Google veel van dit soort patronen negeert, maar bij extreme gevallen is het wél nodig om in te grijpen.
Wat kun je doen:
- Anchorteksten beoordelen met Ahrefs of SEMrush
- Toxic of spammy links verwijderen of laten verwijderen
- Alleen links opbouwen via relevante, kwalitatieve websites
- Maandelijks je backlinkprofiel checken op plotselinge pieken of spammy TLD’s.
- Verdachte patronen loggen (datum, type links) i.v.m. eventueel toekomstig reconsideration-request (het zogeheten disavowen).
- Alleen bij grote volumes én zichtbare impact disavow inzetten – niet preventief alles weggooien.
Onvoldoende interne links naar belangrijke pagina’s
Zonder interne links begrijpt Google niet welke pagina’s belangrijk zijn. Dit leidt tot slechte indexatie en een zwakke thematische structuur.
Wat kun je doen:
- 5–8 contextuele links toevoegen naar strategische pagina’s
- Belangrijke pagina’s verbinden via hubs en categoriepagina’s
- Interne links updaten wanneer URL’s wijzigen
Negatieve reviews of gebrek aan trustsignalen
Vooral bij lokale bedrijven zijn reputatie en transparantie essentieel. Gebrek aan reviews, onduidelijke bedrijfsgegevens of inconsistente NAP-gegevens verminderen vertrouwen. Enkele negatieve reviews zijn normaal. Maar een overwegend negatief patroon is juist wel een probleem, zegt ook John Mueller op SearchEngineland.
Wat kun je doen:
- Actief echte reviews verzamelen en reageren
- NAP-gegevens uniform maken op web, socials en directories
- Contactinformatie duidelijk zichtbaar maken op de site
Onvolledige of onduidelijke bedrijfsgegevens (NAW & GBP)
Als je her en der verschillende NAW-gegevens hebt staan (bv een verhuzing van je bedrijf niet overal opgegeven), of je Google Bedrijfsprofiel (GBP) is niet volledig, kan Google dat zien als ‘onbetrouwbaar‘. Dat zijn zaken als:
- Geen fysiek adres of telefoonnummer op de site
- NAP alleen in een afbeelding → niet indexeerbaar
- Verkeerde/te brede categorie in GBP
- Oud adres of oude openingstijden op directories
Wat kun je dan doen:
- NAP als gewone tekst + schema markup (LocalBusiness) uitwerken.
- GBP-categorie en gegevens controleren en updaten zodra er iets wijzigt.
- Belangrijkste directories (KvK, brancheplatforms, grote gidsen) opschonen
UX- en betrouwbaarheidssignalen
Agressieve pop-ups, interstitials en verstorende elementen
Pop-ups die direct in beeld verschijnen of lay-outverschuivingen veroorzaken leiden tot frustratie en lagere engagement. Google interpreteert dat als lage gebruikswaarde.
Wat kun je doen:
- Pop-ups later tonen of conditioneel laten verschijnen
- Layout shift voorkomen door vaste afmetingen voor banners
- Overmatige ads verwijderen of verplaatsen
Onduidelijke bedrijfsidentiteit of beperkte contactmogelijkheden
Gebruikers willen weten met wie ze te maken hebben. Wanneer informatie over eigenaar, bedrijf of contact ontbreekt, daalt zowel vertrouwen als conversiekans.
Wat kun je doen:
- Over-pagina uitbreiden met expertise, ervaring en missie
- KVK, adres, telefoon en e-mail duidelijk vermelden
- Social proof toevoegen (cases, certificeringen, reviews)
Lage gebruikersinteractie en beperkte engagementsignalen
Als gebruikers weinig scrollen, klikken of lezen, begrijpt Google dat de inhoud niet aansluit bij hun behoefte. Dat leidt op termijn tot lagere rankings.
Wat kun je doen:
- CTA’s logisch in de flow van de pagina plaatsen
- Content verrijken met visuals, tabellen en stappenplannen
- Interne links toevoegen naar relevante vervolgcontent
- Complexe informatie opdelen in overzichtelijke secties
Voor een uitgebreide uitleg van waarom sommige websites structureel geen zichtbaarheid opbouwen, zie:
→ Waarom websites niet ranken in Google en AI
Recente core- en spamupdates van Google
In 2024 en 2025 zijn er verschillende updates geweest van Google die je rankings in de zoekresultaten negatief kunnen beoordelen. Zo was er in maart 2024 de Helpful Content System integratie die de kern van het algoritme raakte. Oppervlakkige en standaard informatie werd daarmee getroffen
Daarna zijn er verschillende spamupdates (2024-2025) geweest, die auto-content, doorways, cloaking, link schemes harder aanpakken.
Als je meerdere punten uit bovenstaande -> checklist terugziet in jouw eigen site én je bent geraakt door zo’n update, is de kans groot dat deze negatieve factoren zijn aangesproken en jij bent gedropt met je rankings en verkeer naar je website.
Veelgestelde vragen over negatieve rankingfactors
Waarom zakt mijn website ineens in Google?
Rankingdalingen ontstaan meestal door een combinatie van technische fouten, verouderde content, concurrentie en algoritme-updates. Vaak ligt de oorzaak niet bij één verandering, maar bij meerdere kleine signalen die Google als kwaliteitsverlies interpreteert. Door de checklist in dit artikel te volgen kun je gericht vaststellen welke factoren de daling verklaren.
Is er sprake van een plotselinge daling van 50–80% of vermoed je een handmatige actie? Lees dan ook mijn artikel over een Google ban of penalty herkennen en oplossen
Hoe kan ik snel zien of mijn pagina wordt geblokkeerd voor indexatie?
De snelste methode is de URL-inspectietool in Google Search Console. Daarmee controleer je of Google de pagina mag crawlen, indexeren en begrijpen. Zie je daar een “Niet geïndexeerd”-melding, dan is de kans groot dat noindex, canonical-issues of interne linkproblemen een rol spelen.
Wat zijn de belangrijkste negatieve rankingfactoren voor kleine en middelgrote bedrijven?
Voor MKB-sites zie ik vooral terugkerende problemen: trage hosting, zwakke interne linking, verouderde content, beperkte reviews en onduidelijke contactinformatie. Dit zijn allemaal factoren die zowel gebruikerservaring als Google’s kwaliteitsbeoordeling beïnvloeden.
Hoe snel kan ik resultaten verwachten nadat negatieve factoren zijn opgelost?
Technische verbeteringen worden vaak binnen enkele dagen tot weken opgepakt, terwijl content- en reputatiesignalen meer tijd vergen. In de meeste trajecten zie ik een duidelijke verbetering binnen 4–12 weken, afhankelijk van concurrentie, domeinautoriteit en de omvang van de aanpassingen.
Is AI-content slecht voor SEO?
Niet automatisch. Google beoordeelt content op waarde, nauwkeurigheid en expertise—niet op de tool die je gebruikt. AI-teksten die niet redactioneel zijn bewerkt, geen voorbeelden bevatten of niet passen bij de zoekintentie worden wél als laagwaardig gezien. Verrijking en menselijke expertise blijven essentieel.
Hoe weet ik of mijn linkprofiel schadelijk is voor rankings?
Let vooral op onnatuurlijke patronen: exact-match anchors, irrelevante bronnen, betaalde links en plotselinge pieken. Tools zoals Ahrefs of SEMrush geven inzicht in risicovolle links. Een natuurlijk, divers linkprofiel met contextuele verwijzingen is altijd het uitgangspunt.
Heeft slechte gebruikerservaring echt invloed op SEO?
Ja. Google gebruikt engagementsignalen en Core Web Vitals om de kwaliteit van een pagina te bepalen. Als gebruikers snel afhaken door pop-ups, traagheid of onsamenhangende content, ziet Google dat als een teken van lage waarde. Optimalisatie van UX is daarom een essentieel onderdeel van moderne SEO.
Wat is de meest efficiënte eerste stap als mijn website slecht presteert?
Begin met indexatie en technische basiscontroles: noindex, canonical, robots.txt, laadsnelheid en interne links. Als deze fundamenten correct staan, kun je daarna gericht werken aan content- en reputatieverbeteringen. De checklist in dit artikel geeft hiervoor een gestructureerde volgorde.
Over de auteur
Ik help je groeien met SEO
Ik ben René Greve, SEO-specialist met ruim 15 jaar ervaring in technische SEO, contentoptimalisatie en lokale SEO voor MKB bedrijven.
Sinds 1997 help ik met realistische SEO-strategieën, waarbij ik focus op meetbare winst en snelle quick-wins. In mijn SEO-trajecten werk ik onder andere met Google Search Console, GA4, Screaming Frog, Ahrefs, SEMrush en SERanking om kansen te vinden, resultaten te valideren en stap voor stap duurzame groei op te bouwen. Mijn aanpak is transparant: korte lijnen, geen overbodige beloftes, maar concrete resultaten.
Wil je samen bekijken of jouw website klaar is voor 2026? Boek dan gerust een gratis kennismaking.
“Een website zakt nooit zomaar. Het zijn de negatieve signalen die opstapelen. Wie ze herkent en wegneemt, herstelt zijn zichtbaarheid sneller dan gedacht”
René Greve
Bronnen en verder lezen:
Google Search Essentials (voorheen Webmaster Guidelines) – officiële richtlijnen over technische eisen, contentkwaliteit en spam, inclusief wat tot demotie of uitsluiting kan leiden. -> https://developers.google.com/search/docs/essentials
Moz – Ranking Factors / Negative Ranking Factors & correlatiestudies – toonaangevende, al jarenlopende onderzoeken naar positieve én negatieve SEO-factoren, inclusief expert-surveys. -> https://moz.com/search-ranking-factors/survey-results
Search Engine Land – SEO Guide & Periodic Table of SEO Factors – een gevestigde sterke bron -> https://searchengineland.com/guide/seo/content-search-engine-ranking
Google Search spam policies – officiële lijst met spam- en misbruiktechnieken die rankings verlagen of tot verwijdering uit de index leiden. -> https://developers.google.com/search/docs/essentials/spam-policies




ik vind de lijst zelf een beetje tegenvallen (van seomoz, niet van rene). Flash websites, slechte javascript code, malware, niet html doorzoekbare websites, websites zonder html sitemap, websites met de verkeerde taal ingesteld, websites met gecopieerde teksten, spam links naar andere websites, cloaking technieken, slechte code enz enz zijn allemaal veel duidelijkere problemen en negatieve ranking factoren dan een beperkt aantal nofollow links.
Bovenstaande negatieve ranking factoren zijn pas een issue als je alle andere dingen goed gedaan hebt.
Hee René,
Mooie samenvatting. Wat ik wel opvallend vind is dat ze de streepjes in domeinnamen blijkbaar negatief ranken, terwijl ik altijd geleerd heb dat juist het tussenstreepje ervoor zorgt dat Google de woorden los rankt. Ofzoiets. Natuurlijk is Google ook slimmer geworden en zal ie van gecombineerde woorden best twee lossen woorden kunnen maken, maar ik vraag me af of dat in elke taal al lekker loopt. Maar ik kan er wel inkomen dat te lange url’s sowieso niet handig zijn.
Dat no-follow gebeuren vind ik steeds minder relevant geloof ik. Het lijkt amper nog uit te maken of een link wel of niet no-follow gemarkeerd wordt en lijkt me ook zeker niet het belangrijkste waar Google naar kijkt. Maar das slechts allemaal mijn gut-feeling en SEOmoz zal wel gelijk hebben 😛
Hey René,
Ben sinds een paar weken geabonneerd op je nieuwsbrief en kom toch erg veel nuttige info tegen. Ook dit is weer een interessant artikel die mijn handelen zal beïnvloeden. Bedankt daarvoor!
Nice,
En ik heb me net een heel dozijn urls met-allerlei-streepjes-in aangeschaft 🙁
@Kristof, enfin met streepje is nog altijd beter dan helemaal geen domein… 😉
@Patrice; het gaat erom in je volledige linkprofiel ook no-follow-links te hebben.
Als je bij je reactie een website had ingevuld, had je dus bij deze een no-follow-link gehad naar de opgegeven website, zoals bijvoorbeeld de eerste reactie Annelies linkt naar http://www.anneliesje.nl
En vergeet ook vooral niet dat Google bezig is om hun ranking zo aan te passen dat er binnen niet al te lange tijd niet meer wordt gekeken naar keywordrijke domeinnamen.
Er wordt in toekomst alleen nog naar de inhoud gekeken. Een pakkende (merk)domeinnaam kan daarom een slimmer idee zijn, want deze onthouden mensen makkelijker en ze zullen ook terugkomen indien je goede content verstrekt.
Tip: Houd hiermee dan ook alvast rekening met het aanschaffen van je domeinnaam!
Ook als je reageert op een ander blog, zoals hieronder, zit er vaak een no-follow op. Nieuwe, kleine of spamachtige sites hebben dus (nog) geen nofollow links en scoren dus lager in de rankings.
Kan iemand dit nader toelichten?
Goed artikel, goed om eens te lezen wat negatieve effecten zijn.
Weet iemand echter meer over de negatieve relatie tussen de posities in Google en eventuele tussenstreepjes.
Groet Arjan
Wat betreft de streepjes in de url moet je je ook realiseren dat
A.Google Nederlandse samengestelde woorden lang niet zo goed kan splitsen als de Engelse.
B. SeoMoz dus naar Engelse varianten heeft gekeken. (vaak een “probleempje” bij dit soort onderzoeken. Engels is geen Nederlands !
C. Het voor de zoeker/bezoeker vaak makkelijker is als er wel een streepje tussen staat.
D. Zoek zelf maar eens naar fiets en handel , fiesten handel, fietsenhandel, fiets-en-handel, fietsen-handel.
E. Per zoekterm zal je moeten kijken wat een betere kans van scoren geeft voor de doelgroep die je wilt aanspreken.
F. Op het moment dat je meer dan 2-3-tussen-streepjes gaat gebruiken je in de gevaren zone gaat komen. (geldt overigens voor alle onderdelen in je URL) schreef Matt C een jaar of 3 geleden in z’n blog. (maar ik kan het nu even niet terug vinden)
G. Keywordrijke domeinnamen scoren al sinds jaar en dag vóóral goed omdat ze makkelijker een passende Anchor tekst mee krijgen.
@ Marketsharer, bedankt voor je uitgebreide toelichting.
2 tussenstreepjes is dus wel maximaal. Daarbij als je woorden engels zijn zal je dus waarschijnlijk beter terugkomen dan met nederlandse.
“SERP betekent Search Engine Position Page”
Moet zijn: Search Engine Results Page
@Tim, natuurlijk. Aangepast. Dankje.
Is deze lijst gemaakt voor of na de Panda Update”?
@Sadpanda, ervoor, maar de meeste negatieve factoren zijn niet veranderd.
Goede tips dankje!
Interessant artikel, ik vroeg me alleen af waarom bedrijven als http://www.kamera-express.nl en http://www.schoenen-winkel.nl het koppelstreepje in hun domeinnaam gebruiken terwijl ze ook het domein zonder streepje bezitten?
@Bart, Waarschijnlijk hebben ze dit artikel (nog) niet gelezen…
Tja wat vind Google fijn en wat niet. Iedereen schrijft wat anders. Zelf uitproberen en meten is de beste oplossing is mijn ervaring.