Kennisbank » SEO » Oorzaken waarom een website verwijderd wordt uit de Google index

Oorzaken waarom een website verwijderd wordt uit de Google index

30 augustus 2021

Oorzaken-waarom-site-verwijderd-wordt-uit-index-van-Google

Waarom verwijdert Google sommige content uit zijn index? Hieronder vind je mogelijke redenen waarom Google ervoor kiest om sommige webpagina’s niet weer te geven. Google kiest ervoor om sommige webpagina’s uit te sluiten omdat niet elke optimalisatie een goede is, en sommige content gewoon geen goed antwoord biedt voor zoekers. Misschien publiceer je per ongeluk spampagina’s om beter te ranken of probeer je het algoritme van Google te misleiden.

In dit artikel kom je meer te weten over manieren waarop jouw site door Google kan worden gedeïndexeerd, waaronder:

  1. Crawlblokkering via Robots.txt bestand.
  2. Spammy Pagina’s.
  3. Keyword Stuffing.
  4. Duplicate Content.
  5. Automatisch gegenereerde content.
  6. Cloaking
  7. Sneaky Redirects.
  8. Phishing en Malware Setup.
  9. User-Generated Spam.
  10. Link Schema’s.

10 te vermijden praktijken om verwijdering uit de index door Google te voorkomen

Bepaalde SEO-technieken kunnen jouw website uit de zoekresultaten van Google verwijderen. Hier zijn praktijken om te vermijden, zodat je kunt ranken in de  zoekresultatenpagina’s (SERP’s):

1.  Crawl blokkering door robots.txt bestand

Je verwijdert uiteindelijk zelf je URL van Google’s SERP’s als je een crawl block in je robots.txt bestand hebt staan.

Pagina kan niet worden gecrawld of weergegeven als gevolg van robots.txt

“Pagina kan niet worden gecrawld of weergegeven vanwege robots.txt” is een standaard foutmelding die verschijnt als jouw webpagina’s niet crawlbaar zijn.

Als je niet wilt dat de pagina wordt geblokkeerd, werk je jouw robots.txt bestand bij zodat de crawlers van Google weten dat ze de pagina moeten indexeren.

Ga hiervoor naar het robots.txt-bestand in de hoofdmap van uw website:

Jouw-domeinnaam.com/robots.txt.

Controleer of jouw robots.txt-bestand er als volgt uitziet:

User-agent: Googlebot

Disallow: /

De tekst “Disallow: /” geeft aan dat de website niet geïndexeerd moet worden. Als er in de robots.txt “Disallow” is opgenomen, controleer dan goed welke pagina’s voor de zoekmachine worden uitgesloten.

Je website bovenaan in de zoekresultaten krijgen en houden?

2. Spam pagina’s

Wist je dat Google elke dag meer dan 25 miljard spammy pagina’s vindt?

Er zijn verschillende spammechanismen die Google op verschillende websites vindt. Volgens Google’s 2019 Webspam-rapport zijn linkspam, door gebruikers gegenereerde spam en spam op gehackte websites de top drie spamtrends.

Als je verdachte pagina’s maakt om gebruikers en zoekmachines te misleiden. Of jouw commentaarsectie onbeschermd laat tegen door gebruikers gegenereerde spam, loop je het risico dat jouw URL uit de zoekresultaten van Google wordt verwijderd.

3. Keyword stuffing

Keyword stuffing houd in dat er irrelevante en overmatige plaatsing van zoekwoorden in content. Hoewel keyword stuffing misschien een gemakkelijke manier lijkt om je ranking te verhogen, loop je ook het risico dat Google jouw website verwijdert uit de zoekresultaten.

Vermeld jouw zoekwoorden op natuurlijke wijze op plaatsen zoals de URL van jouw pagina, de titel van jouw bericht, metadata, inleiding, subkoppen, conclusie, en binnen de hoofdtekst. Over het algemeen moet elke plaatsing van een zoekwoord een relevante context hebben.

4. Duplicate Content

Google staat geen dubbele content toe, of je nu tekst van andere websites kopieert of de tekst van jouw webpagina’s hergebruikt. Google verwijdert geplagieerde content uit de SERP’s. Om dat te voorkomen, creëer je unieke en relevante content in lijn met de regels van zoekmachines. Als je pagina’s met geheel duplicate content op jouw website moet opnemen, gebruik dan de x-robot, de robots.txt of voeg een noindex-tag en nofollow HTML-meta-tag toe om de pagina uit te sluiten. Ook kan er gebruik worden gemaakt van de canonical-tag om de originele bron van de duplicate tekst aan te geven.

5. Automatisch gegenereerde content

Het kan zijn dat je als website-eigenaar weinig of geen tijd hebt voor het creëren van content. Het genereren van automatische content kan verleidelijk zijn als snelle oplossing. Echter, het gebruik van automatische content kan ervoor zorgen dat jouw content uit de zoekresultaten wordt verwijderd.

Google verwijdert automatisch gegenereerde content omdat het:

  • Focust op het vervangen van zoekwoorden door synoniemen.
  • Weinig tot geen waarde toevoegt aan lezers.
  • Fouten bevat en context mist.

6. Cloaking

Cloaking is een overtreding van Google’s regels. Het zorgt ervoor dat jouw website verwijderd wordt van Google Search.

Het doel van cloaking is hoger ranken op bepaalde zoekwoorden. Bij cloaking hangt de inhoudsweergave af van “wie” de user agent is.  Cloaking zorgt voor een misleiding van zowel zoekmachines als bezoekers van een webpagina.

Een webpagina kan bijvoorbeeld geoptimaliseerde content met links en zoekwoorden aan een bot van een zoekmachine laten zien, terwijl bezoekers afbeeldingen op de webpagina zien. Dit zorgt ervoor dat een webpagina niet aan de verwachtingen van de bezoeker voldoet.

7. Sneaky Redirects

Google bestraft sneaky redirects omdat het andere content weergeeft aan menselijke gebruikers dan wat werd doorgestuurd naar zoekmachines – vergelijkbaar met cloaking.

Je loopt het risico dat jouw URL van Google wordt verwijderd als jouw redirect manipulatief is.

Desalniettemin kun je redirects gebruiken om een gebruiker naar toe te sturen:

  • Bijgewerkt websiteadres.
  • URL met samengevoegde pagina’s.

8. Phishing en het opzetten van malware

Google verbiedt cybercriminaliteit, of het nu gaat om phishing of het opzetten van malware zoals trojans en computervirussen.

Google’s contentverwijdering treedt in werking als u kwaadaardige webpagina’s maakt om:

  • Ongevraagd toegang te krijgen tot gevoelige informatie van gebruikers.
  • Systeemfuncties van gebruikers kaapt.
  • Onleesbaar maken van of verwijderen van essentiële gegevens.
  • De computeractiviteit van gebruikers te traceren.

9. User-Generated Spam

Hoewel door gebruikers gegenereerde spam op hooggeplaatste websites kan verschijnen, kan overmatige door user-generated content ertoe leiden dat Google jouw URL uit de zoekresultaten van Google verwijdert.

Deze praktijk is gebruikelijk op platforms die gebruikers toegang geven tot tools en plugins om hun accounts te maken of opmerkingen toe te voegen.

Veel voorkomende voorbeelden van deze spam zijn comment spam op blogs en forum spam – waarbij kwaadwillende bots het forum spammen met links naar virussen en malware.

10. Link uitwisselingen

Bij link uitwisselingen wordt gevraagd om het uitwisselen van links om het aantal backlinks te verhogen en uiteindelijk de positie in de zoekresultaten te verbeteren.

Deze manipulatieve linkbuilding praktijken zoals link farms, private blog netwerken, en link directories zijn in strijd met Google’s SEO richtlijnen.

Google keurt af:

  • Betaalde links voor manipulatie van zoekresultaten.
  • Linkdirectory’s van lage kwaliteit.
  • Onzichtbare links in de footers.
  • Reacties en handtekeningen op forums met links die gevuld zijn met zoekwoorden.

Bron: https://www.searchenginejournal.com/ways-to-get-deindexed-by-google/242069/

Houd je kennis op peil

Ontvang onze artikelen.