Hoge website positie bereiken in google
ofwel
Positionering verbeteren in de SERPs kost veel doorlooptijd

Introductie (Home)

Basis benodigheden

Goals en Ethiek

Veel Geduld Nodig

Website Leeftijd

Googlebot Bezoek

Google's Indexering

Google's Instabiliteit

Supplemental Index

W3C validatie

Googlebot Detectie

Google Account

Zoekmachine Optimalisatie

Teller op je Website

Page Rank (PR)

Last-Modified

Sitemaps

Robots.txt

Frames en Fabels

Hoe Zoekt Google

Link Populariteit

Resultaten

27-juli-2007 geschreven. Bijgewerkt: 29 dec.
Een ervaringsverhaal over zoekmachine optimalisatie voor beginnende websites. Doe je voordeel ermee.

GEDULD IS EEN SCHONE ZAAK:

Er is een belangrijke reden dat er zoveel onzin discussies op internet staan. De reactietijd van google op de gemiddelde website is relatief sloom. Er zitten dagen tot weken tussen en soms vele maanden. E.e.a. heeft ook te maken met de nieuwswaarde, bestaanstijd en de inlinking naar je website. Het gevolg is dat allerlei variaties in je website resultaten die van dag op dag of van week op week op google kunnen variŰren, heel vaak in verband worden gebracht met wijzigingen die door de betreffende website-beheerders zijn aangebracht. In realiteit blijkt dat er meestal geen enkel verband bestaat tussen wat gedaan is en wat geconstateerd is. Dit leidt tot werkelijk oeverloze discussies ook in het professionele SEO circuit. Zo van ik heb dit en dat veranderd en nu is mijn website helemaal weg en vandaag deed ik daarna zus op jouw advies en ja het hielp, 1 dag later stond ik weer bovenaan, bedankt. Meestal zijn dat misinterpretaties gebaseerd op toevallige waarnemingen is mijn stellige overtuiging. Er wordt maar weinig op een systematische manier geanaliseerd. De reden is dat het teveel tijd vergt, vaak maanden, om goede conclusies te kunnen trekken uit de acties die je onderneemt. En tijd is de factor waar de huidige maatschappij geen tijd voor heeft.

Wat is die reactietijd dan wel? Sommige pagina's blijken pas na 3 maanden opnieuw te zijn gecached is mijn ervaring. Gemiddeld blijken de meeste pagina's wel na een maand opnieuw te zijn gecached. Sommige pagina's zijn na week opnieuw gecached. Zit er systeem in? Nee er zit absoluut geen aantoonbaar systeem in! Kun je het be´nvloeden? Nee je kunt het niet be´nvloeden! Ik durf deze stellingen te onderbouwen. Hoewel google de sitemap.xml altijd bekijkt heeft deze weinig toegevoegde waarde is mijn ervaring behalve in het begin om google op het spoor te helpen zetten. Als je een pagina toevoegt plaats je normaal een link en die vindt google overigens toch wel. Het sitemap bezoek is bij mij gemiddeld elke 4,5 dag. De <lastmod> datum heeft ook weinig toegevoegde waarde. Die is immers manipuleerbaar en heel vaak zelfs onbewust onjuist? Elke nieuwe upload van de website zorgt immers voor een nieuwe datum in de server directory, gewijzigd of niet. Heeft het met wijzigingen op de pagina te maken? Nee ook daar wordt, althans is mijn ervaring, totaal niet naar gekeken. Pagina's die ongewijzigd blijven kunnen talloze keren opnieuw gecached worden terwijl pagina's die juist wel gewijzigd zijn er 2 maanden over kunnen doen. Er zit geen enkele lijn in. Een simpele analyse van een jaar van de access_log files van de 3 websites waar elk bezoek aan elke webpagina van de googlebot (en alle andere bezoekers) in gelogged staat maakt dat alles duidelijk als je nauwkeurig bijhoudt wat er gebeurt. En wie doet dat? Veel kunnen het vaak niet eens omdat ze geen toegang tot de access_log file hebben. Tevens houd ik nauwkeurig bij wanneer google de betreffende pagina's opnieuw gecached heeft. Vaak zit je met ergernis te wachten op het optimalisatie resultaat van een wijziging op een pagina en duurt het 2 maanden, maar vaak is dat na 2 weken al gepiept en soms als de googlebot toevallig net langs komt als je de pagina ge-upload hebt na 1 week. Dan heb je mazzel. Juist deze volkomen willekeur in reactietijd laat het gespeculeer op het web ontstaan.

Van alle pagina's wordt de index.html (hoofdpagina) vaker bezocht en is de cache daarvan meestal ÚÚn van de jongste datum, vaak niet veel ouder dan ÚÚn week tot maximaal een maand. De hoofdpagina's worden dus zeer regelmatig ververst. Ondanks webpagina wijzigingen, verversingen en vernieuwde sitemaps zie je als gevolg daarvan toch maar weinig beweging in de caches terwijl inmiddels al die pagina's al lang en meerdere malen zijn bezocht. Alles is volkomen random. Dat zijn de feiten van 3 verschillende websites gezien over 1 jaar. Alle acties ten spijt stel je steeds weer vast dat er willekeur in het spel is omdat volkomen gelijksoortige pagina's met volkomen gelijksoortige aanpassingen nooit en te nimmer tot een consistent resultaat hebben geleid. En dan als klap op de vuurpeil: bedenk bijna alle conclusies (ook wat hier door mij wordt beweerd) lopen regelmatig achter op de feiten omdat google voortdurend verder evolueert. Wat nu wordt geconcludeerd door pure analyse kan volgend jaar weer totaal anders zijn.

Uit ervaring weet ik echter intussen wel dat het een koude kunst is voor een nieuwe website om in een enkele weken tijd bij google op de kaart te staan. En ook meteen met blijvend resultaat hoge ogen te gooien als het er om gaat voor de juiste steekwoorden gevonden te worden op de eerste pagina. Volg gewoon hier en daar mijn adviezen -:) en lees de overige van deze webpagina's

 
email:robvh@onsnet.nu

Valid XHTML 1.0!
introductie | basis_benodigdheden | goals_en_ethiek | veel_geduld_nodig | website_leeftijd | googlebot_bezoek | google's_indexering | google's_instabiliteit | supplemental_index | w3c_validiteit | googlebot_detectie | google_account | zoekmachine_optimalisatie | teller_op_je_website | page_rank | last_modified | sitemaps | robots.txt | frames_en_fabels | hoe_zoekt_google | link_populariteit | resultaten