Supplemental index van google versus main index
ofwel
Zit je website in de supplemental index dan doe je niet mee in de SERPs.

Introductie (Home)

Basis benodigheden

Goals en Ethiek

Veel Geduld Nodig

Website Leeftijd

Googlebot Bezoek

Google's Indexering

Google's Instabiliteit

Supplemental Index

W3C validatie

Googlebot Detectie

Google Account

Zoekmachine Optimalisatie

Teller op je Website

Page Rank (PR)

Last-Modified

Sitemaps

Robots.txt

Frames en Fabels

Hoe Zoekt Google

Link Populariteit

Resultaten

27-juli-2007 geschreven. Bijgewerkt: 01 juli 2008.
Een ervaringsverhaal over zoekmachine optimalisatie voor beginnende websites. Doe je voordeel ermee.

SUPPLEMENTAL INDEX:

Tussen 2003 en ca halfverwege 2007 zette google bij pagina's in de SERPs (Search Engine Result Pages) er bij of een pagina in de supplemental index zat of niet. Nu niet meer. De supplemental index is echter nog immer aanwezig. Deze pagina's doen nu wel altijd mee in de SERPs maar met een lage gewicht. En ding is zeker de beide indexen bestaan en pagina's in de supplemental index krijgen een enorm veel lagere positie in de SERPs, zeg maar gewoon, ze worden nooit gevonden tenzij maar heel weinig pagina's voor de betreffende zoek querie worden gevonden. Mijn uitgebreide tests bewijzen dit onomstotelijk.

Het bestaan van supplemental index en PR (page rank) lijkt onlosmakelijk met elkaar verbonden. Hierover wordt in deze blog why-google-cant-just-dump-pagerank  e.e.a. verteld. Alle pagina's die in de supplemental index komen verliezen hun PR indicatie, althans dat geldt voor al mijn websites, ook als ze voordien een PR=3 hadden is de ranking in de supplemental index verdwenen (de groene bar wordt dan grijs). Komen ze dan soms weer terug in de main_index dan blijft de PR echter voorlopig afwezig. Waarschijnlijk omdat de PR bar update weer maanden op zich laat wachten en dus niet de werkelijke PR wodt getoond.

Deze blog:  http://googlewebmastercentral.blogspot.com/2007/12/ultimate-fate-of-supplemental-results.html suggereert een verbetering t.o.v. van vroeger maar: supplemental pagina's doen wel mee in de zoekresultaten maar krijgen een zeer lage postitie in de SERP's, zo laag dat ze niet echt vindbaar zijn tenzij er maar heel weinig pagina's worden gevonden voor de betreffende zoekwoorden.

Waarom een pagina overigens wel of niet plotseling in de supplemental index belandt blijft vaag. Kwaliteit van de pagina? Blijkt niet direct uit mijn waarnemingen. Soms komen pagina's plotseling weer terug in de main_index. Van een nieuwe website flipt 1 pagina heen en weer van 1 week in de supplemental naar een week in de main_index. Dat kunnen natuurlijk nog de verschillende servers zijn. Zolang google niet echt verklaart wat ze doen (en dat zullen ze nooit doen) blijft de internetgemeenschap in het duister tasten. Je kunt alleen maar je eigen waarnemingen toetsen.

Er spelen zoveel parameters een rol dat op voorhand weinig te zeggen is waarom google een pagina uit de main_index haalt of hem er weer in terugzet. Nieuwe pagina's lijken voornamelijk allemaal te beginnen in de supplemental_index. Een paar dagen later staan ze soms alsnog in de main index. Andersom gebeurt ook. Halverwege 2007 zaten 2 van mijn sites 100% in de main index. Door een stomme wijziging (zie: LET_NU_OP) van mij in october 2007 verdween ineens (november) de helft totaal uit de caches. Na een herstel actie was eind januari 2008 (3 maanden later) alles gelukkig weer teruggekeerd. Veel daarvan blijkt nu echter voor een deel in de supplemental index terug te zijn gekeerd maar ook weer niet allemaal. Tevens is er geen enkele logika te bespeuren over wat nu in supplemental komt en wat in de main_index. Pagina's komen plotseling zomaar in supplemental index en soortgelijke pagina's komen even plotseling weer terug in de main_index. Dit gebeurt zonder dat enige wijzigingen zijn aangebracht. Geen enkele van de pagina's waar ik het over heb kennen inlinks, dus die hebben er in ieder geval niets mee te maken. Inlinks staan voor die betreffende 2 websites meestal naar de hoofdpagina.

Een simpele analyse van vele andere websites laat zien dat vandaag aan de dag bij vrijwel elke website zo'n 10 tot 100% van de pagina's in de supplemental index zit. Een gemiddelde score van 50% is zeer gebruikelijk. Dat betekent dat al die pagina's die in de supplemental index zitten vooralsnog een negatief punt meekrijgen om goed te kunnen scoren in de SERPs.

De eerste vraag die jezelf zult stellen is welke van mijn pagina's zitten dan in de supplemental index? Hoe zie ik dat? Er is veel over te vinden met niet eenduidige meningen, maar de testsite die ik gebruik is de: supplemental_index_ratio_calculator . Deze geeft de ratio met daaronder een uitleg over hoe dat gemeten is. Bij 0% zit niets in de supplemental index en bij 100% alles. Over de juistheid bestaan discussies maar dat is evident omdat het resultaat voortdurend wijzigt door update acties van google. Bij site:domeinnaam krijg je altijd de resultaten van beide indexen te zien. (Voor "domeinnaam" moet je je eigen sitenaam invullen uiteraard dus b.v. www.mijnsitenaam.nl zonder http:// ).
Hoewel er verschillende zoekqueries zijn die het resultaat van de main_index alleen laten zien is er n zeer consistent hetzelfde resultaat oplevert dat 100% matched met ratio_calculator en dat is: site:domeinnaam -inallurl:domeinnaam.
Onder de ca 2000 pagina's lijkt de eenvoudiger site:domeinnaam/& uitdrukking ook hetzelfde resultaat te geven.

Vergelijk je dat resultaat van met site:domeinnaam dan houdt je over wat er in de supplemental index is terecht gekomen. Omdat de main index pagina's altijd eerst worden getoond, is in dat totaalresultaat eenvoudig te zien van waaraf de supplemental pagina's beginnen. Nogmaals voor alle pagina's in de supplemental index scoor je in ieder geval veel lager of helemaal niet omdat deze pas in de laatste resultaten van de SERP's mee doen.

Let op dat er tijdelijk ook verschillen kunnen zitten in bovenstaande resultaten tussen zoeken op heel het web (internet) of zoeken in alleen nederlandse pagina's (of pagina's in het nederlands). Voor de .nl websites zullen de pagina's eerder en sneller worden gendexeerd wanneer google alleen zoekt binnen nederlandse pagina's.

Belangrijkste vraag: hoe vermijdt je dat je in deze index terecht komt f als je er in zit hoe kom je er weer uit?
Een verhandeling vindt je o.a. in deze video_supplemental_index_google. Misschien belangrijker is de herverdeling van PR over de verschillende pagina's van je website. Een gratis tool wat daarvoor ontwikkeld is, wat ik nog moet uitproberen, maar waar ik wel vertrouwen in heb is de pagerankbot.php .


W3C (World Wide Web Consortium):

Als je de eerste keer deze norm (XHTML) gaat valideren zul je misschien moedeloos worden, want er zitten dan gewoon soms 500 fouten in je pagina als het er geen 1000 zijn. En fout kan echter 10 of 20 volgende schijnbare fouten veroorzaken. De meest voorkomende xhtml normafwijking is <br> dat moet n.l. <br /> zijn (dus: br spatie slash). Met een 'zoek en vervang' actie in de html zo opgelost. Verder moeten alle plaatjes "selfclosing" (spatie slash) zijn en de alt tag dient ingevuld te worden dus b.v.:
<img src="images/plaatje.jpg" alt="leuk uitzicht"  /> (voorbeeld met minimale parameters).
Het invullen van de <alt> tag (met juiste keywoorden) zal veel invloed op de ranking in de SERPs kunnen hebben en het ontbreken van deze tag wordt als fout gezien door w3c. Misschien vraag je je af waarom je XHTML moet gebruiken i.p.v. HTML. XHTML (w3c tutorial) is de nieuwere standaard sinds 2000 en we zitten nu al in 2007. Het is eenvoudig en een simpele Nederlandse XHTML cursus is er ook.

Ik gebruik nu Frontpage 2003 als wysiwyg editor maar vind het ten aanzien van W3C validatie een rampenprogramma. Er moet heel veel gecorrigeerd worden in de html naderhand. Veel doe ik daarom rechtstreeks in html zelf. Je eindresultaat testen in IE en in FireFox is beiden altijd!! hard noodzakelijk. Wat bij de IE een prima pagina laat zien kan bij FireFox totaal verkeerd uitvallen en vice versa, al voldoe je aan W3C. Dus wees gewaarschuwd. En dat geldt ook voor de oude en de nieuwste versies van de browsers. Je kunt het gelukkig echter altijd met een beetje prutsen goed krijgen voor beiden browsers tegelijk. Als het fout gaat in FireFox gaat het overigens ook fout in de Mac browser Safari. Verder kun je rustig aannemen dat er geen enkele wysiwyg editor is die het fool-proof doet en dat editors die niet speciaal ontwikkeld zijn om te voldoen aan w3c er een puinhoop van maken ongeacht de prijs die ervoor betaald is!
email:robvh@onsnet.nu

Valid XHTML 1.0!
introductie | basis_benodigdheden | goals_en_ethiek | veel_geduld_nodig | website_leeftijd | googlebot_bezoek | google's_indexering | google's_instabiliteit | supplemental_index | w3c_validiteit | googlebot_detectie | google_account | zoekmachine_optimalisatie | teller_op_je_website | page_rank | last_modified | sitemaps | robots.txt | frames_en_fabels | hoe_zoekt_google | link_populariteit | resultaten