Home > Onderwerpen

<aside> 🔰 Vraag: Hoe kan het dat een zoekmachine zo snel zo veel resultaten vindt? Antwoord: Een zoekmachine heeft twee kanten die afzonderlijk van elkaar tegelijk veel werk verzetten. Met zoekbots aan de ene kant en een zoek-algoritme aan de andere.

</aside>

large |

Zo werkt een zoekmachine

A. De linkerkant - de index maken

Een zoekmachine bezoekt de hele dag door webpagina’s en maakt een kopie van alles wat hij tegenkomt. Van die kopieën maakt de zoekmachine een soort inhoudsopgave (de index). Dat is kant A.

B. De rechterkant - het zoeken zelf

De gebruiker zit aan kant B. Wanneer jij een zoekopdracht geeft, gaan de computers van de zoekmachine razendsnel in de index bladeren. Je krijgt dan stukjes (snippets) van de gevonden webpagina’s in een lijst met zoekresultaten te zien. Wanneer je op een zoekresultaat klikt word je doorgelinkt naar de website.

Kant A - Zoekbots

medium|

De linkerkant – zoekbots aan het werk | 2.1

Er komt een robot op bezoek

Het langsgaan bij websites gebeurt automatisch, met een spider of zoekbot (robot). Dat klinkt geheimzinnig, maar stiekem is het niet. De zoekbot stelt zich netjes voor (‘hallo, ik ben spiderbot’) en hij gaat aan het werk na toestemming van de website. Hij leest nauwkeurig wat er staat en seint alles door wat hij vindt. Dit heet de crawl.

De websites zelf zijn blij met het bezoek van de robot. Want zonder zoekmachine komen er meestal weinig nieuwe bezoekers langs. De zoekbot weet bovendien dat hij rustig aan moet doen. Snel achter elkaar alle pagina’s bekijken en kopiëren zou een site overbelasten. De zoekbot is dus zo ingesteld dat zijn bezoek lijkt op dat van een gewone bezoeker. De zoekbot neemt telkens even pauze, alsof hij echt leest. Pagina voor pagina stuurt hij kopieën naar zijn eigen computers.

Soms ziet de zoekbot in de code bovenaan een pagina berichten staan zoals noindex of nofollow. Dit zijn berichten speciaal voor zoekbots. De pagina’s met noindex laat hij met rust. Bij nofollow stopt hij op die pagina met het volgen van de links.

Nofollow is een harde boodschap voor de zoekbot, want links volgen is hun lust en leven. Ze zwerven van de ene link naar de andere, om zo het hele web in kaart te brengen. Dit soort berichten wordt door webmasters op webpagina’s geplaatst wanneer bepaalde vervolgpagina’s privé zijn. Jammer voor de robot!

De zoekbot komt overal regelmatig weer langs om te kijken of alles nog hetzelfde is. Zijn er wijzigingen dan wordt de crawl van een website ververst. Dat is echt belangrijk, want veel websites veranderen vaak van inhoud en vorm. En een zoekmachine wil natuurlijk de nieuwste informatie doorgeven. Een dode link naar een pagina die niet meer bestaat is vervelend. Omgekeerd wil een website ook graag dat alle veranderingen doorgegeven worden door de zoekmachines.

De crawl

Het maken van de eerste crawl en van de eerste index **ofwel **inhoudsopgave kost het meeste tijd. De teksten, de plaatjes, de video’s en bijschriften: waar staan ze en wat staat er precies? Elke pagina wordt nauwkeurig in kaart gebracht. Alle woorden worden geteld en in een statistiek gezet. Koppen en tussenkoppen krijgen een groter ‘gewicht’ dan gewone tekst.

De index

Al deze informatie wordt samengevat en opgeslagen in de index (ofwel: inhoudsopgave). Google crawlt en indexeert, net als Bing, het hele world wide web. Deze grote zoekmachines komen razendsnel langs op alle sites die ook regelmatig nieuwe content plaatsen. Bij nieuws-sites is dat meerdere keren per dag! Bij kleine, individuele websites is dat tempo lager vaak, maar toch is Google vaak eerder op de hoogte van wat er op een website veranderd is dan een site zelf.

Kant B - Jij, de gebruiker

medium |

De rechterkant van de tekening – hier zit jij | 2.1

Het zoekalgoritme

Als je een zoekopdracht intypt gebeuren er bliksemsnel drie dingen vrijwel tegelijkertijd:

Het bepalen van wat bij je zoekwoorden past en van de volgorde (ranking) van de resultaten gebeurt met een uitgebreide rekensom, het zoek-algoritme. Bij Google bestaat die som uit wel 200 onderdelen. Hoeveel serieuze tekst een site heeft telt zwaar mee in deze berekening. En of een site goed op een mobieltje te gebruiken is. Of hij netjes onderhouden wordt. Of andere websites veel linken naar deze site.

Maar het allerbelangrijkste is steeds: welke zoekwoorden zijn er gebruikt en hoe passen die bij een webpagina? Hoe beter de zoekwoorden passen, hoe meer kans op een plek hoog in de resultatenlijst.

Geheim

Hoe het algoritme er precies uitziet, is bij de grote zoekmachines geheim. Geheim om drie redenen.

  1. ****Een kok vertelt niet graag zijn keukengeheimen. Dus het recept voor zijn ‘rekensom’ moet niet zomaar door een andere kok uit te voeren zijn. Of door de klanten.

  2. Websitebouwers die de rekensom zouden kennen, maken er graag misbruik van om bovenaan in de zoekresultaten komen. Ze zetten dan iets op hun site dat in werkelijkheid misschien niet klopt, maar heel goed werkt in het zoek-algoritme. Zoekmachines hebben daar veel last van. De rekensom wordt daarom steeds ingewikkelder en het bedriegen van de zoekmachine steeds moeilijker. Toch blijven websitebouwers het proberen.

  3. Soms laat de zoekmachine jou niet alles zien dat belangrijk voor je is. Google bevoordeelt sommige partijen (zoals vroeger hun eigen Google Plus gebruikers; zij waren veel beter zichtbaar in de zoekresultaten. Dat is illegaal en dus verboden). Google zoekt steeds de grens op.

<aside> 👁️‍🗨️ DIT WEET JE NU … over algemene zoekmachines

small |

</aside>

Externe links en bronnen >

links

Verder leren >

Wat doet het zoekalgoritme van Google?

Algemene zoekmachines

Wat is een filterbubbel?

Privacyvriendelijk browsen en zoeken?

15+ menu original - synced blok

[Slim Zoeken](<http://slimzoeken.nu/>) ©2025 door [Maarten Sprenger onder licentie](<http://slimzoeken.nu/over>) [CC BY-NC 4.0](<https://creativecommons.org/licenses/by-nc/4.0/deed.nl>) Word een Slim Zoeken supporter Docentinformatie