Professioneel zoeken | Achtergronden | Handige zoeksites

Handige links

De toekomst van het zoeken

De nieuwste generaties zoekmachines besteden meer aandacht aan de vraagsteller, de inhoud van webpagina's en hun positie op het web.

Hoeveel pagina's omvat het web? 100 miljoen, 200 miljoen, 500 miljoen, anderhalf miljard? Het is niet alleen afhankelijk van de onderzoekers die je raadpleegt en hun manier van tellen, maar vooral van het moment waarop je de vraag stelt. Voorjaar 2001 zijn er ruim anderhalf miljard webpagina's.

De verwachting is dat publiceren op het web steeds eenvoudiger zal worden. De groei van het aantal webpagina's zal dus aanhouden. Tegen het eind van dit decennium is het web tot enkele tientallen miljarden pagina's gegroeid. Zie daar nog maar eens de weg in te vinden.

De huidige manier van zoeken - met browsers en zoekmachines op het web - heeft naar verwachting zijn langste tijd gehad.

Makers van zoekmachines spreken over de komende, "derde generatie" zoekmachines. Ze doen dat niet alleen uit marketingoverwegingen. De nieuwe manier van zoeken zal drastisch anders zijn:

  • de vraagsteller krijgt meer aandacht;
  • de tekst wordt nauwkeuriger bestudeerd;
  • de positie van een webpagina wordt belangrijker.

De nieuwste generaties zoekmachines besteden meer aandacht aan de vraagsteller, de inhoud van webpagina's en hun positie op het web.

Enkele ontwikkelingen:

  • Betekenis achterhalen - Voor de nieuwste zoekmachines bestaat een webpagina niet alleen uit een verzameling HTML-karakters die zo efficiënt mogelijk in een database worden gestopt. Webpagina's bestaan veelal uit teksten met een onderwerp en een betekenis. De kunst zal worden deze betekenis terug te vinden.

    Bijvoorbeeld: Een tekst over landbouw heeft relaties met landbouw-economie, met milieu en met natuurlijke processen. De zoekmachine zal deze concepten aan de betreffende pagina moeten koppelen om zo te kunnen beoordelen of een pagina getoond moet worden wanneer een internetter iets zoekt op één van deze terreinen.

  • Vraag-analyse - De gebruiker krijgt ook aandacht. Het zou bijvoorbeeld handig zijn om te weten of iemand op zoek is naar snelle antwoorden zoals feiten of cijfers, of dat hij zich via diverse vragen een beeld wil vormen van een onderwerp of vakgebied. Analyse van eerder gestelde vragen zou daar aan kunnen bijdragen.

  • Bijvoorbeeld: Excite is een van de zoekmachines die via deze weg zijn dienst hoopt te verbeteren.

  • Specialisatie - Een andere manier om de groeiende verzameling webpagina's te lijf te gaan vormen gespecialiseerde zoekmachines en indexen. Zoekmachines waarmee alleen naar juridische, medische of overheidsdocumenten kan worden gezocht.

    Een voorbeeld daarvan vormt de Nederlandse overheidsportal Overheid.nl.

    Zie ook: Prof Links; links naar gespecialiseerde zoekmachines.

  • Intelligent agents - Ook worden andere wegen gezocht om zoekresultaten te verzamelen. Er komen steeds meer oplossingen die geen gebruik meer maken van zoekmachines op het web. In de nabije toekomst komen er steeds meer desktop zoekprogramma's.

    Een voorbeeld daarvan is Copernic, een ander is Lexibot.

  • Natuurlijke taal - Zoekmachines waarbij de zoekvraag in gewone spreektaal kan worden ingetikt zullen steeds vaker voorkomen. Sterke toename van de computercapaciteit (nog steeds een verdubbeling iedere achttien maanden) maakt het mogelijk door middel van kunstmatige intelligentie steeds sneller real time analyses te maken van vragen die aan zoekmachines worden gesteld.

    Het bekendste voorbeeld daarvan is Ask Jeeves.

  • Ontsluiten onzichtbare web - In de komende jaren zal het aantal databestanden dat via het web wordt ontsloten explosief toenemen. Grote gegevensverzamelingen van organisaties of overheden kunnen vaak pas na flinke investeringen via het web ter beschikking worden gesteld. Voordat het zover is gaan er soms jaren overheen.

    Deze databestanden staan niet direct op het web, maar worden alleen via een toegangspoort op het web ontsloten. Ze kunnen daardoor zelden via de huidige zoekmachines worden bereikt en zijn dus niet zichtbaar voor de modale internetter. Er wordt dan ook wel gesproken van het "onzichtbare web".

    Om deze gegevens toch te vinden zijn gespecialiseerde zoekmachines nodig. Een voorbeeld van deze techniek is toegepast in LexiBot, een van de programma's die momenteel in ontwikkeling is om het onzichtbare web te ontsluiten.

Zie ook: het onzichtbare web

(Oktober 2000, update juli 2001)