Søkemotor vs nettleser
Internett har blitt en integrert del av livet vårt. Siden behovet for informasjon blir større med samfunnsutviklingen, steg internett for å fylle rollen som informasjonsleverandør. Internett fungerer som en plattform for å dele og publisere informasjon fra hvor som helst i verden. Dette nivået av tilgang er en grunn til at høykvalitets hypertekst og hypermedia akkumuleres på nettet. Problemet med denne effekten er vanskeligheten å unngå uønsket og finne nødvendig informasjon fra nettet.
Mer om nettleser
Nettleseren er et program som er installert på brukerens datamaskin for å anskaffe, tolke og presentere informasjon fra World Wide Web. Den første nettleseren som ble utviklet av oppfinneren av internett, sir Tim Bernes lee, ble på 1990-tallet kalt WorldWide Web (senere blitt nexus). Imidlertid revolusjonerte nettleseren Mosaic (senere Netscape) utviklet av Marc Andressen nettleserne ved å gjøre det mer brukervennlig.
Grunnleggende drift av nettleseren er som følger. Webressursen er lokalisert ved hjelp av en bestemt identitet kalt Universal Resource Locator (URL). Første del av nettadressen kalt "Universal Resource Identifier" bestemmer hvordan nettadressen skal tolkes. Dette er vanligvis protokollen til ressursen som nettleseren prøver å få tilgang til, for eksempel http, https eller FTP. Når informasjonen hentes fra kilden, konverterer nettleserkomponenten "layout engine" http til HTML-markup for å vise det interaktive hypertekst hypermedia-dokumentet. Nettlesere kan tilby tilleggsfunksjoner som flashvideoer og Java-applets ved å installere respektive pluginprogrammer i nettleseren, slik at innholdet kan vises selv om innholdet ikke er hypertekst.
Mer om søkemotoren
Søkemotoren er et webprogram for å søke og finne informasjonen eller ressursene på World Wide Web. Med veksten av ressursene på www ble indekseringen av innholdet på en lett tilgjengelig måte blitt vanskeligere. Løsningen presentert for dette problemet er nettsøkemotoren.
Websøkemotoren opererer i de følgende tre trinnene. Web gjennomgang, Indeksering og søking. Web gjennomgang er prosessen med å samle inn informasjon og data tilgjengelig på World Wide Web. Dette gjøres vanligvis med automatisert programvare som kalles en webcrawler (også kjent som en edderkopp). Web-robotsøkeprogrammet er et program som utfører en algoritme for å hente informasjon fra hver nettside og følge de relaterte koblingene automatisk. Den hentede informasjonen blir indeksert og lagret i databaser for senere søk. Crawlerne henter og indekserer informasjon om innholdet på siden, for eksempel ord fra teksten, nettadressen for hyperkoblingene og det spesielle feltet på siden som kalles metakoder.
Når en forespørsel eller et søk blir gjort for en bestemt detalj eller en side på nettet, henter søkemotoren relatert informasjon fra indekserte databaser via en nettleser og viser resultatene som en liste over relaterte ressurser i nettleseren.
Nettleser og søkemotor
• Nettleseren er et program installert på brukerens datamaskin, mens en søkemotor er et webprogram som opererer på en server som er koblet til Internett.
• Nettleseren er et program for å hente og vise informasjon fra internett, mens en nettleser er et program for å finne informasjon på nettet.