*   >> Læs Uddannelse artikler >> tech >> internet

Hvordan Søg Engi es Arbejde - Web Crawler??

Det er de søgemaskiner, som endelig sætter dit websted til bekendtgørelsen om de potentielle kunder. Derfor er det bedre at vide, hvordan disse søgemaskiner rent faktisk arbejder, og hvordan de præsenterer information til kunden indlede en søgning.

Der er grundlæggende to typer af søgemaskiner. Den første er af robotter kaldet crawlere eller edderkopper.

Søgemaskiner

bruge edderkopper til at indeksere hjemmesider.

Når du sender dit websted til en søgemaskine ved at udfylde deres nødvendige indsendelse side, søgemaskinen edderkop vil indeksere hele dit websted. A 'edderkop' er et automatiseret program, der køres af søgemaskinen system. Spider besøger en hjemmeside, læse indholdet på selve stedet, lokalitetens Meta tags og også følge links, at webstedet forbinder. Edderkoppen derefter returnerer alle disse oplysninger tilbage til en central depositar, hvor data er indekseret. Det vil besøge hvert link du har på din hjemmeside og indeksere disse websteder som godt.

Nogle edderkopper vil kun indeksere et bestemt antal sider på dit websted, så du skal ikke oprette et websted med 500 sider!

Edderkoppen vil periodisk vende tilbage til de steder, for at kontrollere, om alle oplysninger, der er ændret. Den hyppighed, hvormed dette sker er bestemt af moderatorerne i søgemaskinen.

En edderkop er næsten som en bog, når den indeholder indholdsfortegnelsen, det faktiske indhold og links og henvisninger til alle de hjemmesider det finder under sin søgning, og det kan indeksere op til en million sider om dagen

Eksempel:..

Excite, Lycos, AltaVista og Google

Når du spørger en søgning motor til at finde information, er det faktisk søger gennem indeks, som det har skabt, og faktisk ikke søge på internettet. Forskellige søgemaskiner giver forskellige rankings, fordi ikke alle søgemaskine bruger den samme algoritme til at søge gennem indeksene.

En af de ting, en søgemaskine algoritme scanner for er frekvensen og placering af søgeord på en webside, men det kan også afsløre kunstig søgeord udstopning

eller spamdexing.


Derefter algoritmer analyserer den måde, at sider henviser til andre sider i nettet. Ved at kontrollere, hvordan sider henviser til hinanden, kan en motor både afgøre, hvad en side handler om, hvis de søgeord på de linkede sider ligner de søgeord på den oprindelige side.


Copyright © 2008 - 2016 Læs Uddannelse artikler,https://uddannelse.nmjjxx.com All rights reserved.