Nu er dette spørgsmål kan let besvares i 5000 ord. Bøger er blevet skrevet om dette emne. Men pointen er, der ønsker at vide i dyb? Alle, der betyder noget, er nogle interessante fakta at imponere dine venner. Der er en smuk flash, der beskriver google arbejdsproces. [For at se klik her] Blitzen giver en sommerlig af hele bogen i 2 minutter audiovisuelt entity.Really interessant at se. Hvis du ikke er interesseret i at lære, hvordan Google skaber indekset og databasen af dokumenter, som det får adgang ved behandling af en forespørgsel, springe denne beskrivelse.
Google kører på et distribueret netværk af tusindvis af lavpris computere og kan derfor udføre hurtig parallel behandling. Parallel behandling er en metode til beregning, hvor mange beregninger kan udføres samtidigt, accelereres betydeligt databehandling. Google har tre adskilte dele: 1. Googlebot, en web crawler, der finder og henter websider. 2. indekseringen, der sorterer hvert ord på hver side, og gemmer den resulterende indeks af ord i en enorm database. 3.
Forespørgslen processor, som sammenligner din søgeforespørgsel til indekset og anbefaler de dokumenter, som den finder mest relevante. Lad os tage et nærmere kig på hver del. 1. Googlebot, Googles webcrawler Googlebot er Googles web crawling robot, der finder og henter sider på internettet og rækker dem ud til Google indekseringen. Det er nemt at forestille sig Googlebot som en lille edderkop scurrying på tværs af dele af cyberspace, men i virkeligheden Googlebot ikke krydse internettet overhovedet.
Det fungerer ligesom din web browser, ved at sende en anmodning til en webserver til en webside, downloade hele siden, så afleverer det ud til Googles indekseringen. Googlebot består af mange computere anmodende og henter siderne meget hurtigere, end du kan med din webbrowser. Faktisk kan Googlebot anmode tusindvis af forskellige sider samtidigt. For at undgå overvældende webservere eller fortrængning anmodninger fra menneskelige brugere, Googlebot bevidst gør anmodninger enkelte webserver langsommere end det er i stand til at gøre.
Googlebot finder sider på to måder: gennem en add URL form www.google.com/addurl.html, og ved at finde links ved gennemgang af internettet. Desværre, spammere regnet ud, hvordan du opretter automatiserede robotter, der bombarderede tilføjelsesprogrammet URL formularen med millioner af URL'er peger på kommerciel propaganda. Google afviser disse webadresser indsendt gennem sin Tilføj URL form, at det mistænker