For at gøre dette, de udtænker et program kaldet en web crawler, eller edderkop. Denne software automatisk og kontinuerligt surfer og jagter indhold i Web acording til bestemte algoritmer. Sider der spider fund hentes og indekseres efter tekst indhold, der giver mere vægt til titler (H1), og stk overskrifter (H2, H3, H4). Edderkopper aldrig stoppe navigere på internettet fra side til side, til at indeksere det relevante indhold af internettet.
Udover at se på teksten i titler og overskrifter, nogle programmer er i stand til at identificere standard tags og holde et bibliotek af disse side søgeord eller centrale sætninger i indekset. Det er derfor vigtigt at holde sig ajour med dit søgeord research.When en bruger opretter forbindelse til internettet typer en forespørgsel, som automatisk tolkes som søgeord, søgemaskinen scanner gemt indekset og opretter en liste over websider, der er mest hensigtsmæssigt til, hvad brugeren søger for.
SEO vil bruge alle de kombinerede teknikker til søgeordsanalyse, smarte kode, godt indhold litteratur, link popularitet studere og website organisation til at placere emnet webside så højt som muligt på listen over søgeresultater i søgning motorer. Websider vises på toppen af søgeresultatsider antages at få mest opmærksomhed, og derfor mulighed for indtjening for web virksomheder og sider med sponsor links.Search motorer normalt returnere en liste af resultater rangerende sider i forhold til antallet af internetsider knyttet til dem.
Resultater kan klassificeres som økologiske, eller sponsorerede links. Sponsorerede links er vist tydeligt, fordi kunstneren eller agenter betalt søgemaskinen. Sponsorerede links er den vigtigste indtægtskilde for søgemaskiner. Organiske søgeresultater er listerne over de faktiske resultater fra motorer indekset og er direkte relateret til søgeordet skrevet i request.One af de mere effektive teknikker SEO er oprettelsen af en velorganiseret site map i en hjemmeside.
Da de s