Det vil ikke se temmelig, men det vil være konfigureret præcis den måde søgemaskinerne ønsker det skal være for at blive placeret højt. Disse 'spøgelse sider' er faktisk aldrig set af nogen virkelig person bortset fra de webmasters, der skabte det selvfølgelig. Når virkelige mennesker besøger et websted ved hjælp af tilsløring, vil teknologi cloaking (hvilket er normalt baseret på Perl /CGI) sende dem den virkelige side, der ser gode og er blot en almindelig HTML-side.
Den cloaking teknologi er i stand til at se forskel på et menneske og edderkop, fordi den kender edderkopper IP-adresse, ingen IP-adresse er den samme, så når en IP-adresse besøger et websted, der bruger cloaking scriptet vil sammenligne IP-adressen med IP-adresser i sin liste over søgemaskinen IP er, hvis der er et match, scriptet ved, at det er en søgemaskine besøger og sender den skelettet HTML-side setup for lutter høje placeringer. Der er to typer af tilsløring. Den første hedder "User Agent Tilsløring", og den anden kaldes "IP Based Tilsløring".
IP baserede cloaking er den bedste metode, da IP-adresser er meget svært at eftergøre, så din konkurrence ikke vil være i stand til at foregive at være en af de søgemaskiner for at stjæle din kode. User Agent Tilsløring ligner IP cloaking, i at cloaking script sammenligner User Agent tekststreng, der sendes, når en side er begæret med det liste over søgemaskinens navne (user agent = navn) og derefter tjener den relevante side. Problemet med User Agent tilsløring er, at Agent navne kan nemt forfalsket.
Søgemaskiner kan nemt formulere en ny anti spam metode til at slå cloakers, alt, hvad de skal gøre, er falsk deres navn og lade som om de er en normal person, der bruger Internet Explorer eller Netscape, vil cloaking software tager Søgemaskine edderkopper til ikke - optimerede side og dermed din søgemaskine placeringer vil suffer.To opsummere, søgemaskine cloaking er ikke så effektiv som det plejede at være, det er fordi søgemaskiner bliver mere