Enhver webmaster ved, at for at folk kan begynde at besøge hans ressource fra søgemaskiner, skal den indekseres. Om, hvad webstedsindeksering er, hvordan det udføres, og hvad dets betydning er, vil vi fortælle i denne artikel.
Hvad er indeksering?
Så ordet "indeksering" betyder i sig selv at skrive noget ind i registret, en optælling af materialer, der er tilgængelige. Det samme princip gælder for webstedsindeksering. Faktisk kan denne proces også kaldes at indtaste oplysninger om internetressourcer i databasen over søgemaskiner.
Så snart brugeren indtaster en anden sætning i Google-søgefeltet, vil scriptet returnere et resultat til ham, inklusive titlen på dit websted og dets korte beskrivelse, som vi ser nedenfor.
Hvordan foregår indeksering?
Indeksering af sig selv ("Yandex" er, eller Google - spiller ingen rolle) er ret simpelt. Hele internettets web, med fokus på databasen over ip-adresser, som søgemaskinerne har, scannes af kraftfulde robotter - "edderkopper", der samleroplysninger om dit websted. Hver af søgemaskinerne har et stort antal af dem, og de arbejder automatisk 24 timer i døgnet. Deres opgave er at gå til dit websted og "læse" alt indholdet på det, mens de indtaster data i databasen.
Følgelig afhænger webstedsindeksering i teorien ikke meget af ejeren af ressourcen. Den afgørende faktor her er søgerobotten, der kommer til siden og udforsker den. Det er det, der påvirker, hvor hurtigt dit websted vises i søgeresultaterne.
Indekseringsvilkår?
Selvfølgelig er det fordelagtigt for enhver webmaster at få sin ressource vist i søgeresultaterne så hurtigt som muligt. Dette vil for det første påvirke vilkårene for at bringe webstedet til de første positioner, og for det andet, hvornår de første faser af indtægtsgenerering af webstedet begynder. Jo hurtigere søgerobotten "spiser" alle siderne i din ressource, jo bedre.
Hver søgemaskine har sin egen algoritme til at indtaste webstedsdata i sin database. For eksempel udføres indekseringen af sider i Yandex i etaper: robotter scanner websteder konstant, arrangerer derefter informationen, hvorefter den såkaldte "opdatering" finder sted, når alle ændringer træder i kraft. Regelmæssigheden af sådanne arrangementer er ikke fastslået af virksomheden: de afholdes en gang hver 5.-7. dag (som regel), men de kan finde sted både 2 og 15 dage i forvejen.
Samtidig følger indekseringen af webstedet i Google en anden model. I denne søgemaskine finder sådanne "opdateringer" (basisopdateringer) sted jævnligt, vent derfor hver gang, indtil robotterne indtaster informationen i databasen, og såvil blive bestilt med få dages mellemrum, behøver ikke.
Baseret på ovenstående kan vi drage følgende konklusion: sider i Yandex tilføjes efter 1-2 "opdateringer" (det vil sige om 7-20 dage i gennemsnit), og i Google kan dette ske meget hurtigere - bogstaveligt t alt om dagen.
Samtidig har hver søgemaskine naturligvis sine egne kendetegn ved, hvordan indeksering udføres. Yandex har for eksempel en såkaldt "hurtig bot" - en robot, der kan indtaste data i problemet på få timer. Sandt nok er det ikke let at få ham til at besøge din ressource: Det drejer sig primært om nyheder og forskellige højprofilerede begivenheder, der udvikler sig i re altid.
Hvordan kommer man ind i indekset?
Svaret på spørgsmålet om, hvordan du indekserer dit websted i søgemaskiner, er både enkelt og komplekst. Sideindeksering er et naturligt fænomen, og hvis du ikke engang tænker over det, men bare for eksempel beholder din blog, og gradvist fylder den med information, vil søgemaskinerne "sluge" dit indhold perfekt over tid.
En anden ting er, når du skal fremskynde sideindeksering, hvis du for eksempel har et netværk af såkaldte "satelliter" (websteder designet til at sælge links eller placere annoncer, hvis kvalitet norm alt er dårligere). I dette tilfælde skal du træffe foranst altninger, så robotterne bemærker dit websted. Følgende anses for almindelige: tilføjelse af webstedets URL til en speciel formular (det kaldes "AddUrl"); køre ressourceadressen gennem linkmapperne; tilføje adresse til mapperbogmærker og mere. Der er adskillige diskussioner på SEO-fora om, hvordan hver af disse metoder fungerer. Som praksis viser, er hvert tilfælde unikt, og det er vanskeligt mere præcist at finde årsagerne til, hvorfor det ene websted blev indekseret på 10 dage, og det andet på 2 måneder.
Hvordan får man hurtigere adgang til indekset?
Logikken bag at få et websted hurtigere ind i indekset er imidlertid baseret på at linke til det. Vi taler især om at angive URL'er på gratis og offentlige websteder (bogmærker, mapper, blogs, fora); om at købe links på store og populære websteder (f.eks. ved hjælp af Sape-børsen); samt tilføjelse af et sitemap til addURL-formularen. Måske er der andre metoder, men dem, der allerede er opført, kan sikkert kaldes de mest populære. Husk, generelt afhænger alt af webstedet og dets ejers held.
Hvilke websteder er indekseret?
Ifølge alle søgemaskiners officielle position kommer websteder, der passerer gennem en række filtre, ind i indekset. Ingen ved hvilke krav sidstnævnte indeholder. Det er kun kendt, at de alle over tid forbedres på en sådan måde, at de frafiltrerer pseudo-sider, der er oprettet for at tjene penge ved at sælge links og andre ressourcer, der ikke indeholder nyttig information til brugeren. For skaberne af disse websteder er hovedopgaven naturligvis at indeksere sider så meget som muligt (for at tiltrække besøgende, sælge links osv.).næste).
Hvilke ressourcer forbyder søgemaskiner?
Baseret på de tidligere oplysninger kan vi konkludere, hvilke websteder der højst sandsynligt ikke kommer ind i SERP'erne. De samme oplysninger er udtrykt af officielle repræsentanter for søgemaskiner. Først og fremmest er disse websteder, der indeholder ikke-unik, automatisk genereret indhold, som ikke er nyttigt for besøgende. Dette efterfølges af ressourcer, hvor der er et minimum af information, skabt til at sælge links og så videre.
Sandt, hvis du analyserer resultaterne af søgemaskiner, kan du finde alle disse websteder i det. Derfor, hvis vi taler om websteder, der ikke vil være til stede i søgeresultaterne, bør vi ikke kun bemærke ikke-unikt indhold, men også en række andre faktorer - mange links, ukorrekt organiseret struktur og så videre.
Skjuler indhold. Hvordan deaktiverer man sideindeksering?
Søgemaskiner gennemgår alt indhold på webstedet. Der er dog en teknik, hvormed du kan begrænse adgangen til søgerobotter til en bestemt sektion. Dette gøres ved hjælp af robots.txt-filen, som søgemaskinernes "edderkopper" reagerer på.
Hvis denne fil er placeret i roden af webstedet, vil indekseringen af sider fortsætte i henhold til scriptet, der er skrevet i den. Især kan du deaktivere indeksering med en enkelt kommando - Disallow. Ud over det kan filen også angive dele af webstedet, som dette forbud gælder for. For eksempel, for at forbyde indekset for hele webstedet, er det nok at specificereen skråstreg "/"; og for at udelukke "shop"-sektionen fra søgeresultaterne, er det nok at angive følgende egenskab i din fil: "/shop". Som du kan se, er alt logisk og ekstremt enkelt. Sideindeksering lukker meget nemt. Samtidig besøger søgerobotter din side, læser robots.txt og indtaster ikke data i databasen. Så du kan nemt manipulere for at se visse karakteristika ved websteder i søgningen. Lad os nu tale om, hvordan indekset kontrolleres.
Hvordan kan jeg kontrollere sideindeksering?
Der er flere måder at finde ud af, hvor mange og hvilke sider der findes i Yandex- eller Google-databasen. Den første - den enkleste - er at indstille den tilsvarende anmodning i søgeformularen. Det ser sådan ud: site:domen.ru, hvor du i stedet for domen.ru skriver henholdsvis adressen på dit websted. Når du laver en sådan anmodning, vil søgemaskinen vise alle resultater (sider), der er placeret på den angivne URL. Udover blot at angive alle sider, kan du desuden også se det samlede antal indekseret materiale (til højre for sætningen "Antal resultater").
Den anden måde er at kontrollere sideindeksering ved hjælp af specialiserede tjenester. Der er nu et stort antal af dem, direkte kan de kaldes xseo.in og cy-pr.com. På sådanne ressourcer kan du ikke kun se det samlede antal sider, men også bestemme kvaliteten af nogle af dem. Du har dog kun brug for dette, hvis du har en mere dybdegående forståelse af dette emne. Som regel er disse professionelle SEO-værktøjer.
Om "tvungen" indeksering
Jeg vil også gerne skrive lidt om den såkaldte"Tvungen" indeksering, når en person forsøger at køre sit websted ind i indekset ved hjælp af forskellige "aggressive" metoder. Optimeringsværktøjer anbefaler ikke at gøre dette.
Søgemaskiner, som i det mindste bemærker overdreven aktivitet forbundet med en ny ressource, kan pålægge en eller anden form for sanktioner, der negativt påvirker webstedets tilstand. Derfor er det bedre at gøre alt, så indekseringen af sider ser så organisk, gradvis og jævn ud som muligt.