Som et resultat af teknologiske fremskridt er det blevet muligt at udføre de nødvendige operationer uden at forlade hjemmet. Nu kan du endda arbejde gennem nettet, og mange har længe haft det godt på dette område. Den mest almindelige måde at tjene penge på internettet er at oprette din egen hjemmeside eller blog. Takket være annoncen, der er placeret på ressourcen, kan dens ejer opnå en god fortjeneste. Sandt nok virker denne ordning kun, når webstedet eller bloggen er på de første sider af søgningen. Kort sagt afhænger indkomstniveauet for dens ejer af antallet af besøgende på ressourcen.
Og den første ting, du skal vide, når du går i gang med sådanne aktiviteter, er, hvordan søgealgoritmer fungerer, især algoritmerne fra Yandex, den største søgemaskine på Runet.
Hvad er søgealgoritmer?
Søgealgoritmer, også kendt som Yandex-algoritmer, er en slags matematisk formel, hvor brugerens forespørgsel er ukendt. Søgerobotten løser denne formel: erstatter det ukendte med forskellige værdier og vælger den bedst egnede.
Hvis vi forenkler definitionen, kan vi udtrykke den som følger: en søgealgoritme eret specielt program, der tager et "problem", i vores tilfælde, en søgeforespørgsel, og giver det en "løsning", dvs. det viser en liste over websteder med de oplysninger, brugeren har brug for.
Algorithmen, der løser "problemet", kigger alle søgeordene på siderne igennem, sorterer de modtagne data og genererer de søgeresultater, som brugeren har brug for. Takket være søgealgoritmen kan robotter analysere indholdet af hver ressource. Baseret på de modtagne oplysninger bestemmes webstedets placering i søgeresultaterne.
Hvad påvirker søgealgoritmen?
Som du kan se, er søgeresultaterne for den samme forespørgsel i forskellige søgemaskiner forskellige. Så Yandex-algoritmen er væsentligt forskellig fra Google. For eksempel, for renheden af eksperimentet, vil vi åbne to faner: en søgemaskine fra Yandex, den anden fra Google. Hvis du indtaster forespørgslen "hvordan går du til Japan for permanent ophold" i søgefeltet, kan du se, at det første websted i Yandex-søgeresultaterne er på andenpladsen i Google-søgeresultaterne.
Søgemaskinealgoritmer er under streng hemmelighed, de analyserer de samme webstedsparametre, men ingen ved, hvilke de er mere opmærksomme på, og hvilke de er mindre opmærksomme på. Selv SEO'er stiller dette spørgsmål.
Parametre, som algoritmer fungerer med
Som allerede nævnt styres Yandex' søgealgoritmer af visse parametre. Generelt kan de opdeles i to grupper. Nogle parametre er ansvarlige for det semantiske indhold af ressourcen, de kan være betingetkald det "tekst". Andre karakteriserer de tekniske egenskaber (design, plugins osv.). Det er betinget muligt at udpege dem som "ingeniør-funktionelle". For klarhedens skyld er det værd at opdele alle parametre i grupper og placere dem i en tabel.
"Tekst" | "Engineering og funktionel" |
Resourcesprog | Webstedets alder, domænenavn, placering. |
Emnets popularitet og mængden af tekst på hver side. | Antal sider og deres "vægt" |
Forholdet mellem søgeord og samlet tekst. | Tilgængeligheden af stilløsning |
Citatantal og indholdets unikke niveau | Antallet af søgninger efter et bestemt søgeord og hyppigheden af informationsopdateringer. |
Skriftstørrelse og -type | Tilstedeværelse af multimediefiler, rammer, flash-moduler og metatags |
Antal links i tekst | Stil for overskrifter, underoverskrifter og COP |
Søgeord matcher den mappesektion, hvor webstedet er registreret. | Kommentarer i kode, sidetype, dubletter |
Ranking
Disse parametre spiller en nøglerolle i rangeringsalgoritmer. Rangeringsalgoritmen er en måde at finde ud af værdien af hver side. Kort sagt, hviswebstedet har god ydeevne i alle disse parametre, så vil det være højere i søgeresultaterne.
Yandex' rangeringsalgoritmer ændres næsten hvert år. De vigtigste er opkaldt efter byer. Navnet på det nye søgekoncept begynder med det sidste bogstav i navnet på den tidligere algoritme. Så søgemaskinen skabte algoritmer:
- "Magadan" (2008).
- "Nakhodka" (2008).
- "Arzamas" (2009).
- "Snezhinsk" (2009).
- "Konakovo" (2010).
- "Obninsk" (2010).
- Krasnodar (2010).
- Reykjavik (2011).
- "Kaliningrad" (2012).
- "Dublin" (2013).
- "Nachalovo" (2014).
- "Odessa" (2014).
- "Amsterdam" (2015).
- "Minusinsk" (2015).
- "Kirov" (2015).
Udover dem er yderligere tre Yandex-søgealgoritmer blevet frigivet i de sidste to år. Og der er også specielle algoritmer AGS-17 og AGS-30, hvis hovedopgave er at lede efter ressourcer, der ikke opfylder kravene. Kort sagt, disse algoritmer leder efter websteder med ikke-unikt indhold og en overflod af søgeord og pålægger dem derefter sanktioner. Og nu lidt om hver algoritme.
Algorithms 2008-2011
På to år har Yandex skabt fire søgealgoritmer, derkvalitativt forskellig fra de tidligere indledende versioner. I 2008 begyndte de for første gang i søgerangering at tage højde for det unikke ved indhold ("Magadan"). For første gang blev der indført et nyt system, der tog højde for tilstedeværelsen af stopord ("Nakhodka").
I 2009 begyndte Yandex-søgealgoritmen at tage hensyn til brugerens region, en ny klassificering af geoafhængige og geo-uafhængige forespørgsler dukkede op. Den regionale formel for valg af svar ("Arzamas") er blevet væsentligt forbedret. Problemet har ændret sig meget, 19 nye regionale rangordningsformler er dukket op, og de geo-uafhængige rangeringskriterier er blevet opdateret ("Snezhinsk", "Konakovo").
I 2010 udviklede Yandex-søgemaskinernes algoritmer aktivt nye formler for geoafhængige og geo-uafhængige forespørgsler ("Obninsk", "Krasnodar"). 2011 var præget af begyndelsen på oprettelsen af personlig udstedelse, der begyndte at blive taget højde for internetbrugernes sprogpræferencer.
Søgeplacering 2012-2014
I 2012 har personaliseringen af søgeresultater ændret sig markant: de begyndte at tage hensyn til brugernes interesser på lang sigt, relevansen af ofte besøgte websteder (Kaliningrad) steg. I 2013 tilpassede Yandex-algoritmen allerede dygtigt søgeresultaterne til en bestemt brugers interesser under en session under hensyntagen til kortsigtede interesser ("Dublin"). I 2014 blev overvejelserne om links til kommercielle anmodninger fjernet ved rangering af svar ("Starter").
Amsterdam, Minusinsk, Kirov
I søgeresultaterne begyndte et kort med information at dukke op ved siden af resultatet, når du holder markøren over linket ("Amsterdam"). For første gang var opgaven med Yandex-algoritmen at sænke rangeringen af ressourcer, der havde mange SEO-links. Tilstedeværelsen af en omfattende linkprofil er blevet hovedårsagen til tabet af stillinger. "Minusinsk"-algoritmen for "Yandex" begyndte massivt at fjerne SEO-links, lidt senere blev regnskabet for linkfaktorer returneret, men kun i Moskva-regionen.
I den tredje algoritme i år blev randomisering af relevante forespørgsler indført. Kort sagt, når du udsender forespørgsler, kan du sortere dem efter dato, popularitet eller region ("Kirov").
Vladivostok og Palekh
Vladivostok-algoritmen, som begyndte at fungere i begyndelsen af 2016, begyndte at tage hensyn til ressourcernes tilpasningsevne til mobile enheder, og resultaterne af mobile søgeresultater steg.
Palekh-algoritmen, som blev præsenteret i november, fortjener særlig opmærksomhed. Dens vigtigste essens er at sammenligne betydningen af spørgsmålet og sider ved hjælp af neurale netværk - kunstig intelligens, der simulerer arbejdet i den menneskelige hjerne. Takket være dette er antallet af sjældne anmodninger steget. Oprindeligt fungerede denne algoritme udelukkende med side titler, men som skaberne siger, vil den med tiden lære at "forstå" selve teksten. Algoritmen fungerer som følger:
- Systemet tager højde for statistikmatcher anmodningen og titlen og øger derved nøjagtigheden af søgeresultaterne.
- At arbejde med sådanne korrespondancer kaldes "semantisk vektor". Denne tilgang til søgerangering hjælper med at finde svar på de sjældneste forespørgsler. En algoritme, der har lært at forstå teksten, kan give resultater, hvor der ikke vil være et eneste lignende ord med forespørgslen, men ikke desto mindre matcher de fuldstændigt hinanden i indhold.
For at sige det enkelt, forsøgte Yandex at skabe en "smart" teknologi, der søger efter svar ikke baseret på nøgleord, men på selve tekstens indhold.
Baden-Baden
Den nye Yandex-algoritme, udgivet i marts 2017, er blevet et reelt gennembrud i søgerangeringssystemet. I søgeresultaterne begyndte websteder med nyttigt, forståeligt og læsbart indhold at dukke op i første omgang. Hovedopgaven for denne algoritme er at give brugeren ikke den tekst, der matcher anmodningen, men med den nødvendige information.
Under arbejdet i Baden-Baden er ressourcer med genoptimeret information af lav kvalitet faldet i søgeresultaterne. Eksperterne var sikre på, at netbutikkernes positioner ville falde, da der var for mange gentagne ord og produktbeskrivelser, som praktisk t alt var ens. Men udviklerne af algoritmen tog højde for, at der er specifikke emner, hvor gentagelsen af beslægtede ord er uundgåelig. Så hvilke tekster er underlagt sanktioner? Det er bedre at se dette med et eksempel.
Tekst, der ikke matcher søgealgoritmen
Tidligere bragte søgerobotter ressourcer, der indeholdt søgeord, til toppositionerne. Men teksterne på sådanne websteder ligner ofte et sæt forespørgsler fortyndet med "vand" af tekster af lav kvalitet. Og eksemplet nedenfor er et bevis på det:
"Nike lancerer utallige sportsprodukter hvert år. Sneakers, sneakers, støvler, Nike jakkesæt, Nike T-shirt, shorts, Nike træningsdragt, bukser, Nike sweatpants, fodbolde - disse og andre produkter kan findes i enhver virksomheds butik. Nike dame-, herre- og børnekollektioner formidler mærkets hovedtema. Nike-tøj er unikt ved, at hvert produkt fanger mærkets ånd."
Sådanne tekster er til ingen nytte, de er intet andet end kister med nøgleforespørgsler. Det er her, den nye algoritme kæmper. Indhold med lav kvalitet vil helt sikkert miste sine positioner. Der er tre kriterier for indhold af lav kvalitet:
- Mangel på logik i teksten.
- Masser af søgeord.
- Tilstedeværelse i teksten af unaturlige sætninger, der dukkede op på grund af direkte forekomst af søgeord.
Selvfølgelig er der ingen, der har annulleret SEO-optimering, de grundlæggende principper for søgemaskiner forbliver de samme. Men tilgangen, hvor der er 15-20 nøgleforespørgsler pr. 1000 tegn, har længe været forældet. "Baden-Baden"-algoritmen fokuserer på kvaliteten af indholdet.
Søgeresultater
Et vigtigt sted i processen med at finde information erfrigivelsesalgoritme. En SERP er en side med resultater, der matcher en specifik forespørgsel. Algoritmen til at udstede "Yandex" er designet på en sådan måde, at den kan beregne sandsynligheden for at finde det mest relevante svar og generere et output på ti ressourcer. I det tilfælde, hvor anmodningen er kompleks, kan der findes 15 svar i outputtet.
1. Ressourcesprog |
2. Emnets popularitet og mængden af tekst pr. side. |
3. Forholdet mellem søgeord og den samlede mængde tekst. |
4. Antal citater og indholdets unikke niveau |
5. Skriftstørrelse og -type |
6. Antal links i teksten |
7. Match søgeord til den del af biblioteket, hvor webstedet er registreret. |
Faktisk fungerer det sådan: Hvis algoritmen er "kendt" med anmodningen, og der er et yderst relevant svar på den, dannes et output på ti svar. I det tilfælde, hvor søgemaskinen ikke kan finde sådanne svar, vil 15 links blive præsenteret i søgeresultaterne.
Her er faktisk alt det grundlæggende om, hvordan søgealgoritmer fungerer. For at sitet skal føles godt, er det nødvendigt at fylde det med højkvalitets, informativt og læsbart indhold i søgeresultaterne.