Alt om algoritmen til "Yandex"
Som et resultat, har teknologiske fremskritt blittmulig å utføre nødvendige operasjoner uten å forlate hjemmet. Nå kan du til og med jobbe gjennom nettverket, og mange har lenge følt seg bra på dette feltet. Den vanligste formen for inntekt på Internett - å skape ditt eget nettsted eller blogg. Takket være annonsen som er plassert på ressursen, kan eieren få et godt fortjeneste. True, denne ordningen fungerer bare når nettstedet eller bloggen er på de første sidene av søket. Enkelt sagt, inntektsnivået av eieren avhenger av antall besøkende til ressursen.
Og det første du må vite når du starter en slik aktivitet, er hvordan søkealgoritmene fungerer, spesielt algoritmen til Yandex, Runets største søkemotor.
Hva er søkealgoritmer?
Søk algoritmer, de er også Yandex-algoritmer,representerer en slags matematisk formel der brukerens forespørsel er ukjent. Søkeroboten løser denne formelen: erstatter forskjellige verdier i stedet for det ukjente og velger den mest hensiktsmessige.
Hvis du forenkler definisjonen, kan vi uttrykkesom følger: søkealgoritmen - et spesielt program som tar "problemet", i dette tilfellet, søk, og gir det en "løsning", som viser en liste over nettsteder med nødvendig brukerinformasjon.
Løsning av "problemet" skanner algoritmen allesøkeord på sider, sorterer mottatte data og danner det nødvendige søkeresultatet for brukeren. Takket være søkealgoritmen kan roboter analysere innholdet i hver ressurs. Basert på informasjonen mottas, blir plasseringen av nettstedet i søkeresultatene bestemt.
Hva påvirker søkealgoritmen?
Som du kan se, søkeresultater etterDen samme forespørselen i forskjellige søkemotorer er annerledes. Algoritmen til "Yandex" er dermed vesentlig forskjellig fra Google. For eksempel, for eksperimentets renhet, åpne to faner: en søkemotor fra Yandex og den andre fra Google. Hvis du skriver inn spørringen "hvordan du reiser til Japan for permanent opphold" i søkefeltet, kan du se at det første nettstedet i utstedelsen av "Yandex" er på andre plass i utstedelsen av Google.
Algoritmer for søkemotorer er under strenghemmelig, de analyserer de samme parameterne på nettstedet, men hvordan de betaler mer oppmerksomhet, og hvor mindre - ingen vet. Selv SEO optimizers stiller dette spørsmålet.
Parametre som algoritmer fungerer på
Som allerede nevnt, søkealgoritmerYandex styres av visse parametere. Generelt kan de deles inn i to grupper. Noen parametere er ansvarlige for ressursens semantiske innhold, de kan konvensjonelt kalles "tekstlig". Andre - Beskriv de tekniske egenskapene (design, plug-ins, etc.). Det er betinget mulig å betegne dem som "engineering and functional". For klarhet er det verdt å bryte alle parametrene i grupper og plassere dem i et bord.
"Text" | "Engineering and Functional" |
Ressurs språk | Nettstedalder, domenenavn, sted. |
Populariteten til emnet og mengden av tekst på hver side. | Antall sider og deres "vekt" |
Søkeord til totale tekstforhold. | Tilstedeværelsen av stilløsninger |
Antall anførselstegn og nivået på innholdet unikt | Antall forespørsler om et bestemt søkeord og hyppigheten av oppdatert informasjon. |
Skriftstørrelse og type | Tilgjengelighet av multimediefiler, rammer, flashmoduler og metakoder |
Antall koblinger i teksten | Stiloverskrifter, tekst og COP |
Korrespondanse av søkeord til delen av katalogen der nettstedet er registrert. | Kommentarer i programkoden, sidetype, tilstedeværelse av duplikater |
rangering
Disse parametrene spiller en nøkkelrolle i algoritmer.klassifisering. Rangeringsalgoritmen er en måte å finne ut verdien av hver side. Enkelt sagt, hvis nettstedet har god ytelse i alle disse parameterne, blir det høyere i søkeresultatene.
Yandex rangering algoritmer endresnesten hvert år. De viktigste er oppkalt etter byer. Navnet på det nye søkekonseptet begynner med siste bokstav i navnet på den forrige algoritmen. Så, har søkemotoren opprettet algoritmer:
- Magadan (2008).
- "Finn" (2008).
- Arzamas (2009).
- "Snezhinsk" (2009).
- Konakovo (2010).
- Obninsk (2010).
- Krasnodar (2010).
- Reykjavik (2011).
- Kaliningrad (2012).
- "Dublin" (2013).
- "Nachalovo" (2014).
- "Odessa" (2014).
- Amsterdam (2015).
- Minusinsk (2015).
- Kirov (2015).
I tillegg til dem har de tre siste årene kommet ut tre.søkealgoritme "Yandex". Og det er også spesielle algoritmer AGS-17 og AGS-30, hvis hovedoppgave er å lete etter ressurser som ikke oppfyller kravene. Enkelt sagt, disse algoritmene ser etter nettsteder med ikke-unikt innhold og en overflod av søkeord, og deretter pålegger dem straffer. Og nå om hver algoritme litt etter litt.
Algoritmer 2008-2011
I to år opprettet Yandex fire søkemotorer.algoritmer som er kvalitativt forskjellige fra tidligere, første versjoner. I 2008 begynte de for første gang i søkeplasseringer å ta hensyn til innholdet (Magadan). For første gang ble det introdusert et nytt system som tok hensyn til forekomst av stoppord ("Find").
I 2009 begynte søkealgoritmen "Yandex"ta hensyn til brukerens område, dukket opp en ny klassifiserer av geo-avhengige og geone-avhengige spørringer Den regionale formelen for valg av svar har forbedret seg betydelig ("Arzamas"). Problemet har endret seg dramatisk, 19 nye regionale rangeringsformler har dukket opp, og kriteriene for geonavhengig rangering er oppdatert (Snezhinsk, Konakovo).
I 2010 ble søkemotoralgoritmene "Yandex"aktivt utvikle nye formler for geo-avhengige og geone-avhengige spørringer (Obninsk, Krasnodar). Året 2011 ble preget av begynnelsen av etableringen av et personlig problem, og språkinnstillingene til Internett-brukere ble tatt i betraktning.
Søk rangering 2012-2014
I 2012 er personalisering av problemet i hovedsakendret: begynte å ta hensyn til interessene til brukerne på lang sikt, økte relevansen av ofte besøkte nettsteder ("Kaliningrad"). I 2013 justerte Yandex algoritmen allerede kompetent resultatene av søkeresultatene til interessene til en bestemt bruker under økten, med tanke på kortsiktige interesser (Dublin). I 2014 ble henvisningen til kommersielle forespørsler avbrutt når rangering av svar ("Nachalovo").
"Amsterdam", "Minusinsk", "Kirov"
I søkeresultatene nær startresultatetVis kort med informasjon når du svinger på koblingsmarkøren ("Amsterdam"). For første gang var oppgaven med Yandex-algoritmen å senke rangeringen av ressurser, som hadde mange SEO-linker. Tilstedeværelsen av en omfattende referanseprofil var hovedgrunnen til å miste stillinger. "Minusinsk" -algoritmen til "Yandex" begynte å fjerne SEO-koblinger massivt, litt senere ble referansefaktorene returnert, men bare i Moskva-regionen.
I den tredje algoritmen for dette året ble det innført randomisering av relevante søk. Enkelt sagt, når utstedelse av forespørsler kan sorteres etter dato, popularitet eller region ("Kirov").
"Vladivostok" og "Palekh"
Vladivostok-algoritmen, som begynte å operere tidlig i 2016, begynte å ta hensyn til tilpasningsevnen av ressurser til mobile enheter, og resultatene av mobilutstedelse økte.
Palekh-algoritmen fortjener spesiell oppmerksomhet,som ble presentert i november. Hovedkjernen er å sammenligne betydningen av spørsmålet og sidene ved hjelp av nevrale nettverk - kunstig intelligens som simulerer arbeidet i den menneskelige hjerne. På grunn av dette økte utstedelsen av sjeldne forespørsler. I utgangspunktet jobbet denne algoritmen utelukkende med sideoverskrifter, men som skaperne sier over tid, vil selve teksten også lære å "forstå". Operasjonen av algoritmen er som følger:
- Systemet tar hensyn til statistikk for spørringen og overskriften, og øker dermed nøyaktigheten av søkeresultatene.
- Arbeid med slike korrespondanser kalles"Semantisk vektor". Denne tilnærmingen til søkerangeringer bidrar til å finne svar på de mest sjeldne spørsmålene. Algoritmen, som har lært å forstå teksten, kan produsere resultater der det ikke vil være et enkelt lignende ord med en spørring, men likevel samsvarer de fullt ut med hverandre i innhold.
Enkelt sagt, i Yandex forsøkte de å skape en "rasjonell" teknologi som søker svar, ikke stole på søkeord, men på innholdet i selve teksten.
"Baden-Baden"
Ny algoritme "Yandex", utgitt i mars 2017, var et reelt gjennombrudd i søkemotorens rangering. I søkeresultatet begynte man først å vise nettsteder med nyttige, forståelige og lesbare innhold. Hovedformålet med denne algoritmen er å gi brukeren ikke den teksten som svarer til forespørselen, men den nødvendige informasjonen.
Under arbeidet med "Baden-Baden" droppet innsøkeresultater ressurser med re-optimalisert og lav kvalitet informasjon. Eksperter var sikre på at stillingene til nettbutikker ville falle, siden det er for mange gjentatte ord og beskrivelser av varer, som praktisk talt ikke er forskjellige. Men utviklerne av algoritmen tok hensyn til at det er spesifikke emner der repetisjonen av enkeltrotteord er uunngåelig. Så hvilke tekster faller under sanksjoner? Det er bedre å se på et eksempel.
Tekst som ikke samsvarer med søkealgoritmen
Tidligere ble søkroboter tatt til den førsteposisjonere ressurser der det var søkeord. Men teksten på slike nettsteder ser ofte ut som et sett med spørringer, fortynnet med "vann" av tekster med lav kvalitet. Og eksemplet nedenfor er bevis på dette:
"Nike utgiver hvert år utalligevarer til sport. Sneakers, sneakers, støvler, Nike dress, Nike t-skjorte, shorts, Nike tracksuit, bukser, Nike sweatpants, fotball baller - disse og andre produkter kan bli funnet i enhver firmalager. Kvinner Nike, menns og barns kolleksjoner formidler hovedtemaet til merkevaren. Nike klær er unike ved at hvert produkt gir stemningen til merkevaren. "
Slike tekster er ikke til nytte, det er ikke noe mer ennkasser med nøkkelforespørsler. Her sammen med dem også den nye algoritmen sliter. Innhold med dårlig kvalitet vil sikkert miste sin posisjon. Det er tre kriterier for innhold av lav kvalitet:
- Mangelen på logikk i teksten.
- Et stort antall søkeord.
- Tilstedeværelsen i teksten til unaturlige setninger som dukket opp på grunn av de direkte forekomstene av søkeord.
Naturligvis har ingen avbrutt SEO optimalisering,De grunnleggende prinsippene for søkemotorer forblir de samme. Den eneste tilnærmingen hvor 15-20 nøkkelforespørsler per 1000 tegn er utdatert. "Baden-Baden" -algoritmen fokuserer på innholdets kvalitet.
Søkeresultater
Viktig sted i ferd med å finne informasjontar utstedelsesalgoritmen. Utstedelse er en resultatside som samsvarer med en bestemt forespørsel. Algoritmen for utstedelse av en Yandex er bygget på en slik måte at den kan beregne sannsynligheten for å finne det mest relevante svaret og generere en distribusjon av ti ressurser. I tilfelle når forespørselen er kompleks, kan du finne 15 svar i utgangen.
1. Ressurs språk |
2. Populariteten til emnet og mengden av tekst på hver side. |
3. Søkeord til totale tekstforhold. |
4. Antall anførselstegn og nivået på innholdet unikt |
5. Skriftstørrelse og type |
6. Antall koblinger i teksten |
7. Korrespondanse av søkeord til delen av katalogen der nettstedet er registrert. |
Faktisk fungerer det slik: Hvis algoritmen er "kjent" med forespørselen, og det er et svært relevant svar for det, blir utgangen av ti svar dannet. I tilfelle når søkemotoren ikke kan finne slike svar, vil 15 lenker bli presentert i problemet.
Her, faktisk, alt det grunnleggende i søkemotorenealgoritmer. For at nettstedet skal trives, er det nødvendig å fylle det med høy kvalitet, informativ og lesbart innhold når du søker etter resultater.