Vissza a cikkekhez

Blog

Tartalomjegyzék

A BrightonSEO 2021 Spring legjobb előadásai

Tartalomjegyzék

Klikkmánia
2021.05.11.

Március 25. és 26. közt tartották meg – a koronavírus járvány kitörése óta másodjára – online a világ egyik legnevesebb SEO konferenciáját, a BrightonSEO konferenciát. Két napon keresztül több mint 50 előadást hallgathattak meg a résztvevők – köztük szerény SEO csapatunk is. Sőt! Nem csak nézőként vehettünk részt a konferencián, de Szabó Csaba kollégánk előadóként is képviseltette magát! ?

Ebben a posztban azt az 5 előadást, illetve témát dolgozzuk fel és mutatjuk be Nektek, amelyek véleményünk szerint a legérdekesebbek voltak, és amelyek a legtöbb gyakorlati haszonnal tudnak számotokra szolgálni. Azonban itt nem állunk meg, a jövőben további, a BrightonSEO előadásokat feldolgozó posztok is várhatóak!

Ugyan, arról már külön cikket is írtunk, most +1-ik előadásként Szabó Csaba kollégánk előadását is röviden ismertetjük ?

1. Indexelési problémák és azok megoldása

A lengyel Onely képviseletében Tomek Rudzki tartott előadást arról, hogy ismert és gyakran látogatott weboldalak is gyakran szenvednek indexelési problémáktól – illetve, hogy hogyan lehet ezeket megoldani. Példának említette, hogy a Walmart oldalainak 50%-a nem szerepel a Google Indexben. Ennek eredményeként több, a Walmart kínálatában szereplő termék nem található meg a keresési eredmények közt – ezzel pedig dollár millióktól esik el a cég éves szinten.

Ezzel ellentétben azonban vannak weboldalak, amelyek 100%-os indexelési eredményt tudnak felmutatni. Ezek közé tartozik a TheTimes.co.uk, a Wired.com vagy épp a NewYorker.com. Nézzük meg, mi okozhatja az eltérést a két csoport közt.

A Google miért nem indexel minden oldalt?

A világ összes weboldalának indexelése akkora adatmennyiséget jelent, amit a Google nem tud végtelenül kezelni. A Google-nek a véges kapacitásai miatt rangsorolást kell alkalmaznia, hogy mely oldalakat indexelje be, és melyeket hagyjon figyelmen kívül

A Google nem látogat meg és indexel minden minőségi oldalt

A rangsorolás elsődleges szempontja leegyszerűsítve úgy foglalható össze, hogy a Google a minőségi oldalakat tartja indexelésre méltónak. Azonban, ahogy az a fenti képen is látható, hiába számít egy aloldal minőséginek, nem biztos, hogy a Google fel fogja térképezni, és ezen túlmenően indexelni fogja.

Miért nem térképezi fel a Google az oldalaimat?

A már említett kapacitásbeli hiányok miatt a Google már akkor döntési helyzet elé kerül, amikor egy oldalt fel szeretne térképezni. Azt, hogy érdemes-e feltérképezni egy oldalt, a PageRank segítségével dönti el. (Megjegyezzük: a PageRank részét képezi többek közt az oldalra mutató linkek mennyisége és minősége. Ezért is érdemes figyelmet és erőforrást fordítani a linképítésre). Ennek veszélye abban áll, hogy ha adott oldalt nem térképez fel a Google, akkor az az alatti aloldalak is kieshetnek a Google figyelme alól.

Egyetlen aloldal feltérképezési hibája további oldalakra is hatással lehet

Miért nem indexel a Google minden oldalt?

Tomek Twitteren megkérte a szakmabelieket, hogy osszák meg vele a tapasztalataikat, milyen hibák esetén nem történik meg az indexelés. A három leggyakoribb hibának az alábbiakat találta:

  • Minőségbeli problémák (ezen oldalakat a “Feltérképezve – jelenleg nincs indexelve” Search Console kategóriában találjuk meg a Lefedettségi riportban)
  • Duplikált tartalom
  • ”Felfedezve – jelenleg nincs indexelve” Search Console kategóriában található oldalak

A “Felfedezve – jelenleg nincs indexelve” kategóriába tartozó oldalak esetében sokan belenyugszanak a helyzetbe. Azonban segíthetjük az aloldal indexelésre kerülését azzal, ha javítjuk az oldal minőségét. Ennek része lehet különféle technikai SEO, on-site SEO vagy linképítési feladat.

(Nemrég írtunk cikket a leggyakoribb GSC hibaüzenetekről is.)

Indexelési folyamat elakadása – indexelés

A duplikált tartalom problémát leggyakrabban nem megfelelően beállított pagináció vagy nem megfelelően kezelt URL paraméterek okozzák.

A ”Felfedezve – jelenleg nincs indexelve” kategória esetében a Google már tudomást szerzett az oldalról, de még nem térképezte fel (ld. fentebb).

Indexelési folyamat elakadása – feltérképezés

Esettanulmány

Egyik ügyfelük indexelési hibától szenvedett, a Google nem akarta indexelni a listaoldalakat – valószínűleg duplikációs hiba miatt. Mindeközben a versenytárs nem szenvedett ilyen hibától. Javították az webhelysebességet és a belső linkeltséget. Ennek eredményeként javult a rangsorolás, és az ügyfél a negyedik helyről a piaci szegmens második szereplőjévé nőtte ki magát.

Összefoglalás

Ahogy a prezentáció is rávilágított, ha az indexelésre szánt oldalaink egy része nem szerepel a Google Index-ben, az bevétel-kiesést vonhat maga után. Ha szeretnénk, hogy weboldalunk minden fontos oldala rangsoroljon, figyelmet kell fordítanunk annak széleskörű minőségére. Annak érdekében, hogy egyáltalán esélyt kapjanak az aloldalak arra, hogy minél magasabb pozícióban szerepeljenek a keresési eredmények közt, elengedhetetlen, hogy megfelelően karban legyenek tartva úgy technikai SEO, mint tartalmi és backlink szempontból.

2. Milyen hatással lesznek az Alapvető webes vitals-mutatók és a webhelysebesség a SEO jövőjére?

A fenti beszámolóban megnéztük, hogy hogyan tudjuk biztosítani, hogy a weboldalunk minden fontos aloldala bekerüljön a Google Indexbe. Marcus Tober, a Searchmetrics alapítójának előadásával pedig azt nézzük meg, hogy hogyan tudjuk az egyes oldalakat technikai oldalról támogatni abban, hogy minél magasabb helyen rangsoroljanak.

Minden adódó alkalommal elmondják a SEO szakértők, hogy először technikai oldalról tedd rendbe az oldalad, mert enélkül a tartalmi és linképítési erőfeszítéseid nem fognak tudni teljeskörűen érvényesülni. Technikai oldalról is sok részfeladatot és fontos területet lehet meghatározni, azonban az idén nyáron élesedő, új algoritmus-frissítés kapcsán (2021 nyarától az Alapvető webes vitals-mutatók (Core Web Vitals) rangsorolási tényezők lesznek – az algoritmus-frissítés június és augusztus közt fokozatosan fog élesedni) bemutatjuk Marcus legutóbbi nagymintás felmérésének eredményeit.

A Searchmetrics a felmérés során több mint 2 millió URL-t vizsgált meg a rangsorolási faktorok tekintetében. Ezen URL-ek Németországot, az Egyesült Királyságot és az Egyesült Államokat fedik el, így nem csak iparágak, de piacok alapján is elemezni tudták az eredményeket.

A felmérés tanulsága könnyedén összefoglalható azzal, hogy jellemzően a Top3 helyen (ahol a 0. hely a “rich snippets”-eket jelöli) találhatóak azon oldalak, amelyek teljesítik a Google által meghatározott határértékeket

A felmérés azon része, ami az egyes mutatók és a rangsorolás közti kapcsolatot vizsgálta, megmutatta, hogy a rangsorolást legjobban befolyásoló tényezők (az angol piacon) az alábbiak:

  • CLS (Cumulative Layout Shift / Elrendezés összmozgása)
  • Total Byte Weight (az oldal teljes mérete kB-ban)
  • Reszponzív képek
  • WebP/Nextgen képek
  • Speed Index

Vagyis az oldal betöltési sebességét befolyásoló és leíró mutatók úgy tűnik, direkt kapcsolatban vannak a rangsorolási helyezéssel.

Az egyes technikai mérőszámok eltérő súllyal befolyásolják a rangsorolási eredményt

Nézzük meg ezeket részleteiben is! A felmérés során nem csak a vitals-mutatókat vizsgálták, viszont a közelgő algoritmus-frissítésre való tekintettel, kezdjük ezekkel a mutatókkal. (Pontosabban kettővel közülük, mert a FID (First Input Delay / Első interkaciótól számított válaszkérés) korrelációját a rangsorolási eredményekkel nem tartalmazta a prezentáció.)

LCP (Largest Contentful Paint / Legnagyobb vizuális tartalomválasz) és a rangsorolás kapcsolata

Az angol URL-ek vizsgálatakor azt találták, hogy az első 3 pozícióban szerepelő oldalak teljesítik a Google 2.5 másodpercben meghatározott limitét. A Top10 helyen rangsoroló oldalak átlaga pedig 3.0 másodperc.

Csak az első 3 pozícióban szereplő oldalak rendelkeznek megfelelő LCP értékkel

Magas LCP értéket jellemzően a hajtás feletti, nagyméretű elemek okoznak – például videók, nagyon nagy felbontású képek. Marcus példának az alábbi oldalakat hozta fel:

TVnow.de – az oldal betöltésekor egy nagyméretű videó indult el (az oldalt azóta módosították), és ezzel majdnem 25 mp volt az LCP értéke.

Az oldal tetején elhelyezett videó nagyban lassítja az oldal betöltését

Malaysia.travel – Az utazási oldal tetején lévő nagyfelbontású kép közel 115 másodperces LCP értéket eredményezett!

A hajtás feletti, nagyfelbontású kép is lassú oldalbetöltést tud eredményezni

CLS és a rangsorolás kapcsolata

Az URL-ek vizsgálatakor az “Elrendezés összmozgása” mutatót elemezve arra jutottak, hogy csak a nulladik és első pozícióban szereplő oldalak tettek eleget a 0,1-es határértéknek. 0,1 és 0,25 közt “javításra szoruló”-nak értékeli a Google az oldalakat, 0,25 felett pedig “gyenge”-nek. A második helyen rangsoroló oldalak előbbi, míg a többi oldal mind az utóbbi csoportba tartoznak. A Top10 helyen rangsoroló oldalak átlaga pedig 0,34.

A fenti számokból (és az alábbi grafikonból) látszódik, hogy a weboldalak többsége nem tudja teljesíteni a szükséges 0,1 értéket – így, ha mi ezt megtesszük, sokkal hozzá tudunk járulni az oldalaink magasabb rangsorolásához.

Az oldalak többsége nem felel meg a CLS határértékeknek

A nem megfelelő “Elrendezés összmozgása”-nak érzékeltetésére Marcus az alábbi oldalt hozta fel példának: 

https://bleacherreport.com/articles/1687576-20-greatest-english-footballers-of-the-last-20-years

Ha figyelmesen nézzük az oldal betöltését, láthatjuk, hogy az oldal tartalmának nagyrésze betölt, majd a menü alatti tabella később, az addig betöltött tartalmi elemek utólagos elmozgatásával tölt be.

Az LCP és CLS mutatók, valamint a rangsorolás közti kapcsolatuk elemzésével láthatjuk, hogy Marcus Tober-ék vizsgálatai alapján a legjobb pozíciókban rangsoroló oldalak teljesítik a Google határértékeit.

Az Alapvető webes vitals-mutatók után nézzünk meg további, a webhelysebességgel összefüggő mutatókat, és azok kapcsolatát a rangsorolási eredménnyel. Ezek az alábbiak:

  • Total Blocking Time (TBT)
  • Time to Interactive (TTI)
  • Nextgen képen (pl. WebP, JPEG-2000)
  • DOM méret
  • Total Byte Weight

Total Blocking Time (TBT) és a rangsorolás kapcsolata

A TBT a First Contentful Paint (FCP) és a Time to Interactive (ToI) közt eltelt időt méri. Egészen pontosan azt az időt, amennyivel az egyes “long task”-ok több, mint 50ms alatt töltenek be. Például: ha egy “long task” 70ms, akkor a TBT 20ms.

A Google 300ms-nál húzza meg a határértéket.

Kevés oldal tudja teljesíteni a 300ms-os Total Blocking Time (TBT) határértéket

Ahogy a korábbi példákban, itt is látható, hogy csak a riche snippet és az első helyen rangsoroló oldalak tudják teljesíteni a 300 ms-os határértéket a Searchmetrics felmérése alapján. A Top10 oldalak átlag TBT-je 708ms. Ez azért is nagyon rossz érték, mert 600ms felett a Google kimondottan gyengének értékeli a Total Blocking Time-ot. 

Illetve… nagyon rossz érték lenne… azonban Toberék megvizsgálták az 5-6. hely környékén található kiugrást, és az találták, hogy egyetlen egy weboldal torzítja el ennyire az eredményeket. Ez pedig a Youtube! Ha a Youtube URL-eket kivesszük a vizsgálatból, akkor egy, az alsó képen látható görbét kapunk.

Ha így vizsgáljuk meg a TBT és a rangsorolás közti kapcsolatot, akkor azt látjuk, hogy a Top3 helyen rangsoroló oldalak jóval 300ms alatti Total Blocking Time-mal rendelkeznek – míg a többi oldal 300ms körül teljesít. Vagyis így még érvényesebb az a megállapítás, hogy próbáljuk meg minél alacsonyabb szintre vinni ezt a mutatót, mert annál nagyobb esélyt adunk a weboldalunknak arra, hogy a legjobb pozíciókban rangsoroljon.

Nem elég megütni a 300ms-os határértéket, érdemes jóval alá menni

Time to Interactive (TTI) és a rangsorolás kapcsolata

A TTI 3,8 mp-ig megfelelő, 7,3 mp felett azonban már kimondottan rossz értéknek számít. A megvizsgált URL közt talán ez az érték adja a legkiegyensúlyozottabb eredményt, az azonban nem megnyugtató, hogy a weboldalak többsége átlépi a 3,8 másodperces értéket. Ennek leggyakoribb oka, hogy az oldal betöltésekor mindent egyszerre próbál betölteni a böngésző – a menüsortól a footer-ig. Ezt úgy tudjuk feloldani, ha a fejlesztő rangsort állít be az egyes elemek közt, hogy mit mi után töltsön be a böngésző.

A vizsgált oldalak többsége nem felel meg a 3,8 másodperces határértéknek

Nextgen képek és a rangsorolás kapcsolata

Itt nem is annyira maguk az alkalmazott formátumok a fontosak, hanem a tény, hogy ha pl. PNG helyett JPEG-2000 vagy WebP formátumú képeket használunk az oldalon, az csökkenti a képek (és egyben az oldal) méretét, ami így gyorsabb betöltést eredményez. A képek fájlmérete mellett, amire még oda kell figyelni az ún. lazy-loading. Vagyis csak azokat a képeket töltse be a böngésző, amiket megtekintünk – egy nagyon hosszú oldal legalján szereplő képet teljesen felesleges rögtön az oldal tartalmának betöltésekor betölteni.

Ahogy a Searchmetrics felmérésből is látszik, a legjobb helyen rangsoroló oldalak képeinek átlag mérete 200kB körüli, vagy az alatti.

A képek fájlmérete legyen 200kB alatt

DOM méret és a rangsorolás kapcsolata

A Google 1500 elemben javasolja maximalizálni a DOM méretét. Ahogy a felmérés eredményén is látszik, a weboldalak többsége ennek nem felel meg.

Marcus példának hozott fel egy recept oldalt, ahol az oldal alján lehetőség volt kommentet írni. Azonban ezek a kommentek mind egymás alatt jelentek meg, ezzel megnövelve a DOM méretét. Ennek kivédésére megfelelő megoldás, ha ún. paginációt állítunk be a kommenteken, vagyis egyszerre csak az utolsó 5-10-20 komment jelenjen meg, a többi pedig a lapozás után töltsön csak be.

A nagyszámú DOM elem is negatívan hathat a rangsorolási eredményre

Az oldal teljes mérete és a rangsorolás kapcsolata

A HubSpot 2020 februárjában és márciusában megvizsgálta a weboldalak áltagos méretét. Ez alapján desktopon 2080kB (2,03MB), mobilon 1885kB (1,84MB) egy átlagos oldal mérete. Iparági sztenderd alapján 3,2MB méretet nem érdemes átlépnie egy aloldalnak.

A Searchmetrics felmérése alapján eltérés mutatható ki országok közti összehasonlítás alapján: Németországban 2MB, az Egyesült Királyságban 2,7MB, az Egyesült Államokban pedig 3MB egy átlagos aloldal mérete. Mindhárom ország esetében elmondható, hogy ha ezen átlagos méret alatti az oldalunk, nagyobb eséllyel kerül be találati eredmények TOP3 helyére.

A weboldal méretét aránytalanul megdobó tényezők közt találhatók a nagyméretű képek, videók, és a GIF-ek is!

Az egyes oldalak mérete is összefüggést mutat a rangsorolási helyezéssel

De a fenti összefüggéseken túl miért fontos, hogy gyorsan töltsön be az oldalunk?

Ezen kérdés megválaszolására a Google már korábban készített egy felmérést. Ez kimutatta, hogy az oldal betöltési idejével együtt nő a visszafordulások arány. Ennek értelmében az iparági javaslat szerint a weboldalak betöltési idejét 3mp alatt érdemes tartani. A fenti mutatók “csak” különféle szempontokból járják körül és vizsgálják meg a weboldal betöltési sebességét, és az azt befolyásoló tényezőket.

A hosszabb betöltési idő magasabb visszafordulási arányt eredményez

3. Bizonyítsd be, hogy érdemes tartalmat gyártani azokra a kulcsszavakra! avagy a tartalomgyártási költségek megtérülésének számítása

A két technikai téma után evezzünk át a tartalmi SEO vizeire. Azon belül is nézzük meg, hogyan lehet a vezetőséget meggyőzni arról, hogy több erőforrást (értsd: pénzt) biztosítsanak nekünk a különféle kulcsszavak megcélzására írandó szövegeink előállítására. A prezentációt Tracy McDonald tartotta a Seer Interactive képviseletében.

SEO szakemberként hiába akarjuk 100%-ra kimaxolni a weboldalak teljesítményét és hatékonyságát, a vezetői szinteken kevésbé szakértői, mintsem megtérülési oldalról mérlegelik az egyes döntéseket. És ennek megfelelően kell beszélni is velük. Megnézzük, mit is jelent ez a gyakorlatban.

A varázsszó: ROI

Vagyis Return On Investment, magyarul (befektetésarányos) megtérülés.

ROI = (Bevétel – Költség) / Költség

Vagyis, hogy a profit hogyan aránylik a költségekhez.

Mi tartozik a költségek közé:

  • Marketing kutatás
  • Copywriting / szövegírás
  • Kreatív anyagok (pl. képek)
  • Fejlesztői csapat
  • Promóció
  • stb.

SEO oldalról nézve pedig, a forgalom (traffic, oldallátogatások) hatására termelődik a bevétel.

De mekkora bevétel?

A ROI kiszámításához könnyedén meg tudjuk határozni a kiadási oldalt. A bevételi oldal már kicsit trükkösebb, de itt jön képbe Tracy előadása és a SEO ROI kalkulátor.

SEO megtérülési kalkulátor elemeihez szükségünk lesz:

  • Feltételezések megfogalmazására
  • Találgatások helyett adatokra

Feltételezések megfogalmazása

  1. Nincs olyan, hogy nincs keresési szándék

Tracy feltételezése szerint elképzelhetetlen, hogy amíg a Google mutat keresési szándékot a “how do you prepare for a financial emergency” (“hogyan készülj fel egy pénzügyi vészhelyzetre”) kifejezésre, addig senki (de tényleg senki!) ne keressen rá soha (de soha!) arra, hogy “what is a financial emergency” (“mi a pénzügyi vészhelyzet”). És lássuk be, mond valamit…

  1. A SERP feature-ök befolyásolják a weboldalakra kattintás esélyét

Majd Tracy tovább megy: nem minden klikk egyenértékű.

A Jumpshot 2019-es felmérése szerint a keresések 50,33%-a nem eredményez kattintást (zero-click searches), 45,25%-uk eredményez organikus kattintást, és 4,42%-uk eredményez hirdetésre kattintást.

A hosszabb betöltési idő magasabb visszafordulási arányt eredményez

De akkor hogyan tudjuk megmondani, hogy a megcélzott kulcsszavunk melyik három kategóriába fog esni? Enélkül lehetetlen megbecsülni a várható forgalmat.

Tracy példaként hozott egy találati oldalt, ahol voltak SERP feature-ök, hirdetések, és organikus találatok is. Összesen 47db link. Ezek közül mindössze 8db link volt organikus találat. Vagyis az első oldalon csupán 17%-nyi esély van arra, hogy organikus találat kap kattintást.

  1. A SERP minden pozíciója eltérő átkattintási aránnyal rendelkezik

Iparágak közt is kimutatható eltérések vannak a várható átkattintási arányokban, azonban ezt érdemesebb közelebbről is megnézni. Ugyanis nem csak iparágak közt fedezhetünk fel eltérést, de az egyes pozíciók közt is. Vagyis eltérő valószínűséggel fog valaki lekattintani egy első, második vagy tizedik helyen rangsoroló oldalt. És nem mindegy, hogy a harmadik pozíció 10%-os arányával számolunk, vagy az első oldal tíz pozíciójának átlagos 3%-val!

Eltérő az egyes pozíciók átkattintási aránya

Találgatások helyett használjunk adatokat!

  1. Nincs olyan, hogy nincs keresési szándék

Ha feltételezzük, hogy nincs olyan, hogy egy kifejezésre senki nem keres rá, akkor felmerül a kérdés: 

Ok, de akkor mekkora a keresési volumene?

Nos, igazság szerint már rendelkezünk ezekkel az adatokkal! 

Ok, de hol?

Hát a Google Search Console, a Google Ads és Google Trends eszközeiben!

A GSC és a GA felületein a havi megjelenítési számokat érdemes megnézni, a Trends-en pedig nézzünk meg hasonló kulcsszavak, és használjuk azok adatait!

Ahol pedig kiderül, hogy nem nulla a keresési volumen, ott a különbséget adjuk hozzá a többi kulcsszavunkhoz is – elvégre azoknál is lehet, hogy a Google alulbecsülte a volumeneket.

A GSC, a Google Ads és a Google Trends kiváló alternatívák a keresési volumen meghatározására
  1. A SERP feature-ök befolyásolják a weboldalakra kattintás esélyét

Ez a legegyszerűbb. Megszámoljuk, hogy a találati lista első oldalán mennyi link van összesen. Majd megnézzük, hogy ezek közül mennyi organikus találat. A kettőt elosztjuk egymással, és már kész is az arányszámunk!

Az organikus találatokat és az összes találat aránya megadja az organikus kattintás valószínűségét
  1. A SERP minden pozíciója eltérő átkattintási aránnyal rendelkezik

Akár hiszitek, akár nem, minden oldalra ki lehet számolni az adott oldal átkattintási arány görbéjét! Erről cikket is írt a Seer Interactive, ami itt olvasható.

Ezek után pedig még érdemes egy jó – jobb – legjobb átkattintási arány skálára felhúzni három forgatókönyvet.

Hogyan lesz ebből ROI?

Vegyünk egy példát:

A kulcsszavunk 10.000-es keresési volumennel rendelkezik, amit a GSC, GA és Trends adataival felkorrigálunk 10.002-re. Ezt beszorozzuk az organikus találatok átkattintási arányával – így megkapjuk az 5.501-et. Most elővesszük a 3 forgatókönyvre meghatározott 3 egyedi, pozíció alapján kalkulált átkattintási arányunkat, és megvan, hogy 110 és 990 kattintás közti forgalom várható az adott kulcsszóra.

Várható forgalom számítása adott kulcsszóra

Most skálázzuk fel a várható bevételi számokkal! Ehhez két adatra lesz szükség:

  • Árbevétel per Munkamenet
  • Hány évig fog rangsorolni a kulcsszavunk

Annak érdekében, hogy kicsit könnyebb legyen az életünk, Tracy megosztotta azt a -et, amibe csak bele kell írnunk a már kiszámolt adatainkat, és a képletek elvégzik helyettünk a hátralévő számításokat.

Ez  táblázat nem csak a mi életünket könnyíti meg, de a vezetőség döntéshozását is. Ugyanis, ha előjönnek a “De mi van ha,…” és “Nem hinném, hogy…” kezdetű kérdések, a táblázat elemeinek módosításával azonnal újra tudjuk számolni a várható bevételeket.

A táblázat többi fülén pedig segítséget kapunk a költségek és magának a ROI-nak a kiszámítására is. Sőt! A versenytársak bevételének kiszámításához segítséget nyújt a táblázat!

Jó számolgatást! 🙂 

4. Gondolkodj a dobozon kívül: építs linket a megfelelő onsite tartalmak létrehozásával!

A linképítés terén is érdemes a “gondolkodjunk a dobozon kívül” elv mentén stratégiákat alkotnunk, vagyis a szokásos linképítési technikák, kereteken túllépve új megoldásokat keresnünk. 

Stacey MacNaught előadása, a Link Building in 2021 (When You’re a Bit Crap at PR)  – magyarul: Linképítés 2021-ben (ha egy picit béna vagy a PR-ban) – rávilágított egy igazán kreatív linképítési technikára. MacNaught SEO szakemberként teljesen ingyen tudott minőségi backlinkrekre szert tenni olyan nemzetközi szinten is nagy népszerűségnek örvendő weboldalaktól, mint az Independent, a Metro, vagy a The Sun. De hogy csinálta?

Újságírókra optimalizált tartalom

A megoldás rövid, de velős: olyan keresőmotorokra optimalizált on-page tartalmakat, blogcikkeket alkotott, amelyeknek nem elsősorban a potenciális vásárlóinak, vagy közvetlenül az ő tartalomfogyasztóinak készültek, hanem kifejezetten újságírók számára lehetnek hasznosak.

Az ő egyik példája a “bullying statistics” (zaklatási statisztikák) kulcsszó volt, amire havonta 590 alkalommal kerestek rá a Google felhasználói. MacNaught-ék ezért olyan cikket alkodtak, amely összeszedte a legtöbb releváns információt a zaklatási statisztikákkal, számokkal, véleményekkel. Az újságírók rátaláltak ezekre az oldalakra amikor cikkeket írtak a témában, és hivatkoztak rájuk, mint releváns forrás. Ugyanígy optimalizáltak oldalt a “freelance statistics” (szabadúszó statiszitkák) kulcsszóra, amellyel a Google találati listájának 8-10. helyére jutottak, majd a folyamatos, időről időre érkező backlinek miatt sikerült egyre fentebb menetelniük.

Kutassunk fel olyan kulcsszavakat, amelyekre újságírók is keresnek

Ha úgy látjuk, hogy az újságírók, szerzők igényeire optimalizált oldalaink önerőből rövidebb távon nem juthatnak el a találati lista első oldalára, használhatjuk például Google Adset is. Ennek segítségével egy rövid ideig kiemelhetjük az érintett oldalunkat a találati lista élére, majd – miután bezsebeltük a szükséges backlinkeket – megszüntethetjük a kiemelést, hiszen attól fogva a minőségi backlinkek segítségével organikusan is a találati lista első oldalára juthatunk. 

“Rankworthy” és “Linkworthy” tartalmak létrehozása

Ez a megközelítés teljesen újszerű tehát, de persze nem feltétlenül egyedi. A “How Content Marketing Can Skyrocket Your Brand Authority” (“Hogyan tudja a tartalommarketing az egekbe emelni a branded ismertségét) című előadásban Amanda Milligan is megkülönböztette “linkworthy”, tehát backlingyűjtésre érdemes, és “rankworthy”, tehát a találati lista élére törő oldalakat. A “linkworthy” oldalak Milligan szerint azok az oldalak, amelyekre újságírók hivatkozhatnak, amelyek meglétével backlinkeket szerezhetünk, ezeken az oldalakra ilyen jellegű tartalmat kell alkotnunk. A “rankworthy” kategória az, amellyel szeretnénk a találati lista élére kerülni, mert az abból származó extra forgalom akár extra bevételt jelenthet a számunkra. Azáltal, hogy a “linkworthy” oldalaink segítségével növeljük a backlinkeink számát, a “rankworthy” oldalaink is jobban fognak teljesíteni a találati listában, hiszen a domainünk egyre hitelesebb lesz a Google szemében. 

Ez az elv megfeleltethető a MacNaught előadásában elhangzottakkal, egy álláskereső oldalon például készíthetünk bérkalkulátort, amire később bármilyen újságíró hivatkozhat, ha éppen a hazai bérek alakulásáról, vagy adóügyi változásokról ír. Ez lehet a “linkworthy” tartalmunk, miközben az állásajánlatokkal, vagy épp a kategória- és alkategóriaoldalakkal szeretnénk új felhasználókat, ügyfeleket vonzani oldalunkhoz, utóbbiakat szánhatjuk “rankworthy” tartalomnak.  

Egy bérkalkulátor tökéletes linkworthy oldal lehet

Backlinkek gyűjtése a képek optimalizálásával

Fontos kiemelnünk a képek szerepét is a történetben. MacNaught ugyanis felhívja a figyelmet arra, hogy a megfelelően optimalizált képekkel szintén kiválóan lehet backlinkeket gyűjteni. Érdemes megfigyelnünk, hogy a Pixabay-hez hasonló weboldalakon elérhető ingyenes és szabadon felhasználható képeket mennyien használják, mekkora kereslet van rájuk. Áttekinthetjük, hogy a mi témakörünket érintő, ilyen típusú képek mennyire népszerűek az interneten, és – ha úgy látjuk, hogy egy bizonyos típusú képre magas a kereslet és alacsony a kínálat – akkor érdemes lehet egyszerűen saját ingyenesen felhasználható képeket készítenünk, amelyeket a weboldalunkra történő hivatkozással használhatnak más honlapok szerkesztői is.

Ezeket feltölthetjük az olyan képmegosztó oldalakra, mint a Pexels vagy a Pixabay, vagy akár saját honlapunkra is. Ebben az esetben a Google képkeresőjéből találhatnák rá más honlapok szerkesztői, épp ezért érdemes minden házi feladatunkat elvégezni képek optimalizálása terén: elsősorban adjuk megfelelő, kulcsszavazott nevet a fájlnak, és töltsük ki az oldalunkon az ahhoz tartozó alt textet, hogy lehetősége legyen jól telejesíteni a képkeresőben, az emberek rátaláljanak és hivatkozzanak az oldalunkra, mint forrás.

Kutassuk fel, milyen újrafelhasználható képekre van igény

A Google Képkereső, vagy akár a Picmatch, Copytrack eszközök segítségével követhetjük, ki és hol használta fel a képeinket. Amennyiben úgy látjuk, hogy a weboldalunkra nem hivatkozott az újrafelhasználó fél, írhatunk egy barátságos hangvételű levelet is a számára, amelyben megköszönjük a képek használatát, és kedvesen megkérhetjük őt a hivatkozás pótlására is.

5. Ha gond van, maradj nyugodt, és lépj egyet hátra: ne feledd, a SEO egy rendkívül szerteágazó terület

A legtapasztaltabb SEO-szakemberek is összezuhanhatnak, ha egy-egy váratlan, súlyos problémával találják szemben magukat. Így járt Mat Davies is, aki új munkahelyén, a Vanarama cégnél szembesült azzal, milyen az, amikor ügynökségi háttér és tapasztaltabb munkatársak híján teljesen önállóan kell új feladatokban helytállnia. 

Adott egy súlyos probléma

Davies egy ügynökségtől került a Vanarama-hoz, a Brighton SEO-n pedig elmesélte a tapasztalatait és a kezdeti nehézségeket. A cég, ahol dolgozni kezdett, épp egy weboldal-migrációt hajtott végre, amihez házon belül kerestek SEO-támogatást. A migráció le is zajlott, a honlap organikus forgalma az ezt követő hónapban viszont megfeleződött.

Az adatok elemzését követően SEO-szakemberünk egy érdekes jelenséget tapasztalt: az organikus forgalom bezuhanása nem járt együtt a Google Search Console-ban jelzett pozíciók csökkenésével. A legnépszerűbb, több tízezres keresési volumennel rendelkező kulcsszavak esetében is az első pozíciók környékén maradt a Vanarama. Egy 22 000-es havi keresési volumennel rendelkező kifejezés esetében például a GSC adatai szerint a második helyen állt a weboldal, így az általános trendek alapján ebben az esetben jellemző 15%-os átkattintási arány miatt nagyjából 3300-3400 látogatónak kellett volna landolnia azon az oldalon.

De nem landolt. Így Davies tovább kutakodott egészen addig, míg szembe nem találkozott a számára rendkívül riasztó statisztikával: bár a GSC szerint az Egyesült Királyságban általánosságban a 2. pozícióban lehetett megtalálni ezt az oldalt az adott kulcsszóra, különböző, lokális keresésre szakosodott eszközök rámutattak, hogy a legtöbb brit nagyvárosban a Vanarama oldala a top 20 hely egyikén sem található meg.

A helyezések lokációként eltértek

Ezen a ponton Davies elhatározta, hogy megtalálja a probléma okát. Próbált tanácsot kérni az interneten, a Google Webmasters és más SEO-fórumokra posztolt, Twitteren kutakodott. A megoldás viszont csak nem akart megszületni, ami nem véletlen: az elkötelezettsége ellenére magát a problémát sem sikerült igazán feltárnia. Ezen a ponton a Vanarama egyedüli SEO-szakembereként egy kicsit összezuhant, a róla készült kép, amin egykedvűen bámul egy 404-es oldalt, már-már mémmé vált a cégen belül:

Minőségi fejlesztések nélkül nem lehetett előre jutni

Vissza az alapokhoz: a 120 napos terv

Ezen a ponton Davies hátralépett egyet, és elhatározta, hogy elkezd inkább azokkal a problémákkal, hiányosságokkal foglalkozni a weboldalon, amiket biztosan javítani tud. Rá kellett ébredjen, hogy amíg folyamatosan csak a probléma gyökerét próbálja feltárni, addig semmilyen változtatás lényegi nem fog végbemenni a honlapon ami a helyzetet jobbra fordíthatná. 

Épp ezért kidolgozott egy 120 napos tervet, szorosabbra fűzve a házon belüli együttműködést a tartalomgyártásért felelős csapattal és a webfejlesztőkkel. Megvizsgálta, milyen on-page, off-page és technikai SEO problémákat lát az oldalon, hogyan tudná a honlapot a lehető legjobban optimalizálni.

A szövegíró csapattal SEO-alapelvek alapján újraírták az összes kategória- és alkategóriaoldal szövegét, rendszeresen kezdtek blogcikkeket írni, és teljesen átszabták a weboldal belső link strukturáját. A webfejlesztőkkel együtt sikerült átvizsgálni a weboldalt, és teljesen újraszabni annak menüstruktúráját és áttervezni a kategóriaoldalakat. Davies backlink auditot is készített és 150 ezer (!) nem relevánsnak vélt backlinket eltávolíttatott, 300 ezer backlinket pedig “szponzorált” taggel láttak el a kérésére a Vanaramara hivatkozó weboldalak. 

A tanulság: ne akadjunk le egyetlen problémán, a SEO szerteágazó

Davies változtatásainak hatására a weboldal organikus forgalmának mértéke nem csak elérte, túl is szárnyalta a migrációt megelőző számokat, az országos pozíciók pedig inmáron megegyeztek a lokális pozíciókkal is. 

a fejlesztések meghozták a gyümölcsüket

A történet tanulsága elsősorban az, hogy egy percre sem szabad elfelejtenünk: a SEO egy rendkívül szerteágazó terület, ahol különböző rangsorolási tényezők százai hatnak egymásra különböző módokon. Egyetlen hiba feltérképezése, kivizsgálása és megszüntetése nem mindig vezet jelentős eredményre. A SEO-projektek végcélja az, hogy fellendüljön az organikus forgalmunk, épp ezért érdemes a lehető legtöbb területen optimalizálnunk, ahol az csak lehetséges. Lehet, hogy egy weboldalon megfelelő a tartalom, de nem lesz versenyképes, ha nem mutatnak rá minőségi linkek. Mutathatnak rá minőségi linkek, de nem érünk el eredményt, ha a technikai SEO alapelvei nem érvényesülnek.

A különböző faktorok egymásra hatnak, az egyes elemek optimalizálásától pedig önmagában nem feltétlenül várhatunk látványos eredményt. Épp ezért nem mindig éri meg mindig egyetlen egy problémán lovagolnunk, ha közben tudjuk, mi minden mást is fejleszthetünk. A weboldalunk folyamatos és sokrétű karbantartást, keresőoptimalizálást igényel, cserébe hosszú távon jelentős eredményeket érhetünk el vele.

+1. SERPcepció: egy indexelt belső találati lista története

Itt hadd vegyem át a szót kedves kollégáimtól, hogy meséljek egy kicsit az előadásomról. Szabó Csaba vagyok, a Klikkmánia SEO menedzsere. 🙂

Az előadásom egy furcsa ellentmondásról szólt: a Google általában nem szereti a találati listákat a találati listáin, ezért mindig az a szabály, hogy ne hagyjuk indexelni őket. Azaz zárjuk ki oldalunk belső találati oldalait a robots.txt segítségével, vagy ha már indexelve lettek, noindexeljük őket.

Mégis egyik ügyfelünk, a Profession.hu esetében a következő történt: a ‘diákmunka’ kulcsszóra, azaz egy fat head, magas keresési volumenű kulcsszóra egy belső találati lista rangsorolt, ami önmagában véve nem lenne probléma, ám sokkal jobban rangsorolt, mint a Profession dedikált Diákmunka listaoldala. Olyannyira, hogy a dedikált listaoldal (kvázi kategória oldal) nem is rangsorolt erre a kifejezésre. Emiatt az a pikáns helyzet állt elő, hogy hiába rangsorol rá egy belső találati lista, nem távolíthatjuk el csak úgy, mert túl jól szerepelt erre a kulcsszóra. Az alábbi képkivágáson látható, hogy hogyan szerepelt a fókusz kulcsszóra a belső találati oldal.

Profession.hu belső találati lista Search Console teljesítménye diákmunka kulcsszóra

A probléma mélyére kellett ásnunk, hogy feltárjuk: miért tekinti a Google algoritmusa relevánsabbnak, pontosabban hasznosabbnak a belső találati listát, mint a dedikált kategória oldalt?

Az elemzés során megvizsgáltam az összes szóba jöhető technikai, tartalmi, és linkprofil jellegű elemeket – bár utóbbit csak a miheztartás végett, akkorra már egy elég tiszta kép rajzolódott ki, hogy mi is állhat a háttérben.

Technikai SEO elemek

Technikai szempontból rögtön furcsa különbség volt, hogy a belső találati lista egy picivel gyorsabb volt mobilon, mint a dedikált kategória oldal. Ez főleg azért volt fontos, mert a diákmunka fő célcsoportja a 16-18 éves gimnazisták, Z-generációs fiatalok, akik híresen türelmetlenek, ha a betöltési sebességről van szó.

A technikai elemek terén igen gyorsan kiderült, hogy a rögtön szóba jöhető problémák egyike se állt fenn: a dedikált kategória oldal nem volt noindexelve, nem volt kizárva a feltérképezés alól, nem voltak nofollow-ra állítva a belső linkek, amelyek erre az oldalra mutattak. Sitemap-je az elemzés idején nem volt, de nem ez volt a gyökérok.

Technikai téren több dolgot nem volt értelme szemügyre venni. Ezért rátértem az on-page elemekre, és itt kezdett el igazán izgalmas lenni a történet.

On-page SEO elemek

Ami rögtön szemet szúrt, és fura is volt, hogy a belső találati listán egy picivel több állásajánlat szerepelt, mint a dedikált listaoldalon. Hm.

Ami viszont igazán meglepő volt, az a ‘diákmunka’ kulcsszó jelenlétének száma. 95x szerepelt a belső találati oldalon, és mindössze 29x a listaoldalon. Ezen belül a H2 címsorokban 20x szerepelt a kulcsszó, és csupán 4x (!) a dedikált kategória oldalon. Miért fontos ez? Azért, mert a Profession oldalán egy H2 heading = 1 állásajánlat. Tehát ha az állásajánlatok nevében 5x annyiszor fordul elő a fókusz kulcsszó, mint a dedikált listaoldal esetében, az egy igen erős jelzést küld relevancia terén az algoritmusnak.

A másik érdekes különbség a gyakornoki ajánlatok jelenléte, száma, és elhelyezkedése volt. Mind a két oldalon voltak, azonban a dedikált listaoldalon az oldal tetején, ráadásul többször fordultak elő. Ez azért problémás, mert más a célcsoportjuk: a diákmunkák jellemzően kétkezi fizikai munkák, amelyek nem igényelnek speciális szaktudást, és – mint írtuk – főleg a 16-18 éves gimnazisták keresik ezeket. A gyakornoki ajánlatok viszont más tészta: ezek jellemzően már igényelnek némi speciális szaktudást, egyetemi jogviszonyt, és főleg az alapszakos egyetemi hallgatók a célcsoportja. Akik jellemzően 21-23 évesek.

Végezetül pedig egy apróság, de számít: a belső találati oldal esetében ha a beírt keresési kifejezés megtalálható az oldalon található állásajánlatok nevében, akkor a rendszer magenta színnel kiemeli azokat. SEO-szempontból ez nem tekinthető előnynek, használhatóság (UX) terén viszont sokkal olvashatóbbá teszi az oldalt, tehát hasznosabbá, mint a dedikált oldal.

Profession.hu belső találati lista, magentával kiemelt kifejezések

Utoljára pedig megnéztem a backlink profilját az aloldalaknak – azonban itt már nagyjából megvolt, hogy mi a probléma gyökere. Backlinkek szempontjából a dedikált találati lista papíron hitelesebbnek számított, ez nem is volt meglepő. Így összegezni tudtam a látottakat.

A probléma gyökere

Az algoritmus szempontjából tehát 2 olyan aloldal állt egymással szemben, amelyek közül a belső találati oldal – a legfontosabb jelek alapján – sokkal hasznosabbnak tűnt az algoritmus szemében a célcsoport számára. Más szavakkal: azért indexelte a Google a belső találati listát, és rangsorolt nagyon jól a fókusz kulcsszóra, mert az algoritmus logikája (!) alapján a belső találati listát használva a célcsoport sokkal nagyobb valószínűséggel szerez egy diákmunkát. Plusz kismértékben jobb a használhatósága is.

Ezek után leültünk beszélni a Profession-nel és kiderült, hogy még egy dolog van a háttérben: az eltérő algoritmusok. A Profession-nek ugyanis van egy igen szofisztikált belső rangsorolási algoritmusa, amely nem a relevanciát, hanem a Profession üzleti érdekeit tartja szem előtt.

Ezzel szemben a belső keresési algoritmusa olyan, mint a Google-é: minél relevánsabb találatok feltérképezése és prezentálása a felhasználó felé. Mivel ez kompatibilisebb a Google algoritmusának logikájával, ezért a Google – az előzőekben tárgyalt okokon túl – a Profession belső keresési algoritmusát, azaz a belső találati listáját preferálja a dedikált listaoldallal szemben.

A megoldás

Sajnos a Profession oldala fejlesztési szempontból igen komplex, ezért arra nem volt lehetőség, hogy nagyobb átalakítást eszközöljenek az oldal backend logikájában. Ezért egy viszonylag egyszerű megoldást választottak: kicserélték a főoldalon található linket. Ha rákattintunk, akkor most már nem a dedikált listaoldalra, hanem egy, a belső találati lista logikáját szimuláló oldalra navigálja a felhasználót.

A tanulság

Összességében tehát az volt az üzenete az előadásomnak, hogy figyeljünk oda a rangsorokra, ha egy olyan nagy ügyféllel van dolgunk, amelynek egy igen szofisztikált belső keresési algoritmusa van, aminek a logikája eltér a Google-étől. Ilyenkor előfordulhat, hogy ún. ‘Ranking gap’-ek keletkezhetnek (megj.: ez a kifejezés elvileg nem létezik, én hozakodtam elő vele). Azaz megeshet, hogy nem dedikált kategória, alkategória, szolgáltatás leírás oldal stb. oldalak rangsorolnak 1-1 kifejezésre, hanem olyan oldalak, amelyekre előzetesen egyáltalán nem számítottunk – pl egy belső találati lista. Ha egy rank tracker eszközzel szemügyre vesszük az oldalunk rangsorait (pl SEMrush, Ahrefs) a legfontosabb kulcsszavaink tekintetében, akkor viszonylag könnyen feltárhatjuk ezeket a gap-eket.

Kapcsolódó szolgáltatások:
Címkék:

Tetszett a cikk?

Szeretnéd havonta összesítve megkapni a legfontosabb szakmai cikkeket, híreket?
Feliratkozom a hírlevélre

Kapcsolódó cikkek

A mesterséges intelligencia és a SEO: Hogyan formálja át az AI a stratégiánkat?

Jelen cikkünk keretei közt a Wordpress teljeskörű bemutatására és használatára nincs lehetőségünk, ezért elsősorban a SEO vonatkozású témákat vesszük górcső alá. Megtudhatod, mire kell odafigyelned, hogy megfelelően SEO optimalizált legyen a Wordpress oldalad, illetve milyen tippek és trükkök segíthetnek a keresési találati lista tetejére kerülni.
Tovább a cikkhez
Levente Asztalos

A Performance Max kampánytípus költségkeret-átcsoportosítási kísérleteket kap

A Google Ads új módszert vezetett be a költségkeretek dinamikus keresési hirdetésekből (DSA) vagy Display-kampányokból a Performance Max kampányokba történő átcsoportosításának hatásvizsgálatára. A frissítés segíthet a nagyobb hatékonyság és a jobb eredmények elérésében.
Tovább a cikkhez
Klikkmánia
Mutass többet