SEO mýty a legendy: Komprese ovlivňuje výkon optimalizace

SEO mýty a legendy: Komprese ovlivňuje výkon optimalizace
Uplatňují vyhledávací algoritmy Google kompresní poměr při hodnocení kvality webových stránek? Je to skutečnost, nebo jen jedna z pověr zažitých v komunitě SEO?

Otázka, jestli má kompresní poměr webové stránky vliv na její hodnocení ve vyhledávání, je stará skoro jako Google sám. Přečtěte si o výzkumu, který se jí věnoval, i o tom, jaká míra stlačování obsahu je pro SEO únosná.

Komprimace webových stránek přináší užitek všem

Základním příkladem komprese, který zná každý, je zmenšení dokumentů do souboru zip. Komprimovatelnost z pohledu vyhledávačů označuje, jak efektivně jsou stránky komprimované pro lepší načítání. Vyhledávače, a dělají to všechny, komprimují stránky kvůli ušetření místa a jejich rychlejšímu zpracování.

Komprese webových stránek je obecně užitečná věc, protože díky ní mají vyhledávače k webu rychlejší přístup, což dává signál prohledávacím robotům, že nedojde k zatěžování serveru a je možné získat ještě více stránek k procházení a indexování.

Díky kompresi a zrychlení stránek dostávají návštěvníci webu kvalitnější uživatelský zážitek. Kompresi automaticky povoluje také většina provozovatelů webového hostingu, protože šetří zatížení šířky pásma.

Vysoká míra komprese souvisí se spamem

Renomovaní výzkumníci Marc Najork a Dennis Fetterly ve své studii z roku 2006 uvádějí, že vysoce komprimovatelné webové stránky značí nekvalitní obsah.

Jejich analýza ukázala, že 70 % procent stránek komprimovaných na úroveň 4.0 a vyšší, byly stránky nízké kvality s velkou mírou použití nadbytečných slov. Průměrná komprese webů se přitom pohybovala kolem úrovně 2.0.

Průměry ”normálních” webových stránek zahrnutých do výzkumu:

  • Kompresní poměr 2.0: Nejčastěji se vyskytující kompresní poměr v datové sadě je 2.0.
  • Kompresní poměr 2.1: Polovina zkoumaných stránek má kompresní poměr nižší než 2.1 a druhá polovina vyšší.
  • Kompresní poměr 2.11: Průměrný kompresní poměr analyzovaných webových stránek je 2.11.

Rozdíly v kompresi by pro vyhledávače mohly být snadným prvotním filtrem k odhalení a eliminování ”těžkopádného” spamového obsahu. Jenže to není tak jednoduché, protože roboti používají ke zvýšení přesnosti podstatně sofistikovanější metody zahrnující celou řadu různých signálů poukazujících na spam.

Jak z výzkumu dále vyplývá, spamový obsah se nacházel na 70 % webových stránek s úrovní komprese 4.0 a vyšší. To ovšem znamená, že v případě zbylých 30 % se o spam nejednalo. Proto je pro vyhledávače nezbytné používat při identifikaci spamu více než jeden signál.

Zohledňují vyhledávače komprimovatelnost?

Bylo by logické předpokládat, že vyhledávače používají komprimovatelnost k rozpoznání zjevného agresivního spamu na webu.

Skutečnost je však taková, že současně uplatňují také další signály ke zvýšení přesnosti spamových metrik. A jsme u toho, že nikdo přesně neví, zda komprimovatelnost při hodnocení bere v úvahu i Google.

Používání komprese u Google nelze ověřit

Dostáváme se k samotné podstatě tohoto článku. Ta je o tom, že neexistuje způsob, jak dokázat, zda je kompresní poměr v případě Google jen mýtus SEO.

Zde je vysvětlení:

  • Když webová stránka vykazuje kompresní poměr 4.0 a k tomu ještě další spamové signály, nedostane se do výsledků vyhledávání.
  • Když se stránka neobjeví ve výsledcích vyhledávání, není možné ji otestovat a ověřit, zda Google používá kompresní poměr jako ukazatel spamu.

Můžeme se tedy domnívat, že stránky s vysokým kompresním poměrem 4.0 jsou z vyhledávání odstraňovány. Jenže to nikdo neví jistě a tyto jinak zcela smysluplné úvahy se nedaji nijak dokázat.

Takže jediná věc, kterou s jistotou víme, je, že na toto téma existuje výzkumná studie od význačných specialistů v oboru.

Nebojte se stlačování

Komprimovatelnost tedy může, ale také nemusí být mýtus SEO. Jedno je však docela jisté: Majitelé webů nebo SEO specialisté publikující ”normální” webové stránky se jí nemusí obávat.

Například Google v případě duplicitních stránek kanonizuje nejdůležitější z nich a na tu pak soustředí signály PageRank. Což je zcela běžné u dynamických webových stránek v e-shopech a internetových obchodech. Produktové stránky s menším objemem obsahu se také mohou komprimovat vyšší rychlostí, což je v pořádku, protože je Google dokáže seřadit.

K tomu, aby došlo k odstranění stránky z vyhledávání, nestačí jen vysoká míra komprese, ale musí se k němu přidat i další signály agresivního spamu. Když vezmete v úvahu, že tyto signály vyhledávače kvůli falešně pozitivním výsledkům nepoužívají nikdy izolovaně, můžete zůstat v klidu a s kompresními poměry si nedělat starosti.

Zdroj: marketingland.com, facebook.com, cpcstrategy.com

Autor: Martin Kulhánek

Foto zdroj: pixabay.com

Více článků z blogu

Používáme tyto nástroje

WordPress
PrestaShop
WooCommerce
Shoptet
Upgates
FastCentrik
GA4
Google Merchant
Google Tag Manager
Collabim
Marketing Miner
ahrefs
Ecomail
Mailchimp