Strategie přihazování pro portfolio na Google Ads se mění: odstraňuje se eCPC, průměrný denní rozpočet nahrazuje cílenou útratu

Ve snaze pomoci zjednodušit celé nastavení, Google uvedl, že bude měnit některé věci ve strategiích přihazování na portfolia uživatelů. Strategie přihazování na portfolia mohou být aplikována napříč všemi různými kampaněmi v účtu Google Ads.
 
Průměrný denní rozpočet pro maximalizaci kliknutí.
 
Začne to v červenci, cílené útraty a jejich nastavení nebude již dále možností, když budete nastavovat nové strategie přihazování na porfolia pro maximalizaci kliknutí. Namísto toho, strategie bude používat průměrný denní rozpočet kampaně v portfoliu. „Spousta z vás nám sdělila, že nastavení cíle útraty bylo matoucí a že průměrný denní rozpočet bude daleko nápomocnější a přímočařejší,“ napsal Sagar Shah, produktový manažer Google Ads, ve svém blogovém příspěvku.
 
Strategie maximalizace kliknutí automaticky upravuje přihazování, abyste se mohli pokusit získat co možná nejvíce možných kliknutí v rámci vašeho rozpočtu – nebo cílené útraty, pokud jste nějakou nastavili. Pokud jste nenastavili cílenou útratu, systém se snažil o to, aby spotřeboval veškerý zbývající denní rozpočet jakékoliv kampaně za použití přihazovací strategie.
 
Cílené útraty jsou definovány takto: „počet, který byste chtěli každý den utratit na všech kampaních, které používají strategie přihazování. Na rozdíl od vašeho rozpočtu mohou přesáhnout v některých případech vaše cílené útraty.“ Nyní můžete vidět, proč vlastně nastavování rozpočtu a cílené útraty mohlo působit poněkud zmateně, aniž bychom zmiňovali fakt, že průměrný denní rozpočet není tak úplně přesně těžce zacílené. Takže vaše skutečná denní útrata možná přesáhne váš denní rozpočet, který jste nastavili (skoro až o dvojnásobek částky – nebo dokonce i více, pokud jste optimalizovali pro konverze). Google bude nyní respektovat váš měsíční rozpočet (denní rozpočet x 30,4 dnů).
 
Starobylé cílené útraty a jejich nastavení bude odstraněno automaticky v určitý moment „později tohoto roku,“ a tyto portfolia nyní začnou používat váš průměrný denní rozpočet ke správě útraty.
 
Už žádné eCPC portfolia
 
A co se také stane v červenci, je to, že vylepšené CPC už nebude dále dostupné jako strategie přihazování portfolia. Není tu totiž žádná přidaná hodnota v používání eCPC jako strategie portfolia, oproti například té na úrovni kampaně, a Google také uvedl, že jsou „daleko více užívány v praxi“ a v individuálních kampaních. Pokud tedy máte nějaké vylepšené CPC portfolia, budou převedeny automaticky na úroveň kampaně.
 
Proč by nás to mělo zajímat.
 
Tyto změny následují oznámení, že cílené umístění stránky vyhledávání a cílené strategie přihazování budou odcházet na vysloužilý důchod – na úrovni kampaní i portfolií – tento měsíc. Vylepšené CPC zůstane jako strategie přihazování na portfolia, avšak na úrovni samotného portfolia budou odteď pouze čtyři strategie – cílené CPA, cílené ROAS, maximalizace kliknutí a cílený podíl dojmů.

Google upozorňuje správce webů, aby odstranili noindex z jejich souborů robots.txt

Jako součást celého odstraňování podpory pro noindex příkaz v souborech robots.txt nyní společnost začíná rozesílat upozornění a oznámení těm, kteří ještě stále tyto příkazy aplikovány mají. Toto ráno spousta lidí ze SEO komunity začala dostávat upozornění přímo z nástroje Google Search Console s předmětem „Odstraňte Noindex stanoviska z robots.txt stránky….“

Jaké jsou alternativy?
 
Google vypsal následující možnosti, ty, které pravděpodobně používáte tak i tak:
 

  1. Noindex v robots meta tagu: podporován jak v http titulcích odpovědi, tak i v HTML, noindex příkaz je tou nejefektivnější cestou, jak odstranit URL adresu z indexu, když je procházení povoleno.
  2. 404 a 410 http statusové kódy: Oba dva statusové kódy znamenají, že stránka neexistuje, což způsobí odstranění URL adresy takovýchto webových stránek z Google Indexu, jakmile budou procházeny a zpracovány.
  3. Ochrana heslem: Jestliže je markup použitý k tomu, aby indikoval obsah podmíněný odběrem nebo poplatkem, skrytí takové stránky za nějaké přístupové údaje ji obecně odstraní z Google indexu.
  4. Disallow v robots.txt: Internetové vyhledávače mohou pouze indexovat ty webové stránky, o kterých ví, takže blokování stránky od toho, aby mohla být procházena, často znamená, že obsah nebude indexován. Zatímco internetové vyhledávače mohou také indexovat URL adresu na základě odkazů z jiných stránek, aniž by viděly samotný obsah, zajistíme, aby v budoucnosti byly méně viditelné. 
  5. Search Console nástroj pro odstraňování URL adres z indexu: tento nástroj představuje jednoduchou a rychlou metodu, jak odstranit URL adresu natrvalo z Google výsledků vyhledávání.

Alexa, Google HOme nyní bojují s nálepkou zařízení „špehování“

Google připustil dřívější hlášení od belgického zpravodajského portálu WRT News ohledně obchodních partnerů třetích stran Google, kteří jsou schopni získat přístup o nahrávkách vlastníků zařízení Google HOme. Alespoň podle tohoto hlášení, audio nahrávky, které byly slyšeny, zahrnují dostatek informací, aby se z nich dalo údajně určit adresy domácností několika zahrnutých jednotlivců.
 
Nahrávky jsou používány jazykovými experty pro zdokonalení zařízení
 
Google tvrdí, že posílá nahrávky jazykovým expertům třetích stran k zajištění toho, že Google chápe místní řeč a nářečí. Společnost vysvětlila tento proces ve svém příspěvku na Blogu, kde také uvedla: „Právě jsme se dozvěděli, že jeden z našich jazykových recenzentů porušil naše bezpečnostní pravidla dat tím, že zveřejnil holandské audio data. Týmy pro bezpečnost a soukromí byly aktivizovány, aby se zabývaly tímto problémem, a prošetřují tento únik, určitě zakročíme. Právě nyní provádíme kontrolu všech našich bezpečnostních pojistek v tomto prostoru, abychom předešli budoucímu zneužití, jako bylo toto.“
 
Google dále pokračuje v diskutování a popisování toho, jak jejich bezpečnostní pojistky zajišťují soukromí uživatelů a jak jenom malé procento audio nahrávek jde třetím stranám k vyhodnocení. S tímto incidentem však Google jenom přidává olej do ohně straně, která tvrdí, že zařízení jako chytré reproduktory jenom „odposlouchávají“ jejich vlastníky. Tohle byl opravdu velký problém pro  Alexu, která získala opravdu nepěkné nálepky pro její údajné odposlouchávání vlastníků.
 
Obavy o ztrátu soukromí jsou rostoucí problém
 
Nedávný průzkum od společnosti NPR dokazuje, že někteří spotřebitelé váhají při koupi chytrého reproduktoru kvůli obavám z narušení soukromí.
Proč by nás to mělo zajímat.
 
Zhruba v roce 2010, CEO Facebooku Mark Zuckerberg mluvil ohledně nových sociálních normách okolo sdílení informací, neboť lidé byli údajně čím dál méně ohleduplní k jejich soukromí. Neřekl tak úplně, že „soukromí je mrtvé“, což je často způsob, jakým jeho stanoviska jsou vykládána. Ale určitě se zmínil o tom, že pravidla soukromí jsou trošku jiné. V minulých letech Facebook učinil opravdu rázné kroky proti pirátství, neboť spotřebitelé chtěli více kontroly nad jejich informacemi a FAcebook schytal pořádnou kritiku ohledně zabezpečení jeho dat.
 
Naneštěstí Google, Amazon a Facebook nejsou tak daleko od toho, aby vzbuzovaly nedůvěru a vůbec neučinili žádné kroky k tomu, aby nezištně poskytli uživatelům daleko větší kontrolu nad jejich daty, byť někteří by mohli určitě rozporovat toto stanovisko. Za oponou se ale již delší dobu snažili některé velké technické společnosti oslabit nastávající kalifornský akt o CCPA.
 
Chytré reproduktory a obrazovky jsou sice důležitým kouskem nové technologie spotřebitelů – a mají potenciál stát se efektivními platformami pro marketéry. Ale tento nově se vyvíjející kanál je čím dál více rizikem, pakliže Google, Amazon a Facebook, a do jisté míry také Apple, nezačnou dělat daleko víc k tomu, aby vzbudili důvěru spotřebitelů ohledně soukromí. 

Google poráží Microsoft, Amazon, IBM ve studii rozpoznávání obrázků

Lidi ve společnosti Perficient Digital nedávno zveřejnili studii o rozpoznávání obrázků ve vyhledávání, kde se dívali hlavně na přesnost daných technologií jednotlivých společností. Studie zjistila, že Google Vision porazil své konkurenty, mezi které patří zejména Amazon AWS Rekognition, IBM Watson a Microsoft Azure COmputer Vision.
Metodologie.
 
Dva lidé posbírali a označili dva tisíce obrázků ve čtyřech odlišných kategoriích, které obsahují lidi, prostředí, tabulky a produkty. Každá kategorie měla přibližně pět set obrázků. Obrázky byly sesbírány a označkovány 30. listopadu 2018 a studie probíhala až do 8. února 2019. Každý z lidí přišel s pěti přidělenými tagy k popsání každého obrázku. Perficient poté spustil všech dva tisíce obrázků ve své analýze obrázkového API, které je vypsáno výše, a podíval se na výsledky, kde unikátní set označení / tagů pro každý obrázek bylo zobrazeno pro každou API. Když byly všechny tagy pro obrázky přiděleny a byla jim také přiřazena hodnota, další obrázek byl prezentován. Tento proces hodnocení trval zhruba od 12. dubna do 9. května.
 
Ale je toho ještě víc.
 
Studie se opravdu hluboce ponořila do několika různých způsobů, jak nakrájet a prozkoumat data, takže bychom doporučili, abyste se podívali na celou studii přímo ZDE.
 
Proč nás to zajímá.
 
Zaprvé, technologie rozpoznávání obrázků ve vyhledávání je docela přesná a stává se čím dál tím lepší den co den. S bodováním důvěry 80 % studie zjistila, že skóre pro ručně označené obrázky je vlastně rovna výsledkům Amazon AWS Rekognition technologie, Google Vision a Microsoft Azure Computer Vision.
 
Zadruhé, určitě bychom si měli poznamenat, že zatímco Google a Bing provádějí rozpoznávání obrázků ve vyhledávání – určitě byste předpokládali, že to, co internetové vyhledávače používají, je trošičku pokročilejší a umělečtější než to, co společnosti zveřejňují veřejnosti s API. Takže byste museli předpokládat, že obrázková vyhledávání na Google a Bingu jsou ještě lepší, když dojde na rozpoznávání obrázků.

Hlášení o meřítku vyhledávacího marketingu pro SaaS

Marketingové a analytické týmy ve společnosti Directive vytvořili toto srozumitelné hlášení měřítka, které zahrnuje statistiky od našich zhruba čtyřiceti klientů v roce 2018. Toto hlášení je navrženo tak, aby vám poskytlo jistá čísla ze snah vyhledávacího marketingu a také to, jakým způsobem se mohou odrazit zpátky jako měřítko pro vaše oddělení.

Vyhledávací marketing není jenom o provozu a klíčových slovech, je to také o tom, že splňujete jisté byznys cíle. Váš tým se tak může porovnat s tím, že kde a můžete si tak posvítit na jakékoliv oblasti, kde je třeba udělat nějaké změny.

Navštivte proto Digital Marketing Depot ke stažení „Hlášení o měřítku vyhledávacího marketingu – SaaS edice.“
 

SMX Přesčas: Vaše otázky, zodpovězené, ohledně Google penalizací a jejich dopadu na vaši webovou stránku

To, že jste mezinárodní přednášející na tak velké konferenci, přináší celou řadu velkých a skvělých výhod: můžete prodiskutovat SEO se spoustou stejně zaměřených a smýšlejících SEO profesionálů. V celé té změti mnoha konverzací, které jsem měl já sám na SMX v Londýně, některá témata a otázky přicházely daleko častěji. Spousta lidí se zajímala hlavně o problémy ohledně odkazování a přála si lépe pochopit, jak vlastně fungují GOogle penalizace. Tady jsou některé otázky, které byly položeny během a po mé prezentaci Google Penalizace na SMX konferenci v Londýně, spolu s mými doporučeními na základě sedmi let práce v Google Vyhledávání a sedmi let práce jako technického SEO konzultanta.
 

Backlinky, penalizace a nástroje pro opouštění odkazů

 
Myslíte si, že Google používá nástroj pro opouštění odkazů pro cokoliv kromě zabývání se penalizacemi? Vyplatí se časově investovat píli a snahu do něčeho takového?
 
Pokud vaše webová stránka budovala internetové odkazy v minulosti nebo získávala spoustu nízko-kvalitních odkazů přirozeně, je to určitě super věc, do které se vyplatí investovat, tenhle nástroj, kvůli jeho primárnímu účelu, což je především odloučení se a opuštění  webové stránky od některých rizik backlinků. Zkratky odstranění nebo zadání vlastnosti nofollow backlinkům, což je preferovaná, byť časově náročná, činnost, nemusí být vždy tak úplně vhodná metoda, právě nyní je to ale jediná metoda, jak předejít či vyhnout se rizikům backlinků u internetových vyhledávačů. Google stále pevně drží víko zavřené proti jakýmkoliv alternativním způsobům použití jejich dat, která neustále dostávají. Zatímco tu není žádné oficiální potvrzení, nezabere to příliš představivosti, pokud si představíte, co by všechno mohlo být uděláno, co se týče tréninku algoritmu a strojového učení, s takto ohromným a konzistentním množstvím dat, pokud by se nějaký šikovný inženýr zaměřil na, řekněme, 0,1 procenta vzorců, které se opakují v opouštění odkazů celosvětově. Tohle je samozřejmě pouze jakýsi myšlenkový příklad, experiment, neboť GOogle nikdy nic takového nepodpořil, ani nepotvrdil.
 
Jaký je optimální PBN poměr?
 
Předpokládejme to, že se jedná o soukromou síť blogů, bavíme se o optimálním poměrů, pro účely budování odkazů v hodnotě nula. PBN je porušením Příruček pro správce webů od Google a – co je nejdůležitější – je lehce detekovatelné, což je přesně důvod, proč když je používáte, přilákáte na sebe naprosto neúmyslně pozornost Google a v konečném důsledku to také může spustit penalizaci, která může snížit hodnocení vaší webové stránky.
 
Už jste někdy viděl dopad použití nástroje pro opouštění odkazů?
 
Ano, není tu žádné pochyby o tom, že soubor pro opouštění odkazů je bezesporu efektivním nástrojem, kterým se můžete zabývat penalizacemi odkazů a redukovat tak úroveň rizika, která vyvstává z backlinků.
 
Může být webová stránka penalizována tak moc, že nebude možné její kompletní uzdravení?
 
Naštěstí může být jakákoliv webová stránka plně uzdravena. Občas to sice může dát pořádnou práci a hodně snahy, hlavně, pokud byly použity techniky pro spamování ve velkém měřítku v minulosti. Ovšem neexistuje nic takového, co by se nedalo úplně zhojit, alespoň co se týče webových stránek.
 
Proč Google vlastně neoznamuje, když na někoho uvalí jeho algoritmy penalizace?
 
Důvod, proč Google nijak nezvýrazňuje dopad, které mají algoritmy na to, co by bylo vnímáno jako situace, kdy je webová stránka penalizována, je ten, že se nejedná o algoritmické penalizace. Jsou to pouze algoritmy, které jsou častokrát aktualizovány, a to může vyústit ve změny ve viditelnosti vyhledávání. Prosím, přečtěte si článek „algoritmy vs. manuální penalizace“ pro daleko více informací o rozdílu, mezi těmito dvěma pojmy.
 
Jaký by mohl být důvod pro problémy se zabezpečením vkládání obsahů, i když jsem si jist, že má webová stránka nebyla vůbec hacknuta?
 
Mluvím z osobní zkušenosti, kterou jsem získal moderací Google Webmaster Help fóra a kterou jsem také získal prací v Google Vyhledávání, neviděl jsem žádné falešné pozitivní upozornění na narušení bezpečnosti. Takže pokud jste konfrontován s varováním o vkládání obsahu, předpokládejte, že je to pravdivé a přesné, dokonce i když nemůžete původně nijak spatřit problém a procházíte webovou stránku za účelem ověření toho, co se asi děje. Pokud jste stále na pochybách, doporučuji, abyste vyhledal asistenci profesionálů, kteří se s takovýmito případy potýkají na každodenní bázi.
 
Je manuální akce záležitostí v indexu nebo je to mimo index? Nebo jsou tu případy poklesů hodnocení o nějaký počet pozic?
 
Manuální akce jsou daleko více složitější. Pouze ty naprosto nejhorší webové stránky, které nepřidávají žádnou hodnotu internetu, jsou odstraněny z výsledků vyhledávání. A dokonce i tyto se mohou úspěšně přihlásit o opětovné zvážení. Manuální akce (aka manuální penalizace) mohou být aplikovány na celou webovou stránku nebo pouze její sekci, jako například subdoménu. Nebo může být jejich aplikace ještě detailnější a přesnější. Záleží na tom, jaký typ porušení a jak moc závažné toto porušení bylo, tak proto se může dopad lišit od ztráty prostoru na stránce s výsledky vyhledávání až po dramatickou ztrátu hodnocení. Pro daleko specifičtější informace doporučuji, abyste si prosím přečetli tuto „Srozumitelnou příručku o penalizacích“.
 
Jak vlastně taková penalizace vypadá? Jak je implementována? Například: je to nějaký černý seznam nebo je to pravidlo, že se nesmí tato stránka ukazovat v TOP deseti výsledcích?
 
Specifický proces v rámci Google, který vede k manuální akci proti spamu, je přísně střežené tajemství. Co je pravda, tak to, že manuální proces obsahuje hned několik různých pojistek proti zneužití.
 
Můžete dostat manuální penalizaci, aniž byste na to byli upozorněni v Google Search Console?
 
Pokud nemáte nějaké upozornění na penalizaci, a.k.a. akce proti manuálními spamu, na účtu ve vašem Google Search COnsole, tak poté se nemusíte vůbec bát o to, jak se vlastně z takové penalizace uzdravit.

Pouze třicet procent malých podniků by doporučilo jejich stávajícího poskytovatele SEO, zjistila studie

„Byl jsem překvapen, když jsem viděl, že spousta klientů vinila sebe za to, že vztahy se SEO Agenturami nebyly vždy skvělé,“ uvedl Brian Dean, zakladatel společnosti Backlinko, který odkazuje na jeho průzkum asi tisíce a dvou set majitelů, ze kterých by asi jen třicet procent doporučilo jejich stávajícího poskytovatele SEO služeb a další třicet procent uvedlo, že by zanechali negativní recenzi.
 
Hlášení také odhalilo opravdu silný vztah mezi rozpočtem a spokojeností, s klienty, kteří dedikovali více než pět set dolarů za měsíc na SEO Služby, kteří by se o více než padesát tři procent popsali jako „extrémně spokojení“, v porovnání s těmi, kteří utráceli méně. Rozpočet byl ale pouze jeden z faktorů, který utváří celkové vnímání SEO Služeb – průzkum se také zeptal majitelů podniků a firem na tom, jak daný předmět studie vnímají, jaké mají očekávání od SEO průmyslu a reference a jejich TOP priority, když si vybírají SEO agenturu.
 
Vzdělání klienta a spokojenost.
 
„Ve skutečnosti padesát procent z našeho panelu nám odpovědělo, že „cítím se, jako bych potřeboval daleko více tréninku, abych mohl plně těžit z toho, co SEO nabízí,“ a dalších dvacet osm procent uvedlo, že nemají zaměstnance na to, aby mohli implementovat doporučení SEO poskytovatele,“ uvedl Dean pro Search Engine Land.
 
Průzkum také přišel na to, že čtyřicet čtyři procent všech malých firem a podniků přestalo spolupracovat s jejich poskytovatelem SEO služeb, protože byli nespokojení s jejich byznys výsledky a třicet čtyři procent uvedlo, že to kvůli nedostatečné komunikaci a problémy se zákaznickou podporou. Jakási podskupina majitelů firem, která byla spokojená s jejich SEO službami, sama sebe označila jako „extrémně zběhlí v internetu“, kdežto nespokojenější klienti (ti kteří spolupracovali s vícero SEO službami) byli daleko pravděpodobněji ti, kteří se označili jako za „začátečníky s internetem“.
 
„Tato zjištění ukazují, že vzdělání klienta může být opravdovým rozdílem mezi ztrátou klienta po několika měsících …a loajálním klientem po spoustu let. A taky to, že podporování klientů s prostředky (nebo alespoň upozorňování klientů) může pomoci agenturám změnit titulkový tag jejich klientů nebo jejich Google My business seznam opraven,“ vysvětlil Dean.
 
Klientská očekávání a preference.
 
TOP Tři priority pro majitelé firem, kteří najali SEO služby, bylo navýšení provozu na webovou strábku (šedesát pět procent respondentů), přístup k novým zákazníkům (šedesát dva procent respondentů) a navýšení povědomí o firmě (šedesát jedna procent respondentů).

Vyhodnocujte výkon vaší webové stránky, protože na každé sekundě záleží

Pár let zpátky, Amazon ohlásil, že za každé zrychlení jejich webové stránky o sto milisekund zaznamenají zvýšení zisku o jedno procento. Tohle bylo následováno oznámením Google, že rychlost načítání webové stránky je významný faktor pro hodnocení stránky v Google výsledcích hodnocení.
 
Proces optimalizace rychlosti načítání vaší webové stránky je nikdy nekončící proces, jako například běh na běžícím pásu. Optimalizace rychlosti stránky vždycky bude mít nějaký ten prostor pro zlepšení a nikdy tedy zákonitě nebude úplně dostačující. S tímto řečeno, tady jsou nějaké kroky k navýšení rychlosti webové stránky.
 

Minimalizujte http požadavky

 
Alespoň podle zveřejněné zprávy od společnosti Yahoo, osmdesát procent všech dob načítání webových stránek zabírají právě rozličné částí webové stránky, viz tabulky, obrázky, skripty, apod.
 
Neboť je nutné učinit http požadavek pro každý z těchto jednotlivých elementů, čím více komponentů je na stránce, tím delší bude doba vykreslení takové stránky.
 
Prvotním krokem, když se pokoušíte minimalizovat požadavky, je zúžit a porovnat počet požadavků a počet požadavků, kolik stránka vlastně dokončí.
 
S Google Chrome, nástroje pro vývojáře prohlížeče dovolují uživatelům zhlédnout počet http požadavků učiněných webovou stránkou. Abyste viděli počet http požadavků, které stránka učiní, uživatelé mohou:

  1. Kliknout pravým tlačítkem myši na stránku, kterou potřebují analyzovat a zvolit „inspect“ (prohlédnout)
  2. Kliknout na Network tab (záložka „síť“)

V případě, že je  záložka „síť“ nedostupná, budete muset přetáhnout levou hranici dále do leva a rozšířit tak celou kolonku.
 
Název sloupce označuje soubory, umístěné na stránce. Velikost každého souboru je ukázána pod sloupcem velikosti a také je zde uveden předpokládaný čas k načtení každého souboru, což je ve sloupci „čas“.
 
Levý dolní roh stránky zobrazuje celkový počet požadavků, které stránka učinila. Uživatelé tak budou schopni zrychlit dobu načítání jejich webové stránky redukováním tohoto čísla. Nejpřímější cestou je vyhodnotit set souborů a identifikovat ty, které lze považovat za nepotřebné.
 
Zatímco může nějakou chvíli trvat, než si všimnete nějakého podstatného rozdílu, pár souborů může být také považováno za hlavní kandidáty na konsolidaci.
 

Používejte skripty pro asynchronní načítání

 
Skripty jako je JavaScript nebo CSS mohou být načteny dvěma různými způsoby – synchronně nebo asynchronně. Synchronizované načítání zahrnuje načítání jednotlivých vybraných položek jdoucích po sobě, vždy po jedné, v tom samém pořadí, v jakém jsou zobrazeny na obrazovce. V asynchronním načítání jsou skripty načítání najednou, což může pomoci trochu urychlit proces. Uživatelé také mohou upřednostnit načítání specifických elementů, aniž by musel čekat, až se externí zdroje načtou.
 
Pokud tedy prohlížeč najde nebo narazí na asynchronní CSS soubor nebo na JavaScript, načítání stránky se zastaví, dokud relevantní archiv nebude úplně načten. Avšak pro asynchronní data platí, že prohlížeč bude pokračovat s načítáním ostatních elementů stránky.
 
Pro WordPress, uživatelé mohou zkontrolovat možnosti jiné, kromě blokování-vykreslování CSS/JS, když používáte WP Rocket záložky statických souborů.
 
Můžete také načíst CSS nebo JS soubory přímo za použití asynchronní či defer funkce v JavaScrptu. Níže je příklad takové asynchronní možnosti:
 

 
Uložené změny tak dovolí uživatelům ověřit si, že všechno bylo načteno tak, jak má být.
 

Redukujte čas odpovědi serveru

 
Jeden z podstatných faktorů v určování toho, jak rychle se vlastně webová stránka načítá, je také čas, který je spotřebován pro DNS. DNS lookup je proces identifikace specifické webové stránky a jejího názvu v záznamu. Můžete si to představit jako počítač, který prohlíží telefonní seznam při hledání konkrétního čísla.
 
Čas, který to zabere, než se tento krok dokončí, je odvozen od toho, jak rychlý je vlastně uživatelův DNS poskytovatel. Pokud uživatel zjistí, že není dostatečně rychlý, může být možná ta správná chvíle na změnu k rychlejšímu poskytovateli DNS. Pro pomoc s volbou DNS poskytovatele, můžete určitě zkonzultovat například různá hlášení s porovnáním rychlosti DNS poskytovatelů, jako je například toto z SolveDNS, které poskytuje měsíční aktualizace hodnocení rychlosti různých poskytovatelů.

Nyní více než padesát procent Google vyhledávání končí bez kliknutí na jiný obsah, zjistila studie

„Vyhledávání bez kliknutí… jsou na pozvolném vzestupu po celá léta, a vůbec neočekávám, že by tento vzestup něco zvrátilo nebo že by se růst úplně zastavil, a to v blízké budoucnosti,“ okomentoval studii Rand Fishkin, zakladatel SparkToro, ohledně aktualizovaných nálezů jeho Google studie ohledně dat počtu kliknutí, která byla zveřejněna v úterý. Aktualizovaná data poskytnutá společností Jumpshot zjistila, že v červnu, poprvé za celou dobu, většina Google vyhledávání (50.33 procent) skončila, aniž by vyhledávající klikl na organický či placený výsledek vyhledávání.

Pozvolný a stálý růst trendu.

V pohledu na to, jak moc provozu z Google Vyhledávání vlastně ještě zbývá pro kohokoliv jiného než Google samotný, Fishkinova původní studie, zveřejněná někdy začátkem tohoto léta, zjistila, že čtyřicet devět procent všech vyhledávání v prvním kvartálu roku 2019 skončila bez kliknutí na další obsah, což je nárůst ze zhruba čtyřiceti čtyř procent v prvním kvartálu roku 2016. Poznamenal tak, že většina nulových kliknutí a růstu placeného vyhledávání se děje hlavně u mobilních verzí, kdežto celková četnost vyhledávání je možná nejvyšší.

Aktualizace zahrnuje data z druhého kvartálu 2019, ve které skoro čtyřicet osm procent Google vyhledávání skončilo bez kliknutí. V červnu se toto číslo dostalo přes padesát procent, což znamená, že většina Google vyhledávání skončila na stránce s výsledky vyhledávání, aniž by uživatel kliknul na nějaký výsledek.

Proti-konkurenční chování?

Studie odhaduje, že devadesát čtyři procent všech vyhledávání ve Spojených Státech se objevuje na vlastnictví Google (což zahrnuje Google Images, Youtube, Google Maps). „To z nich jasně činí monopol ve vyhledávání,“ napsal Fishkin, který bude diskutovat o těchto trendech během jeho prezentace na SMX East konferenci třináctého listopadu v New Yorku.
 

Internetový procházeč GoogleBot od společnosti Google nyní běží na nejnovější verzi Chromia: proč je to dobře.

Google oznámil spuštění nové verze jeho internetového procházeče GoogleBota toto úterý na Google I/O konferenci pro vývojáře. GoogleBot nyní bude „evergreen“, což znamená, že procházeč bude vždy aktualizován s nejnovější verzí Chromia, open source prohlížečem, na kterém je vybudován populární Google prohlížeč Google Chrome.
 
Chrome 74. GoogleBot byl aktualizován pro podporu vykreslování Chromia verze 74. Dokonce jsme viděli i Google, jak tuto novou verzi testuje minulý týden.
 
A co je důležitější, znamená to, že GoogleBot bude nyní schopen procházet většinu moderních webových stránek a získá tak přístup k tisícům funkcí, které moderní prohlížeče mohou spustit, což zahrnuje ES6 a novější JavaScript funkce, IntersectionObserver pro pomalé načítání a Web Components v1 API.
 
Google bot tedy uvidí daleko více vašeho obsahu. S touto aktualizací bude Googlebot schopen získat přístup a zpracovat daleko více vašeho obsahu, aniž by kolem toho dělal extra povyk. To znamená, že již nebudete muset strávit spoustu času prací na řešení pro Google, aby indexoval váš obsah, a nebudete tak muset trávit čas taky na tvorbě obsahu dodatečného. Google uvedl: „měli byste zkontrolovat, pokud tedy musíte vytvářet dodatečný obsah pro GoogleBota, využíváte polyfills nebo transpilling, a jestli ano, tak byste měli zhodnotit, jestli je to vůbec ještě důležité.“ Pokud to důležité není, tak můžete zvážit odstranění těchto přebytků.
 
Avšak Googlebot stále nemůže vidět úplně všechno. Google uvedl, „je tu ještě spousta limitací, takže určitě zkontrolujte troubleshooter pro JavaScript-relevantní problémy a také video sérii o SEO pro JavaScript.“ Google vypsal seznam problémů s JavaScriptem, ke kterým byste měli přistupovat vlažněji. Můžete se podívat na rady Google pro JavaScript SEO na Youtube.
 
Proč nás to zajímá. Tato aktualizace znamená, že my, SEO konzultanti a praktici, se nyní můžeme zaměřit na vytváření užitečného a nápomocného obsahu pro naše obecenstva a můžeme méně času strávit prací na technických problémech, které v minulosti zažíval GOogleBot. To neznamená, že byste měli kompletně zapomenout na to, jak Google prochází a indexuje váš obsah. Stále se musíte ujistit, že vaše webová stránka je vybudována pro „přátelské soužití“ s internetovými prohlížeči a budete se i tak muset ujišťovat, zda-li Google prochází a indexuje vaší webovou stránku. Avšak pravděpodobně se budete moci méně starat o tento proces, nyní, když Googlebot bude vždycky běžet na nejnovější verzi Chromia.