Google ve výsledcích vyhledávání začne uvádět individuální podcasty.

Google ve výsledcích vyhledávání začne uvádět individuální podcasty. Rozšíří i podporu podcastů v Google Assistant. Zajímavé na tom je i to, že Google podcasty přes rozpoznávání řeči převádí na indexovatelný obsah. Jak to ovšem je s češtinou je, klasicky, otázka. Viz Google will start surfacing individual podcast episodes in search results

google-assistant-image1

Reklamy

Google má zásadní problémy s indexací nového obsahu.

Google má zásadní problémy s indexací nového obsahu. Nutno dodat, že opět, protože jde o opakovaný výskyt. Komplikace to přináší hlavně zpravodajským webů, jejichž aktuální obsah se nedostává do vyhledávání a uživatelé přitom právě tento obsah hledají.  Viz Google Not Indexing New Content Again

2019-08-09 09_28_32-site_idnes.cz - Hledat Googlem.png

Osobně bych dodal ještě to, že ve výsledcích hledání se při použití site: operátoru objevují pro většinu webů na prvních pozicích zcela jiné výsledky než dříve – štítky a rubriky.  Trochu to spíš vypadá, že Google sice indexuje, ale není schopen výsledky rozumně zobrazovat – přesné hledání nových článků je totiž najde.  Ale těžko odhadovat, u každého webu se to navíc projevuje jinak.

2019-08-09 09_31_13-TIP#1415_ Jak Facebook (a další podobné služby) přijdou na to, že nepoužívám vla.png

 

Odkazy z New York Times, BBC, CNN a dalších velkých zpravodajských webů jsou na prodej.

Odkazy z New York Times, BBC, CNN a dalších velkých zpravodajských webů jsou na prodej. Zajímavé na téhle věci je, že je neprodávají přímo ony noviny, novináři či vydavatelé, ale jde o expirované odkazy ze starších článků. Podobné odkazy pak vedou zejména na pochybné weby a služby.  Viz There’s An Underground Economy Selling Links From The New York Times, BBC, CNN, And Other Big News Sites

sub-buzz-2920-1564107154-1.jpg

Google vypustil do světa parser i specifikaci robots.txt jako Open Source a provedl některé změny

Google vypustil do světa parser i specifikaci robots.txt jako Open Source a zároveň některé doposud existující součástí specifikace vypustil z důvodu nepoužívání či nadbytečnosti. Podrobnosti hledejte v Robots.txt Specifications, na GitHubu v google/robotstxt a v A note on unsupported rules in robots.txt (vypouští se hlavně noindex, nofollow a crawl-delay), Další vhodné čtení viz A deep dive into the implications of the robots.txt RFC

TIP: robots.txt? K čemu něco takového je? A proč je to užitečné? na @365tipu obsahuje víc o tom k čemu vlastně robots.txt slouží

wmt-robots-txt

Jak zmanipulovat Google aby pozapomněl na existenci negativních recenzí a informací

Jak zmanipulovat Google aby pozapomněl na existenci negativních recenzí a informací je fascinující čtení v How To Game Google To Make Negative Results Disappear. Byť to (manipulování výsledků Google) lze velmi často shrnout do jediné aktivity – vytvořit obsah, který nechtěné věci vytlačí z prvních stránek výsledků.

49 % hledání na Google končí bez kliknutí.

49 % hledání na Google končí bez kliknutí. Tuhle informací a řadu dalších zajímavých najdete v 49% of all Google searches are no-click, study finds. Třeba i to, že CTR klesá v organicu a stoupá u placených pozic. A mírně pozor, to že něco končí bez kliknutí může znamenat nejen že ho uspokojilo už to co vidí přímo ve výsledcích, ale také to, že prostě nenašel nic na co by stálo za kliknutí a hledání ho neuspokojilo.

Screen-Shot-2019-06-18-at-1.29.12-PM-605x600.png