Google официално обявика, че скоростта ще е ключов ранкинг фактор

И нека сляпо повярваме, че тула за мерене на скоростта няма да е този на Google. :D

Взимат данни от реални потребители, директно през браузърите Chrome (по подразбиране е включена опцията). Тук е инфото: https://developers.google.com/web/tools/chrome-user-experience-report

Само 10-15% от уебмастърите са се подготвили за грандиозната промяна, но като дойде май, много сайтове ще увиснат, защото са подценили ситуацията.

Истината е, че оптимизацията помага и с посещенията. Забелязвам, че откакто я започнах за един сайт, който например правеше 25К на ден, вече прави 29К и това защото редуцирах "отпадането / баунсването" на потребители (които напускат преди да се е заредил сайта). Дори съдя по себе си... като един сайт отговаря на 4-тата секунда, аз вече съм избрал следващия резултат от търсенето. Именно това иска Гугъл да подобри.
 
Положението със скоростта на сайтовете е много зле, вече почнаха всякакви шарлатани да рекламират плъгини за подобряване на скоростта и очакват пачки да хрърляме от балконите. Очаквам и Оптимистика да се включат......
 
Понижената скорост води до намаление на посетители на сайтовете, но най-вече такива които не са клиенти. Просото защото бавното зареждане е свързано не само с качествата на сайта, но отразява също скоростта на интернет връзката умножено по скоростта на работа на компютъра ти. Колкото си по-платежоспособен, то толкова по-добри са последните два показателя (и така за теб почти няма бавене), а от друга страна си много по-вероятен клиент, а и вероятността за връщане на стоки е доста по-малка.
 
Зависи колко точно, едно е да се заядат за 5 секунди зареждане друго за 1.5.
Не ми се чете, това има ли го в статията?
 
Зависи колко точно, едно е да се заядат за 5 секунди зареждане друго за 1.5.
Не ми се чете, това има ли го в статията?
Точно такава конкретика няма. Но няма да е заяждане, а нещо настина драматично като например дали има разлика от това сайта ти да зарежда за 20 секунди или за 2-3 секунди, както на десктоп, така и на мобилни устройства.

Положението със скоростта на сайтовете е много зле, вече почнаха всякакви шарлатани да рекламират плъгини за подобряване на скоростта и очакват пачки да хрърляме от балконите. Очаквам и Оптимистика да се включат......
Да, дори наскоро попаднах на един за WP, който всеки пробвал го твърди, че е най-доброто, до което се е докосвал:

 
Разчита се на внушението, че кеширащ плъгин ще накара сайта ти да литне, с каквото и да си го натъпкал преди това.

Вече има стотици такива плъгини и всичките правят част или всичките от следните 3 неща:
  1. Кешират заявките към дб-то и сглобяването на ХТМЛ-а = облекчава се сървърът, та да може по-бързо да започне да изпраща съдържанието към браузъра.
  2. Минифицират .css, .js, .html = по-малко килобайти за точене по жицата.
  3. Комбинират .css, .js, .html = по-малко хттп заявки към уеб сървъра, съответно малко по-бързо реагира. Обаче тая част е малко тънък момент и може да извадиш очи вместо да изпишеш вежди. Някои плъгини дават опцията да отложиш зареждането на избрани скриптове, ама тая материя е от компетенциите на разни нинджи, не е за обикновени уебмастъри.
Няма особено значение кой точно плъгин или комбинация от плъгини ще ползваш. Никой от тях няма да отведе сайта ти до Марс, ако се опитваш да заредиш тонове стилове, скриптове, или много на брой супердебели картинки.

Отделен е моментът и с по-тежките ДжаваСкриптове и библиотеки (кат Реакт), щото те пък тормозят устройството на клиента СЛЕД като вече са пристигнали... Особено ако е някое телефонче.

При магазините и подобните им е още по-деликатно, понеже там няма как да кешираш някои ключови места, понеже трябва да са си динамични.
 
Последно редактирано:
Имат голямо значение ресурсите, които блокират зареждането, демек са в head секцията, както и тези, които изместват layout-а на страницата динамично. WP сайтовете ще са направо ... като знам колко са тежки генерално. Само с кеш няма да се получи, според мен.
 
И не само. В моята практика съм виждал доста зле организирани таблици от бази, безумно, нелогични и заплетени куерита. И всичко комбинирано със слаби ресурси и зле написан и изпълним фронд енд и нещата нямат оправия и с най-добрия плъгин и CDN или там какъвто тул са решили да ползват. За това им пищят и на девлопърите като правят нещо винаги да мислят за пърформънс и SEO като цяло. Защото после се отваря сериозна работа за оптимизаторите.
 
И не само. В моята практика съм виждал доста зле организирани таблици от бази, безумно, нелогични и заплетени куерита. И всичко комбинирано със слаби ресурси и зле написан и изпълним фронд енд и нещата нямат оправия и с най-добрия плъгин и CDN или там какъвто тул са решили да ползват. За това им пищят и на девлопърите като правят нещо винаги да мислят за пърформънс и SEO като цяло. Защото после се отваря сериозна работа за оптимизаторите.
Ако говорим за WP, базите са организирани ужасно. Добре са за малко данни, но когато стане дума за стотици записи...А системата е трудно да се настрои, така че да се променят таблиците.
Като цяло, проблемите с Core Web Vitals са сериозно препятствие за собствениците на уеб сайтове. Но се очертава рай за тези които съумеят да си оправят сайтовете преди май. Ще има пренасочване на трафик. Макар че едва ли Гугъл ще пусне новата логика за един ден. Това би променило изцяло SERP-а, а гугъл не обича толкова резки промени. Помним колко време държаха G+.
 
WP не се използва за големи проекти, или поне във вида му, в който сме свикнали да го виждаме. Или поне звучи несериозно да се прави. Говорех предимно за системи, които са къстам. Проблема при архитектурата на таблиците в много от случаите идва не от самите девелопъри, а от и частично от възложителя, който в последния момент се сеща, че трябва дадена обект да има още едно поле, нещо, което след като си го изградил, после го мислиш много или просто го залепваш някъде, надявайки се да не прави сериозен проблем. Да, и сега го умножаваме по 10 и вече става забавно. :)

За това хитра тенденция, която работи добре. Говорейки за малко по-големи проекти - презентационната част (която на практика би генерирала сериозния трафик) е изнесена в отделна среда, която в много случаи е и статична....или управлявана от много семпли заявки към базата или API-та. Тежката част, същността на приложението, което така или иначе не е видимо и важно за търсачките - си седи отделена и така, имаш две работещи системи, като всяка е предназначена да изпълнява точно това, за което е правена на 100%. ;)
 

Горе