Проблем с превшинето процесорно време в Суперхостинг

bgtifo

Well-Known Member
Здравейте,

аз принципно, не използвам услугите на Суперхостинг, но се занимавам с оптимизацията на онлайн магазин на мой клиент. Днес получих следното писмо от Суперхостинг:

Пиша Ви във връзка с хостинг акаунт еди кой си

В системата ни е отчетено повишено изразходване на процесорно време от този акаунт и вече са изразходвани 66% от предоставяния месечен ресурс. Статистика ще намерите през клиентския Ви профил на нашия сайт -> "Хостинг акаунти" -> "Детайли" -> "Разширени системни параметри" -> "Детайли".

При проверка в статистиките AWStats виждам, че сайта еди кой си е интензивно обхождан от GoogleBot.

При преглед на логовете за уеб достъп до сайта виждам, че заявките на Google са насочени основно към динамични URL адреси на филтрите на магазина Ви.

Прилагам Ви извадка от лога:

Дадени са два лога!

Всички логове за уеб достъп до сайта можете да проследите през cPanel -> "Raw Access". Информация за работата с тези логове ще намерите на адрес: https:// help .superhosting.bg/ raw-access-logs. html

Препоръчвам Ви да прегледате посочените заявки и дали са желано поведение. Информация за обхождането от страна на Google на подобен тип динамични URL адреси и възможностите за управлението им ще намерите на адрес: еди кой си...

Имайте предвид, че ако не бъдат предприети мерки за намаляване на изразходваните от акаунта ресурси, ще бъде необходимо да преминете към подходящо хостинг решение.

Не намирам никакви проблеми в конзолата... има някои категории в магазина, които съдържат едни и същи продукти. Не бяха избрани категориите като канонични но се съмнявам оттам да идва проблема. Все пак го направих. Сайтът е на 3 месеца, не мога да разбера какво се случва. Моля да ми помогнете, ако имате някаква идея какво да правя.
 

$INeed$

Well-Known Member
66% от ресурсите, а си началото на месеца. Кофти тръпка. Следващото решение ще с VPS, менажиран. Красиви са там цените, но явно няма начин. Не можем да спреш Да те кролят, но специално тия филтри не трябва да ги захапва. Премахни това, някак, но пак не е гаранция, че ще освободиш ресурси. Сигурно си на някакъв Шер, нали? Там, при суперите, обикновено е това, процесорно време. Ама и много хора идват със страхотни самоделки. ;)

Факт е, че трябва някои да хване системата, да я прегледа в детайли и за избере адекватен план и хостинг, и най-вече да я направи да работи добре, без бъгове и прочие. За жалост не се случва често, и се стига до такива ситуации.
 

bgtifo

Well-Known Member
66% от ресурсите, а си началото на месеца. Кофти тръпка. Следващото решение ще с VPS, менажиран. Красиви са там цените, но явно няма начин. Не можем да спреш Да те кролят, но специално тия филтри не трябва да ги захапва. Премахни това, някак, но пак не е гаранция, че ще освободиш ресурси. Сигурно си на някакъв Шер, нали? Там, при суперите, обикновено е това, процесорно време. Ама и много хора идват със страхотни самоделки. ;)

Факт е, че трябва някои да хване системата, да я прегледа в детайли и за избере адекватен план и хостинг, и най-вече да я направи да работи добре, без бъгове и прочие. За жалост не се случва често, и се стига до такива ситуации.
Да, той клиента си го е избрал този шер... благодарят ти много за отговора, не знам как ще се случат нещата, тъй като клиента няма техническа грамотност и трудно обяснявам, но пък ще видим :)
 

hristonev

Well-Known Member
Помислете за кеш на базата! В повечето случай там е по-голямата част от процесорния ресурс.
 

Станимир И

Well-Known Member
Привет, решението е доста просто, правиш регистрация в google search console и даваш честота на сканиране(Googlebot crawl rate), другото е кеширане на целият сайт, така сме решавали ние проблемите, като цяло щом сканира Googlebot е хубаво да се остави, явно има причина да сканира така, най-хубаво е да имаш vps, но и там си има лимит.

Поздрави,
Станимир И
 

contra

Well-Known Member
Помислете за кеш на базата! В повечето случай там е по-голямата част от процесорния ресурс.
Привет, решението е доста просто, правиш регистрация в google search console и даваш честота на сканиране(Googlebot crawl rate), другото е кеширане на целият сайт, така сме решавали ние проблемите, като цяло щом сканира Googlebot е хубаво да се остави, явно има причина да сканира така, най-хубаво е да имаш vps, но и там си има лимит.

Поздрави,
Станимир И
Един Господ знае за какви филтри става дума и дали въобще подлежат на кеширане.

noindex на страницата дето се цъкат филтрите (продуктовия архив най-вероятно) и може и да се оправи.

Ако не, добре е да се види откъде ги е набарал Гугъл тия линкове - или ще са някъде по сайта или са в сайтмапа.
 
Последно редактирано:

s1yf0x

Well-Known Member
Един Господ знае за какви филтри става дума и дали въобще подлежат на кеширане.

noindex на страницата дето се цъкат филтрите (продуктовия архив най-вероятно) и може и да се оправи.

Ако не, добре е да се види откъде ги е набарал Гугъл тия линкове - или ще са някъде по сайта или са в сайтмапа.
Най-после адекватен съвет.
 

madgooglebot

Well-Known Member
Айдее почна се лизаро-лапачеството :D очаквано беше ахахах
Нема такива жалки двулични смешници!

Вместо да се изръсят една торба простотии, да беше дал сайта да видим за кво иде реч, че тук ще стане 7стр пози и кълчотения.
Или има някаква причина да не се показва сайта??
 

Беджев Стил

Well-Known Member
Оптимизирайте си сайта, за да не харчи толкова процесорно време. Аз такива драми нямам със Суперхостинг. Обикновено когато има драми с процесорното време, сайтовете са пълни г*вна...
 

Borisov

Active Member
Здравейте,

Подобен на вашия проблем реших *дългосрочно* с блокиране на абсолютно всички ботове, които не познавам или не са ми полезни да индексират сайта през .htaccess:

Код:
RewriteCond %{HTTP_USER_AGENT} (Uptimebot|Gulper*|msnbot|WebCrawler|Sosospider|bingbot|MJ12bot|Baiduspider|Sogou|YoudaoBot|JikeSpider|Ezooms|ScoutJet|Exabot|SeznamBot|Butterfly|HuaweiSymantecSpider|TurnitinBot|AhrefsBot) [NC]
RewriteRule .* - [R=403,L]

Падна ровене из логовете, но си струваше. Списъкът по-горе е стар ... но е начало :)

Успех!

Поздрави,
Борисов
 

bgtifo

Well-Known Member
Б
Здравейте,

Подобен на вашия проблем реших *дългосрочно* с блокиране на абсолютно всички ботове, които не познавам или не са ми полезни да индексират сайта през .htaccess:

Код:
RewriteCond %{HTTP_USER_AGENT} (Uptimebot|Gulper*|msnbot|WebCrawler|Sosospider|bingbot|MJ12bot|Baiduspider|Sogou|YoudaoBot|JikeSpider|Ezooms|ScoutJet|Exabot|SeznamBot|Butterfly|HuaweiSymantecSpider|TurnitinBot|AhrefsBot) [NC]
RewriteRule .* - [R=403,L]

Падна ровене из логовете, но си струваше. Списъкът по-горе е стар ... но е начало :)

Успех!

Поздрави,
Борисов
Благодаря много, ще изпробвам този вариант.
 

madgooglebot

Well-Known Member
Това не помага срещу агресивните ботове. Имам 10 пъти по-големи рестрикции и файдата е почти никаква. Ако те е "фанал" яко бота, съвсем други са работещите рестрикции.
Освен това, тук говорим за онлайн маг, всякакъв трафик би бил полезен ;)
Имал съм подобни проблеми, които ми ядът ресурса, но така не се решава проблема.
 

Victor R

Well-Known Member
заявките на Google са насочени основно към динамични URL адреси на филтрите на магазина Ви
Дай малко контекст, т.е. някаква извадка от лога, та да можем и по-бавно загряващите да се включим с някаква идея.
 

bgtifo

Well-Known Member
Дай малко контекст, т.е. някаква извадка от лога, та да можем и по-бавно загряващите да се включим с някаква идея.
обхожда филтрите за цветове и размери в страницата пижами. Но така или иначе минахме на VPS, така че проблемът на този етап е разрешен.
 

Blinky

Owner
обхожда филтрите за цветове и размери в страницата пижами. Но така или иначе минахме на VPS, така че проблемът на този етап е разрешен.
Така ли? Не ви ли вади малко повече "плява" от нужното? Това като Emag, там ми споделиха, че и сърч куеритата, ако решиш да напишеш някоя тъпотия "kua mi qnko", може да се индексират. :) Не съм го тествал де, но хората, които са го правили, казаха, че е абсолютно възможно. После, ако решиш да правиш гавра с труп, го шерват вече генерираното URL. :)
 

madgooglebot

Well-Known Member
Значи проблема си е от чиста сео гледна точка.. и доста лесен за решаване. Оправи си рестрикциите в сърч конзолата, нагласи си читав сео плъгин, и за нема месец и си 6
 

hristonev

Well-Known Member
Така ли? Не ви ли вади малко повече "плява" от нужното? Това като Emag, там ми споделиха, че и сърч куеритата, ако решиш да напишеш някоя тъпотия "kua mi qnko", може да се индексират. :) Не съм го тествал де, но хората, които са го правили, казаха, че е абсолютно възможно. После, ако решиш да правиш гавра с труп, го шерват вече генерираното URL. :)
Честно не схванах. Как става това?
 

Горе