Проблем с превшинето процесорно време в Суперхостинг

bgtifo

Well-Known Member
Здравейте,

аз принципно, не използвам услугите на Суперхостинг, но се занимавам с оптимизацията на онлайн магазин на мой клиент. Днес получих следното писмо от Суперхостинг:

Пиша Ви във връзка с хостинг акаунт еди кой си

В системата ни е отчетено повишено изразходване на процесорно време от този акаунт и вече са изразходвани 66% от предоставяния месечен ресурс. Статистика ще намерите през клиентския Ви профил на нашия сайт -> "Хостинг акаунти" -> "Детайли" -> "Разширени системни параметри" -> "Детайли".

При проверка в статистиките AWStats виждам, че сайта еди кой си е интензивно обхождан от GoogleBot.

При преглед на логовете за уеб достъп до сайта виждам, че заявките на Google са насочени основно към динамични URL адреси на филтрите на магазина Ви.

Прилагам Ви извадка от лога:

Дадени са два лога!

Всички логове за уеб достъп до сайта можете да проследите през cPanel -> "Raw Access". Информация за работата с тези логове ще намерите на адрес: https:// help .superhosting.bg/ raw-access-logs. html

Препоръчвам Ви да прегледате посочените заявки и дали са желано поведение. Информация за обхождането от страна на Google на подобен тип динамични URL адреси и възможностите за управлението им ще намерите на адрес: еди кой си...

Имайте предвид, че ако не бъдат предприети мерки за намаляване на изразходваните от акаунта ресурси, ще бъде необходимо да преминете към подходящо хостинг решение.

Не намирам никакви проблеми в конзолата... има някои категории в магазина, които съдържат едни и същи продукти. Не бяха избрани категориите като канонични но се съмнявам оттам да идва проблема. Все пак го направих. Сайтът е на 3 месеца, не мога да разбера какво се случва. Моля да ми помогнете, ако имате някаква идея какво да правя.
 
66% от ресурсите, а си началото на месеца. Кофти тръпка. Следващото решение ще с VPS, менажиран. Красиви са там цените, но явно няма начин. Не можем да спреш Да те кролят, но специално тия филтри не трябва да ги захапва. Премахни това, някак, но пак не е гаранция, че ще освободиш ресурси. Сигурно си на някакъв Шер, нали? Там, при суперите, обикновено е това, процесорно време. Ама и много хора идват със страхотни самоделки. ;)

Факт е, че трябва някои да хване системата, да я прегледа в детайли и за избере адекватен план и хостинг, и най-вече да я направи да работи добре, без бъгове и прочие. За жалост не се случва често, и се стига до такива ситуации.
 
66% от ресурсите, а си началото на месеца. Кофти тръпка. Следващото решение ще с VPS, менажиран. Красиви са там цените, но явно няма начин. Не можем да спреш Да те кролят, но специално тия филтри не трябва да ги захапва. Премахни това, някак, но пак не е гаранция, че ще освободиш ресурси. Сигурно си на някакъв Шер, нали? Там, при суперите, обикновено е това, процесорно време. Ама и много хора идват със страхотни самоделки. ;)

Факт е, че трябва някои да хване системата, да я прегледа в детайли и за избере адекватен план и хостинг, и най-вече да я направи да работи добре, без бъгове и прочие. За жалост не се случва често, и се стига до такива ситуации.
Да, той клиента си го е избрал този шер... благодарят ти много за отговора, не знам как ще се случат нещата, тъй като клиента няма техническа грамотност и трудно обяснявам, но пък ще видим :)
 
Помислете за кеш на базата! В повечето случай там е по-голямата част от процесорния ресурс.
 
Привет, решението е доста просто, правиш регистрация в google search console и даваш честота на сканиране(Googlebot crawl rate), другото е кеширане на целият сайт, така сме решавали ние проблемите, като цяло щом сканира Googlebot е хубаво да се остави, явно има причина да сканира така, най-хубаво е да имаш vps, но и там си има лимит.

Поздрави,
Станимир И
 
Помислете за кеш на базата! В повечето случай там е по-голямата част от процесорния ресурс.
Привет, решението е доста просто, правиш регистрация в google search console и даваш честота на сканиране(Googlebot crawl rate), другото е кеширане на целият сайт, така сме решавали ние проблемите, като цяло щом сканира Googlebot е хубаво да се остави, явно има причина да сканира така, най-хубаво е да имаш vps, но и там си има лимит.

Поздрави,
Станимир И
Един Господ знае за какви филтри става дума и дали въобще подлежат на кеширане.

noindex на страницата дето се цъкат филтрите (продуктовия архив най-вероятно) и може и да се оправи.

Ако не, добре е да се види откъде ги е набарал Гугъл тия линкове - или ще са някъде по сайта или са в сайтмапа.
 
Последно редактирано:
Един Господ знае за какви филтри става дума и дали въобще подлежат на кеширане.

noindex на страницата дето се цъкат филтрите (продуктовия архив най-вероятно) и може и да се оправи.

Ако не, добре е да се види откъде ги е набарал Гугъл тия линкове - или ще са някъде по сайта или са в сайтмапа.
Най-после адекватен съвет.
 
Айдее почна се лизаро-лапачеството :D очаквано беше ахахах
Нема такива жалки двулични смешници!

Вместо да се изръсят една торба простотии, да беше дал сайта да видим за кво иде реч, че тук ще стане 7стр пози и кълчотения.
Или има някаква причина да не се показва сайта??
 
Оптимизирайте си сайта, за да не харчи толкова процесорно време. Аз такива драми нямам със Суперхостинг. Обикновено когато има драми с процесорното време, сайтовете са пълни г*вна...
 
Здравейте,

Подобен на вашия проблем реших *дългосрочно* с блокиране на абсолютно всички ботове, които не познавам или не са ми полезни да индексират сайта през .htaccess:

Код:
RewriteCond %{HTTP_USER_AGENT} (Uptimebot|Gulper*|msnbot|WebCrawler|Sosospider|bingbot|MJ12bot|Baiduspider|Sogou|YoudaoBot|JikeSpider|Ezooms|ScoutJet|Exabot|SeznamBot|Butterfly|HuaweiSymantecSpider|TurnitinBot|AhrefsBot) [NC]
RewriteRule .* - [R=403,L]

Падна ровене из логовете, но си струваше. Списъкът по-горе е стар ... но е начало :)

Успех!

Поздрави,
Борисов
 
Б
Здравейте,

Подобен на вашия проблем реших *дългосрочно* с блокиране на абсолютно всички ботове, които не познавам или не са ми полезни да индексират сайта през .htaccess:

Код:
RewriteCond %{HTTP_USER_AGENT} (Uptimebot|Gulper*|msnbot|WebCrawler|Sosospider|bingbot|MJ12bot|Baiduspider|Sogou|YoudaoBot|JikeSpider|Ezooms|ScoutJet|Exabot|SeznamBot|Butterfly|HuaweiSymantecSpider|TurnitinBot|AhrefsBot) [NC]
RewriteRule .* - [R=403,L]

Падна ровене из логовете, но си струваше. Списъкът по-горе е стар ... но е начало :)

Успех!

Поздрави,
Борисов
Благодаря много, ще изпробвам този вариант.
 
Това не помага срещу агресивните ботове. Имам 10 пъти по-големи рестрикции и файдата е почти никаква. Ако те е "фанал" яко бота, съвсем други са работещите рестрикции.
Освен това, тук говорим за онлайн маг, всякакъв трафик би бил полезен ;)
Имал съм подобни проблеми, които ми ядът ресурса, но така не се решава проблема.
 
заявките на Google са насочени основно към динамични URL адреси на филтрите на магазина Ви
Дай малко контекст, т.е. някаква извадка от лога, та да можем и по-бавно загряващите да се включим с някаква идея.
 
Дай малко контекст, т.е. някаква извадка от лога, та да можем и по-бавно загряващите да се включим с някаква идея.
обхожда филтрите за цветове и размери в страницата пижами. Но така или иначе минахме на VPS, така че проблемът на този етап е разрешен.
 
обхожда филтрите за цветове и размери в страницата пижами. Но така или иначе минахме на VPS, така че проблемът на този етап е разрешен.
Така ли? Не ви ли вади малко повече "плява" от нужното? Това като Emag, там ми споделиха, че и сърч куеритата, ако решиш да напишеш някоя тъпотия "kua mi qnko", може да се индексират. :) Не съм го тествал де, но хората, които са го правили, казаха, че е абсолютно възможно. После, ако решиш да правиш гавра с труп, го шерват вече генерираното URL. :)
 
Значи проблема си е от чиста сео гледна точка.. и доста лесен за решаване. Оправи си рестрикциите в сърч конзолата, нагласи си читав сео плъгин, и за нема месец и си 6
 
Така ли? Не ви ли вади малко повече "плява" от нужното? Това като Emag, там ми споделиха, че и сърч куеритата, ако решиш да напишеш някоя тъпотия "kua mi qnko", може да се индексират. :) Не съм го тествал де, но хората, които са го правили, казаха, че е абсолютно възможно. После, ако решиш да правиш гавра с труп, го шерват вече генерираното URL. :)
Честно не схванах. Как става това?
 

Горе