Javascript frontend

hristonev

Well-Known Member
Какво мислите за този клас животни и имат ли те почва в съвременното SEO. Аз като драскач на код не съм наясно с последните обновявки на търсещите машини. Лично за потребителско преживяване JS-а се сменя плавно, мазно и не натоварва сървъра с излишни HTML документи. За тези, които не са наясно за какво иде реч, то примерните такива са React, Vue, Angular и други по-малко известни. Та ако имате наблюдения върху такъв вид приложения, споделете.
 
Интересна тема. Аз лично нямам наблюдения по въпроса, кой знае какви, малко запознат съм като цяло с уеб сферата ( знам до толкова, колкото да си оправям сам някои лесни неща и да спомагам за SEO ), друг ми прави каквото искам. Но определено е по-компактно, зависи каква/какви функция/и ще изпълнява. ВИждал стм доста тежки и товарещи приложения, особено при малко по-стара машина или такава с по-слаби характеристики тип ноутбиук, при отваряне на такива приложения браузърите машинката се товари доста повече, от колкото при четене на HTML.. Нямам идея защо, както казах не съм уеб, аз съм с компИтритИ повече, само тях като ''личност'' :D А колкото до гугъл, той все още си обича HTML код, след него идва php, това е според мен и не особено голямата БД в главата ми от към този сектор.
 
Да товаренето на машината на усеро е част от красотата. Напълно вярно е, че по-слаба машина може да издъхне. Мисля, обаче, че слабите машини са доста по-нисък процент. Вярно е, че аз си гледам от моята камбанария де :). Също така преди време, както и сега има хора гледащи с не добро око на самия JS.
 
Доста интересна тема, все още не съм чел вашите мнения, ще отговоря без тях.
В момента правя SPA, който предполагам е проблема на темата. Имам следния проблем: Страниците ми са example.com/#blog . Началната страница е индексирана от гугъл, но всички такива с # не ги индексира. Сега го смених на #! както е препоръката на гугъл, но все още не е започнал ( вече 3-4 дни ) да го индексира.
А в webmaster tools когато му дам "виж като гугъл" или нещо подобно си ми изтегля страницата и я вижда без проблеми.
Ще изчакам още няколко дни да видя дали ще има промяна в индексирането.

План Б ми е: Когато гугъл бот отвори страницата да му давам генериран html през phantomjs. Не съм го пробвал още и се надявам да мина без особени занимавки и с #!.

Но няма как. В момента като отворя сайт, който не е SPA и ми се вижда, все едно отварям такъв от преди 2000ната година. А след това мобилната версия се държи като native app, много е приятно.

Малко хляб за размисъл:
https://stackoverflow.com/questions/18530258/how-to-make-a-spa-seo-crawlable
https://moz.com/blog/create-crawlable-link-friendly-ajax-websites-using-pushstate
 
Да товаренето на машината на усеро е част от красотата. Напълно вярно е, че по-слаба машина може да издъхне. Мисля, обаче, че слабите машини са доста по-нисък процент. Вярно е, че аз си гледам от моята камбанария де :). Също така преди време, както и сега има хора гледащи с не добро око на самия JS.
Да ти кажа относно по-слабите машини... не е точно така. Самите андроид устройства, таблети, ноутбуци с андроид са повечето с до 1,4 процесорчета и масово до 1-2 GB RAM, те също се товарят, причината е повечето в самите браузъри де, че създават безброй безсмислени процеси и тъпчат яко с кеш до колкото може ( причината е ясна ), може би и за това се избягва все още по-сложния js по сайтовете
 
Доста интересна тема, все още не съм чел вашите мнения, ще отговоря без тях.
В момента правя SPA, който предполагам е проблема на темата. Имам следния проблем: Страниците ми са example.com/#blog . Началната страница е индексирана от гугъл, но всички такива с # не ги индексира. Сега го смених на #! както е препоръката на гугъл, но все още не е започнал ( вече 3-4 дни ) да го индексира.
А в webmaster tools когато му дам "виж като гугъл" или нещо подобно си ми изтегля страницата и я вижда без проблеми.
Ще изчакам още няколко дни да видя дали ще има промяна в индексирането.

План Б ми е: Когато гугъл бот отвори страницата да му давам генериран html през phantomjs. Не съм го пробвал още и се надявам да мина без особени занимавки и с #!.

Но няма как. В момента като отворя сайт, който не е SPA и ми се вижда, все едно отварям такъв от преди 2000ната година. А след това мобилната версия се държи като native app, много е приятно.

Малко хляб за размисъл:
https://stackoverflow.com/questions/18530258/how-to-make-a-spa-seo-crawlable
https://moz.com/blog/create-crawlable-link-friendly-ajax-websites-using-pushstate
Защо не опиташ с по-прост метод, само да качиш sitemap първо в дир на самия сайт, след това в гугъл конзолата и след това да видиш какще ги гледа ?! П.П. АКо имаш атракта акаунт много ще те улесни и без да правиш сайтмап, но все пак пробвай така, изчакай поне един ден и след това виж какво ще стане.
 
Вярно е. Също така е вярно, че сървъро е 1 и храни Х усера. Не всеки може да си позволи повече от 1-2 ядра. Тоест усер/сървър са доста съпоставими. За по-малки приложения. Не говорим за Фейс, Инстаграм и Твитър :)
 
Вярно е. Също така е вярно, че сървъро е 1 и храни Х усера. Не всеки може да си позволи повече от 1-2 ядра. Тоест усер/сървър са доста съпоставими.
Js е хардкор тема... Предполахам, че заради това излезе HTML5, виж колко неща замества само, въпреки кода... Въреки всичко по слухове, смятат да оптимизират Js в скоро време, ама да видим.
 
Защо не опиташ с по-прост метод, само да качиш sitemap първо в дир на самия сайт, след това в гугъл конзолата и след това да видиш какще ги гледа ?! П.П. АКо имаш атракта акаунт много ще те улесни и без да правиш сайтмап, но все пак пробвай така, изчакай поне един ден и след това виж какво ще стане.
Дам, още същия ден качих новият sitemap.

Това е резултата от Webmasters tools:
2tFm1nv.png

А това е от Конзолата:
asqM4Wi.png

Друго, което бих добавил по темата:
Аз имам и друг проблем със SEOто при SPA страниците. Проблемът е в това че всички страници имат еднакъв meta description, което прави по-трудна оптимизацията на определени страници, като блога например.

А относно натоварването на клиентите от JS-а в страницата - проблемът е по скоро в лошият код. В предишната ми фирма правихме SPA приложение за машини с 50 MB рам памет и приложението се виждаше сносно, а имаше голямо поле за оптимизация. Просто е факт, че повечето програмисти не ги бива или не се стараят.
 
Дам, още същия ден качих новият sitemap.

Това е резултата от Webmasters tools:
А това е от Конзолата:

Друго, което бих добавил по темата:
Аз имам и друг проблем със SEOто при SPA страниците. Проблемът е в това че всички страници имат еднакъв meta description, което прави по-трудна оптимизацията на определени страници, като блога например.

А относно натоварването на клиентите от JS-а в страницата - проблемът е по скоро в лошият код. В предишната ми фирма правихме SPA приложение за машини с 50 MB рам памет и приложението се виждаше сносно, а имаше голямо поле за оптимизация. Просто е факт, че повечето програмисти не ги бива или не се стараят.

Ааа баси :О Хм..
 
Намерих някои интересни статии по въпроса:

https://moz.com/community/q/how-is-single-page-application-spa-bad-for-seo

Това съм го пробвал и работи, макар че не си играя много: https://adkgroup.com/insights/single-page-applications-spa-and-seo-problem

https://medium.com/@l.mugnaini/spa-...render-a-single-page-application-1f74e706ab11

http://www.singlepageapplicationseo.com

Да ти кажа има и един друг метод, който съм ползвал...., малко е смешено но и той върши работа. Даже бих казал много добра работа особено със сеото.
Правя празни html страници, които редиректват директно към секцията, както си е #

Пример: Началната страница има 5 секции общо. Правя празна страница с редирект към секция 1 - index.html#indexBookmark1 ( това е примерен линк, пишеш си както е кръстена секцията ). В празната страница си слагаш кода за редирект. Заглавие и мета заглавие, описанние, таг и си готов :) Направи си задължително Оупънграф тагове със скрийншот на секцията примерно, изрязан само секцията да се вижда ::) Добави си текстаа, който си ти е в оригиналната секция, все пак да има някакво съдържание, оцвети го в бял цвят, фона на страницата също да е бял. Сложи един прозрачен попъп на цял екран със едно gif изображение тип лоудър, делай 3 секунди и си цар :). Който и да кцъкне на линка индексиран от гугъл, ще отива директно на секцията :)
И продължаваш така с останалите секции... Малко е смешено, но ми се струва доста мързелив и лесен начин :) МИНУС на този метод - изчакването
 
Последно редактирано:
Извинявам се че се забавих толкова с отговора.
Но явно #! работи !
пс: "изключено" са старите линкове. Явно ще трябва всички нови да ги мина през webmasters tools.
AIxnPAB.png

Имам да оправя още няколко бъга и ще изпробвам и т.н. pushState.
@Dafa Web Благодаря за споделените линкове. Като напиша проблема в гугъл и излизаха десетки резултати, но повечето не са релевантни, а тези ми изглеждат добри ( прегледах ги набързо ).
 
Аз имам опит с подобни мизерии от рода на angular / react. Като цяло такива аппс не разчитат много на гугъл за трафик, оптимизацията е супер трудна, понеже повечето страници не са целеви или не могат да се reach-нат като хората.
 
Аз имам опит с подобни мизерии от рода на angular / react. Като цяло такива аппс не разчитат много на гугъл за трафик, оптимизацията е супер трудна, понеже повечето страници не са целеви или не могат да се reach-нат като хората.
Ами ще видим тази работа. Аз си подготвям страниците, свързах се с копирайтър, а днеска ще се чуя с един много добър SEO нинджа и се залавяме за работа.
 
Не бъркайте понятията. Ако имаш една страница и с котви показваш различни части от нея във видимата част на екрана на потребителя е едно, но ако имаш сайт който разчита на JS е нещо съвсем различно. Именно затова от Google изискват #! а не просто # което е котва и го има от много, много години :).

Разлика няма дали ще бъде стандартен сайт (такъв който цъкаш и ти презарежда страницата) или Angular2+/ReactJS тип сайт... стига разбира се правещият го да има базови познания.
 
Разлика няма дали ще бъде стандартен сайт (такъв който цъкаш и ти презарежда страницата) или Angular2+/ReactJS тип сайт... стига разбира се правещият го да има базови познания.
И аз мисля, че през 2018 вече е напълно нормално една страница да е SPA и гугъл да я индексира както трябва.
Преди ( 2013 например ) наистина беше предизикателство за търсачките да се справят с това, но в момента не би трябвало да е. Особобено след като angular & react имат толкова голяма популярност.

@ReminD би ли споделил защо смяташ, че SPA страници не са добре индексирани от Гугъл ?
За моята е рано да кажа все още, домейна няма и 6 месеца, почти никакви беклинкове .. абе SEO-то е нулево, но Гугъл ми е индексирал страниците ( както се вижда и на снимките горе ).
 

Горе