cloxy
Active Member
Наскоро промених Encoding-a на сайтовете си от windows-1251 на utf-8 . След процеса забелязах подобрение при класирането на някои сайтове, но не съм сигурен, че точно Encoding-a е причината.
Според мен един сайт трябва да е колкото се може повече абстрактен и мултиплатформен. За това допринасят XHTML стандарта и UTF-8 кодировката. Така повече устройства и ботове на търсачки ще могат не само да намират сайта, но и да го "разбират".
Проблемът при utf-8 кодировката е, че повечето редактори поставят 3 допълнителни символа в началото на файла, известни като DOM (Document Object Model). Тези символи е възможно да объркат старите браузъри, както и някои ботове.
Ако файлът се редактира на по-ниско ниво е възможно допълнителните символи да бъдат отстранени, но как тогава да кажем на браузъра каква е кодировката? Отговорът е по стандартния начин с метатаг. Вместо charset=windows-1251, пишем charset=utf-8
Но дали и това е достатъчно. XHTML е част от езика XML. При някои устройства и браузъри е необходимо да се зададе кодировка на знаците директно в XML ниво, иначе всичко става на маймунки. Оправията е чрез директива <?xml version="1.0" encoding="utf-8"?> преди doctype-a.
Оттук обаче тръгват 2 проблема. Първо - doctype-a уж трябва да е първия ред в HTML кода, а вече е втори. Второ - старите браузъри като IE6 се чудят какво е това и спират стандартизацията на документа.
Излиза, че е трудно да се съобразиш и с браузърите и в ботовете. Естествено проблем прави IE. Ако от Microsoft се бяха разбутали малко можеше да не се налага да отстраняваме DOM-a и XML директивата за кодировката. Под Firefox всичко върви и във всички случаи. А повечето GSM апарати и джобни устройства искат XML директива, за да разчетат сайта.
Ако някой има опит или някакви други идеи как да се направи едновременно мултиплатформен и оптимизиран сайт, и как да укаже еднозначно кодировката нека сподели. Говоря само за уникод (utf-8 кодиране).
Според мен един сайт трябва да е колкото се може повече абстрактен и мултиплатформен. За това допринасят XHTML стандарта и UTF-8 кодировката. Така повече устройства и ботове на търсачки ще могат не само да намират сайта, но и да го "разбират".
Проблемът при utf-8 кодировката е, че повечето редактори поставят 3 допълнителни символа в началото на файла, известни като DOM (Document Object Model). Тези символи е възможно да объркат старите браузъри, както и някои ботове.
Ако файлът се редактира на по-ниско ниво е възможно допълнителните символи да бъдат отстранени, но как тогава да кажем на браузъра каква е кодировката? Отговорът е по стандартния начин с метатаг. Вместо charset=windows-1251, пишем charset=utf-8
Но дали и това е достатъчно. XHTML е част от езика XML. При някои устройства и браузъри е необходимо да се зададе кодировка на знаците директно в XML ниво, иначе всичко става на маймунки. Оправията е чрез директива <?xml version="1.0" encoding="utf-8"?> преди doctype-a.
Оттук обаче тръгват 2 проблема. Първо - doctype-a уж трябва да е първия ред в HTML кода, а вече е втори. Второ - старите браузъри като IE6 се чудят какво е това и спират стандартизацията на документа.
Излиза, че е трудно да се съобразиш и с браузърите и в ботовете. Естествено проблем прави IE. Ако от Microsoft се бяха разбутали малко можеше да не се налага да отстраняваме DOM-a и XML директивата за кодировката. Под Firefox всичко върви и във всички случаи. А повечето GSM апарати и джобни устройства искат XML директива, за да разчетат сайта.
Ако някой има опит или някакви други идеи как да се направи едновременно мултиплатформен и оптимизиран сайт, и как да укаже еднозначно кодировката нека сподели. Говоря само за уникод (utf-8 кодиране).