О технических параметрах продвижения сайта

639
Мы уже говорили, что успешному продвижению сайта предшествует серьёзная подготовительная работа. Одна из важнейших ее составляющих - оптимизация HTML-верстки. Но SEO заключается не только в форматировании контента, но и в правильной настройке сайта, его технических параметров - они должны удовлетворять определенным требованиям поисковых систем.

С целью экономии финансовых затрат, многие небольшие фирмы соглашаются размещать свои сайты на виртуальных хостингах, когда с одного сервера в дата-центре ”стартуют” несколько сайтов. И до момента, когда количество обращений от посетителей или поисковых роботов не превышает вычислительного лимита сервера, сайты отлично работают на выдачу. Чем выше нагрузка на сервер, тем медленнее работают сайты. Выход – переход, и лучше всего заблаговременный, на выделенный сервер.

Выбирая провайдера, поинтересуйтесь его историей на рынке предоставления хостинг-услуг, информацией о центре хранения данных и общими отзывами о компании. Обратите внимание на частоту аварий и неполадок. Помните, что перейти на другой хостинг – процедура не сложная, но осуществима только при работе ”старого” хостера.

О настройке файла .htaccess.

Это файл настроек веб-сервера Apache, прописанный в корневом каталоге сайта. Он задает следующие параметры:

- перенаправление. Простой редирект и преобразование URL по любым правилам.

- распознавание индексных страниц.

- определение страниц обработки ошибок. При запросе несуществующей страницы, будет появляться страница, объясняющая причины ошибки и содержащая ссылку возврата, например, на другой важный раздел сайта.

- правильную кодировку текста всего сайта. Гарантирует прочтение сайта любым браузером посетителя.

- управление доступом. Ограничение по разным параметрам ко всему сайту или его разделам.

- основные опции обработки PHP-языка веб-сервером.

Таким образом, файл .htaccess позволяет выполнить настройки сервера так, чтобы сайты открывались даже без "www". Если поисковая система уже проиндексировала сайт с адреса, содержащего www, то редирект нужно настроить на него. Если эта настройка не выполнена при запуске сайта, то придется ожидать полной переиндексации всех страниц (во избежание ”задвоенности” страниц с "www" и без).

Несколько штрихов о настройке файла Robots.txt

Служебную информацию, содержащаяся в логах сервера, должна быть закрыта от индексации, как и результаты внутреннего поиска по сайту (для исключения дубля страниц). Для исключения индексирования дублей, опцией Clean-param можно запретить поисковой системе индексировать страницы c различными модификаторами URL, которые создает CMS-система. Чтобы минимизировать число страниц-дублей и облегчить продвижение сайта, не лишне запретить поисковикам индексацию гостевых книг и форумов, а также дубли главной страницы (даже если файл .htaccess уже поставил на них редирект). Ну и конечно, следует закрывать страницы, возникающие при некорректной обработке запросов к базе данных сайта.

Итогом сказанного может стать правило оптимизации сайта: страницы без важного контента – запретить, выставить надежную защиту от индексации дублей.

Карта сайта.

Список ссылок на все страницы сайта размещают на карте сайта. Обычно такая страница автоматически создается системой управления контентом, но без специального форматирования она не приносит пользы посетителям. Но для поисковых систем она – помощник в индексации всех материалов, т.к. если ссылка на карту размещена на главной странице, то поисковому роботу нужно сделать всего два перехода.

Современной версией карты сайта считается файл sitemap.xml. Он, помимо самостоятельного ”рождения” и обновления, позволяет указать приоритет индексации для каждой страницы, ее важность и частоту обновления.

Осторожно, вирусы.

Особо опасными представляются вирусы с исполняемым вредоносным кодом. При индексации страниц, поисковые системы отслеживают зараженные страницы и закрывают их для доступа пользователей, выводя предупреждение о наличии на них вируса. В результатах выдачи такие страницы автоматически понижаются. А чтобы не пришлось отвоевывать позиции снова, на сайте следует обновлять программное обеспечение (особенно - CMS), использовать надежные пароли для доступа к панели управления сайтом и по FTP. А то, что компьютер для входа и выполнения настроек должен иметь мощную антивирусную защиту, – то это закон, не требующий пояснений.

Подведем итоги.

Чтобы сайт был затребован, он должен содержать много разнотипных страниц, скриптов, сервисов, и работа по его подготовке – масштабна и скрупулезна. Стараниями хостиног-провайдеров и разработчиков CMS, оптимальные параметры все чаще включаются ”по умолчанию”, но отдельные настройки еще производятся ”вручную”. Они зависят от цели, на достижение которой направлена внутренняя оптимизация.

Ответы вопросы, возникающие при настройке сайтов, можно найти у Яндекс и Google. Однако на форуме SeoPult есть возможность пообщаться с реальными людьми, получить совет из опыта специалистов и осуществить настройку самым оптимальным образом.

Вверх!