Структура сайта с точки зрения поисковой оптимизации

Для поисковых систем каждый УРЛ адрес сайта — это документ с названием, заголовками, содержимым. Сайт — это структура взаимосвязанных документов разной степени значимости.

Исходя из этих простых аксиом, можно оценивать структуру сайта, как хорошую или проблемную.

Типовые проблемы структуры сайта

1. Дубли страниц на сайте.

Проблема обычно возникает из-за недостатков CMS, движка сайта. Поисковая система видит на сайте большое количество одинаковых или почти одинаковых документов, и не понимает, что ей с ними делать.

Трудно определить, какая страница является основным документом, а какая возникла случайно. Особенно если внутренние и внешние ссылки ведут на разные дубли страниц.

Кроме того, при большом количестве дублей поисковая система не может корректно рассчитать статический вес страниц, определить общую релевантность или даже тематику сайта. Если количество дублей страниц на сайте превышает определенную критическую массу, такой сайт будет пессимизирован.

Для борьбы с дублями можно использовать следующие инструменты: файл robots.txt и мета-тег "robots" для запрета индексации ненужных страниц, атрибут rel="canonical" для указания основной страницы и 301-й редирект для перенаправления с дублей на основную страницу. Однако оптимальным решением является физическое блокирование появления дублей программными средствами.

Помимо полных дублей страниц, на сайте могут появляться частичные дубли контента на разных страницах. Их появление нежелательно, но не так критично, как полные дубли страниц.

2. Дубли title, description, keywords.

Возникают как производное от дублей страниц, а также на страницах пагинации (например, пролистывание страниц с товарами в категории интернет-магазина) и при халатном заполнении данных для страниц сайта.

Title и description (название и описание страницы) должны быть уникальными для каждого документа. Мета-тег keywords должен быть уникальным, либо отсутствовать вовсе.

Для уникализации страниц пагинации можно добавлять к title и description номер страницы. Если страницы пагинации не имеют важного контента, то для них желательно в мета-теге "robots" прописать значение "noindex, follow" (не индексировать, но переходить по ссылкам).

3. Отсутствие title на страницах.

Грубая ошибка. Это, как если бы в архиве на стеллажах лежали папки документов без названий. При превышении критической массы таких страниц на сайте, могут быть санкции поисковых систем.

4. Меню на скриптах.

Поисковые системы плохо работают со скриптами. Поэтому красивое скриптованное меню нужно обязательно дублировать обычными ссылками в боковой или нижней части сайта.

Если этого не сделать, то поисковая система не сможет понять структуру сайта: уровень вложенности, статический вес страниц, анкоры внутренней перелинковки из меню. Все эти данные будут неизвестны или искажены.

Еще один момент. Некоторые скрипты подгружают ссылки для всплывающих меню прямо из кода текущей страницы. Таким образом, в коде каждой страницы присутствует блок из сотен внутренних ссылок, которые отрабатываются скриптом при наведении курсора мыши на соответствующие пункты меню. Это пример очень плохого кода, так как сотни внутренних ссылок на каждой странице поисковая система видит, а как работает скрипт меню понятия не имеет.

Если в структуре сайта для поисковой системы слишком много непонятного, такой сайт может быть пессимизирован.

5. Слишком длинные УРЛы из-за высокой вложенности подкатегорий.

Проблема актуальна для каталогов продукции интернет-магазинов. УРЛ генерируется автоматически транслитизацией названий категорий и подкатегорий, и при высокой вложенности становится слишком большим и иногда переспамленным.

Чтобы этого избежать, следует минимизировать количество вложенных категорий и сократить их название в УРЛ. То есть, вместо полного транслита названия подкатегории использовать одно слово или несколько символов.

6. Битые ссылки.

Ссылки на несуществующие страницы создают проблемы для пользователей и свидетельствуют о неактуальности контента. Битых ссылок на сайте быть не должно. Причем, как внешних, так и внутренних. Необходимо периодически сканировать сайт на предмет наличия неработающих ссылок и устранять выявленные ошибки.

7. Наличие на сайте страниц, никак не связанных с главной страницей.

Разделы или страницы, на которые нельзя попасть по ссылкам с главной всегда говорят о наличии серьезной проблемы с сайтом. Либо о взломе, либо о seo-разделе, который создан только для поисковых систем, а не для пользователей, либо о полном отсутствии логики у разработчика.

Заключение

В обзоре были перечислены только наиболее явные и распространенные примеры плохой структуры сайта. Частностей и производных от них на порядок больше.