Внутренняя поисковая оптимизация сайта

в разделе продвижение сайта, внутреннее seo. комментарии: 0

Внутренняя поисковая оптимизация сайта (Внутреннее SEO) — это последовательность действий, которые необходимо выполнить с целью повышения внутреннего веса запроса на странице сайта. Проще говоря, надо подчеркнуть нужное ключевое слово для ПС на странице сайта, чтобы страница стояла выше по запросу этого слова в ПС. Основные действия, которые необходимо выполнить чтобы добиться максимального веса запросов на страницах сайта, это:

  1. составление файла robots.txt
  2. создание карты сайта sitemap.xml
  3. настройка редиректов .htaccess
  4. добавление экспорта новостей rss
  5. поисковая оптимизация шаблона CMS
  6. настройка ЧПУ
  7. оптимизация содержания страниц сайта
  8. составление семантического ядра

Рассмотрим подробнее все эти действия на примере планирования оптимизации сайта fidgyfilms.ru . Ключевое слово кинокритика, не включено в домен. Это ключевое слово будет основным продвигаемым, поэтому оптимизируем под него главную страницу. Слово должно быть использовано в тексте, заголовке, теге title и meta тегах keywords description, на главной странице. После этого, главную страницу сайта можно считать оптимизированной под запрос, например — кинокритика.

Составление файла robots.txt

Robots.txt — файл, содержащий инструкции для роботов поисковых систем. Инструкции записываются в текстовый файл, который закачивается в корневую директорию сайта. Название файла обязательно robots, расширение txt.
Заходя на сайт, поисковый робот первоначально обращается к этому файлу. И, опираясь на содержащиеся в нем инструкции, индексирует сайт. Если в robots.txt прописать запрет на индексацию сайта для всех поисковых роботов:

1
2
<br>User-agent:*<br>
Disallow: /

то сайт индексироваться не будет.
На практике, robots.txt служит для установки запрета на индексацию служебных страниц CMS и указания главного зеркала сайта.

Когда мы готовили сайт к индексации ПС, мы разрешили к индексации все содержание сайта для поисковых роботов яндекса:

1
<br>User-agent: Yandex<br>Disallow:

Пришло время изменить содержания файла, чтобы повысить внутренний вес страниц сайта. Для примера, посмотрите robots.txt экспериментального блога, набрав в адресной строке — http://fidgyfilms.ru/robots.txt
Чтобы убрать из выдачи служебные страницы CMS WordPress и копии страниц с содержанием, которые создает скрипт, мы прописали запрет на их индексацию дерективой

1
Disallow: директория

. Дерективой

1
Host: fidgyfilms.ru

, мы указали главное зеркало сайта, чтобы внешние ссылки индексировались для домена без www. Причем директива host определена, только для поисковых роботов яндекса, поскольку находится под директивой —

1
User-agent: Yandex

И для всех поисковых роботов прописан адрес карты сайта sitemap —

1
2
<br>
User-agent: * <br>...<br>Sitemap: http://fidgyfilms.ru/sitemap.xml<br>

Создание карты сайта Sitemap.xml, настройка редиректов .htaccess и добавление экспорта rss

Карта сайта sitemap.xml создается для быстрого оповещения поисковых роботов об изменениях на сайтах. Сайтмэп крайне важен для внутреннего SEO, он влияет на скорость и качество индексации. Поскольку блог основан на CMS WordPress, для автоматической генерации карты сайта установим плагин Google XML Sitemaps v3 for qTranslate. Устанавливаем плагин, активируем, настраиваем и создаем новую карту сайта sitemap.xml в корневой папке домена.

В индексе не должно быть несуществующих страниц, которы возникают при индексации битых внешних ссылок. Так как это ведет к потере поискового веса страниц и ухудшает внутреннее SEO. Для этого прописываем редиректы в служебном файле на сервере — .htaccess, который тоже находится в корне сайта. CMS WordPress по умолчанию создает свои редиректы, поэтому нет нужды прописывать их в .htaccess
Но при желании, можно перенаправить их на главную страницу, тем самым исключив 403 и 404 страницы. Это повысит общий внешний вес главной страницы, но поисковый вес запросов на главной странице будет снижен. Для этого надо добавить в .htaccess следующие строки:

1
2
3
4
<br>
DirectoryIndex index.php<br>
 ErrorDocument 404 /404.html<br>
 ErrorDocument 403 /403.html<br>

RSS — это формат экспорта новостей сайта. Он сделан для быстрого оповещения подписчиков о новых материалах на сайте и положительно влияет на внешнее SEO. Экспорт RSS уже встроен в ядро WordPress 3, и остается только вывести ссылку со значком на http://fidgyfilms.ru/feed/ в шаблон сайта.

Поисковая оптимизация шаблона CMS WordPress

Чтобы поисковый вес запроса не расплывался по странице, необходимо настроить шаблон CMS. Заходим на сайт и сохраняем страницу. Открываем страницу в редакторе (текстовом или html). Или проверяем страницу через сервис проверки содержания pr-cy. Нас интересуют теги: title, meta keywords, meta description, и теги заголовков h1,h2,h3. Изначально, в установленной теме: слишком много ненужных заголовков высшего порядка (h3 — Подпишись на RSS, Видео, Рубрики, Архивы и тд), неправильные meta и title. Надо это исправить. Для этого установим необходимые плагины и внесем изменения в шаблон. Плагин — All in One SEO Pack, генерирует теги title, meta keywords, meta description. Устанавливаем и настраиваем плагин из админки.
Для дальнейшего изменения шаблона заходим на сервер и скачиваем файлы нашей темы WordPress 3 из папки /wp-content/themes/папка_темы. Открываем файлы шаблона в редакторе и меняем заголовки так, чтобы заголовок записи был h1, заголовок сайта h3, а заголовки блоков и все остальные заголовки h11. Заголовки h11 имеют гораздо меньший вес чем h3 и общий вес не будет рассеиваться на верстку. Чтобы верстка не пострадала, необходимо прописать заголовок h11 в файле стиля темы WordPress 3. Обычно это style.css, если такого нет, ищите в css файлах темы.

Настройка ЧПУ в WordPress 3 не требуется. Поскольку плагин All in One SEO Pack сам генерирует человеко понятные УРЛ (url). Используя заголовок записи, и заменяя русские слова транслитом.

В следующей статье опишем оптимизацию содержания страниц сайта и составим семантическое ядро сайта.




Комментировать