Как проводится сео-аудит
SEO – это оптимизация интернет-ресурса под поисковые системы. Выполняется она для эффективного продвижения сайта, занятия ТОП-10 позиций в выдаче по интересующим владельца запросам. Любой квалифицированный специалист, берясь за ресурс, должен произвести SEO-аудит для понимания:
- нынешнего положения дел;
- того, в какую сторону двигаться дальше.
Вам это поможет выяснить, нужно ли сайту продвижение и над чем стоит начать работать. Быструю проверку ресурса можно провести и самостоятельно, если знать, что проверять и правильно подобрать инструменты. Читайте инструкцию, черпайте знания и активно применяйте их!
«Внутрянка»: разбираем сайт по косточкам
Структура: нужна ли?
Структура ресурса имеет значение не только для конечного посетителя, но и поисковых роботов. От неё зависят:
- количество страниц в индексе ПС;
- скорость индексации поисковыми роботами;
- уобство пользования для рядового посетителя;
- поведенческие факторы.
Последнее подходит сюда в контексте того, что человек не сможет найти нужную информацию и уйдёт на структурированный сайт конкурента – в дальнейшем «коллега» может быть в выдаче выше Вас!
Предлагаем проводить анализ на основе следующих пунктов:
- Каждая страница определяется в тематическую группу (по релевантности).
- До любой страницы можно добраться в 2-4 клика с любой точки сайта. Сейчас поисковые системы и в 10 кликов доберутся, со временем, конечно, но ничего страшного, индексация пройдёт успешно, но следует позаботиться о пользователях!
- Наличие «хлебных крошек» – небольшой цепочки переходов, которая отображает кратчайший путь от текущей страницы к главной, учитывая структуру. Например, над заголовком статьи, они рассказываю том, где конкретно находится юзер (категория -> подкатегория -> статья). Ссылки в крошках должны быть кликабельными – нажал и перешёл куда требуется.
- Присутствие поиска. Поиск не нужен только Landing Page, т.к. там навигация выстроена в пределах всего одной страницы и якорных ссылок на основные разделов. Информационным сайтам, интернет-магазинам, блогам и другим многостраничникам – в обязательном порядке!
- Никакой навигации на Flash – усложните работу ПС и жизнь себе. Максимум – меню со ссылками на AJAX, они распознаются корректно.
Внутренней перелинковке БЫТЬ! Правильная перелинковка – залог успеха, неправильная – снижение PR страниц, а следственно позиций. В автоматическом режиме делается в следующих форматах:
- похожие статьи;
- с данным товаром приобретают;
- рекомендации;
- вам может понравиться и т.п.
В ручном режиме – кликабельные, анкорные и безанкорные ссылки внутри одних статей на категории, главную и другие новости интернет-ресурса.
Важность контента
Переоптимизированный контент – фильтр и плохие позиции. Текст написанный именно для читателей – существенное повышение вероятности оказаться в ТОП-10 выдачи Яндекса и Google! Нужно уметь корректно вписывать ключевые слова, формировать привлекательный сниппет в поиске и другое. Для начала остановимся на текстовой составляющей, важность имеют:
- Уникальность. На копипасте «не уехать» лет 10 как. Только авторские тексты либо глубокий, качественный рерайтинг (в крайнем случае). Не можете писать сами – нанимаете опытного копирайтера: на зарплате или с постатейной оплатой – как вам двоим будет комфортнее;
- Польза. Каждый текст, находящийся в поиске на хороших позициях, должен быть полезным. Условно, я хочу знать ответ на вопрос: «сколько океанов на Земле?». Ответить можно одним предложением, но часто на сайте пишут слишком размыто. Нужно выуживать ответ среди тонн бесполезной информации. Это не значит, что следует писать одно короткое предложение на каждой странице. Просто сначала сообщите пользователю, что у нас ПЯТЬ океанов, а дальше дополняйте другой ценной информацией.
- Спам. Слишком любите ключевые слова – придется привыкать к фильтрам. Не злоупотребляйте подобным, сейчас не 2009 год, когда добавив в текст больше всех ключевиков, выходишь в ТОП-3 по ним;
- Грамотность. Следует проверять до публикации каждый написанный текст. Пишите в Word, проверяйте по Главреду, Тургеневу и Орфограме и получите больше читателей;
- Заголовки. Вспомните книгу. Заголовки в ней – целая структура для более лёгкого ориентирования человека внутри текста. Заголовки на сайте – тоже! – заголовок первого уровня – должен использоваться один раз как название статьи/раздела/подраздела, и последующие – столько, сколько потребуется;
- Форматирование. Не гонитесь за большими, безобразными портянками. Лучше текст в 2 000 знаков, который легко читается и корректно отформатирован, чем в 10 000 знаков и сделанный… в общем, не на совесть.
Далее – фотографии, изображения. Должны быть тематическими, в идеале – уникальными либо уникализированными посредством того же Adobe Photoshop. За последними лучше обратиться к фотостокам, найдёте требуемого цвета, разрешения, качества. Не забывайте о заполнении тегов (title, alt) к изображениям – появляется вероятность получения дополнительного трафика на сайт с Яндекс и Гугл картинок. Мелочь, а приятно.
Метатеги
Каждая страница сайта имеет следующие метатеги:
- Title – очевидно, заголовок. Он бросается в глаза в выдаче ПС первым, есть смысл сделать более привлекательным. Уникальность важна, если они одинаковы на нескольких ваших страницах, это плохо отобразится на ранжировании;
- Description – краткое описание информации на странице. Заинтересовали Title, юзер прочтёт и описание в сниппете – зацепите его дополнительно, мотивируйте перейти на ресурс. Но только не нужно врать, пользователь должен получить ту информацию, ради которой он здесь;
Воспользуйтесь программой Screaming Frog для проверки метатегов, допустимого размера их текста – получится оперативно просмотреть всё, а при необходимости, – подкорректировать.
Дублированный контент
В 60-70 процентов движков сайтов (они же – CMS) в 2019 году есть проблемы с дубликатами. Одно и то же наполнение страницы может быть доступно по разным адресам. Пример:
- https://site.org/seo/audit.html
- https://site.org/2019/24/06
В конкретном случае она доступна по адресу, заданному владельцем (или контент-менеджером) и по дате публикации. Решения два:
- Закрыть от индексации в robots.txt дубли.
- Вглавных страниц доставить rel=”canonical” – тег говорит поисковому роботу, что страница основная, остальные при наличии – дубликаты.