SEO продвижение сайта самостоятельно и бесплатно: пошаговая инструкция на 2021 год

СЕО продвижение сайта самостоятельно

Прочитав статью, ты узнаешь, как можно продвинуть свой сайт самостоятельно, не зная основ программирования, seo и всего прочего, что связано с вебом. Если ты уже что-то знаешь, то это будет несомненным плюсом. Итак, погнали.

1. Принципы работы ПС

Перед тем, как предпринять какие-либо действия, важно понять, как работает поисковая машина Яндекс и Google хотя бы в упрощенной версии. Если ты будешь бездумно следовать чьим-либо рекомендациям, то есть вероятность того, что ты «убьешь» свой сайт, а возможно он уже «мертв», но об этом в другой раз.

Поисковая система – это бездушная машина, которая умеет лишь анализировать значения и сопоставлять их между собой, поэтому ей все равно какой у тебя дизайн, настоящие ли ты картинки используешь и прочее.

Главная цель поисковых систем — показать пользователю сайты, которые смогут удовлетворить его запрос, и которым можно доверять. Поисковики заинтересованы в том, чтобы продвигать качественные и полезные сайты, которые в конечном счёте решат проблему юзера и не обманут его.

ПС — поисковая система.

Теперь разложим всё по полочкам, чтобы ты имел чёткую картину того, как всё устроено.

Алгоритм работы поисковых систем

1

Поисковая система узнает о существовании твоего сайта (или о новых его страницах).

2

Поисковая система отправляет своего поискового робота, задачей которого является проанализировать новую информацию, появившуюся в интернете.

3

Поисковый робот заходит на сайт и считывает код страницы. Затем он двигается по сайту дальше, перемещаясь со страницы на страницу. Его цель – просканировать, как можно больше страниц.

У поискового робота есть квота (ограничение) на количество анализируемых страниц.

То есть данный робот за один заход сможет проанализировать, например, лишь 20 страниц сайта. Как только он проанализирует 20 страниц сайта – он уйдет и вернётся к анализу только при следующем заходе на сайт (когда квота обновится). Все просканированные страницы робот направляет в базу данных (БД) поисковой системы.

Важно понимать, что у каждого сайта своя квота. Чем больше размер сайта, тем больше ему выдается квота.

4

В БД, присланные страницы роботом, раскладываются на составляющие: количество символов, частотность использования слов, определенных словосочетаний и прочее. Полученные данные с твоего сайта сравниваются с другими данными чужих сайтов, которые были просканированы ранее. На основе частотности (кол-ва повторений) слов определяется тематика текста и главный ключ страницы.

Ключ – это запрос, который пользователи ищут в интернете.

Разберем на примере. В статье про «ремонт квартиры», как не крути, чаще всего будут встречаться слова «ремонт» и «квартира» или словосочетание «ремонт квартиры». Данное словосочетание является главным ключом статьи. Чем чаще в тексте встречается это словосочетание, тем релевантнее данный текст в глазах поисковых систем.

Релевантность – это соответствие контента сайта запросу пользователя.

Например, пользователь в поисковую строку вбивает запрос: «купить айфон Х». Поисковая система покажет ему сайты, где можно купить айфон Х, потому что они отвечают его запросу.

Возвращаемся. Ранее поисковые системы думали так: чем чаще ключ встречается в тексте, тем более релевантна статья запросу. Многие вебмастера раскусили алгоритм и стали пользоваться этой уязвимостью. По итогу в ТОП 10 стали попадать неполезные сайты, которые спамили (использовали ключ большое количество раз). С тех пор и по настоящее время этот фокус не работает и за это стали банить сайты.

Запомни одну важную вещь: чёрное seo – это вечный бег от наказания, потому что рано или поздно поисковая система тебя догонит и забанит, а затем тебе придется начинать продвижение с нуля. Поэтому, белое seo – это ТОП, и это то, чему посвящена эта статья.

5

После того, как поисковая система разложила твои страницы сайта на составляющие и сравнила их с другими страницами в БД, она принимает решение: полезные ли это страницы или нет. На основе принятого решения страницам либо даются позиции, либо их отправляют на дно.

Есть две важных вещи, которые ты просто обязан знать. Без них ни у кого и никогда не получалось продвинуть сайт в ТОП. Сейчас речь пойдет о файлах robots.txt и sitemap.xml.

Robots.txt и sitemap.xml

Если ты уже о них что-то знаешь, то все равно рекомендую лишний раз ознакомится с информацией ниже, чтобы удостоверится в своих знаниях.

Robots.txt – отвечает за индексирование сайта.

Индексирование – это процесс добавления страниц твоего сайта в БД поисковых систем (как раз выше это разбирали).

В файле robots.txt указываются правила для роботов поисковых систем: что индексировать и показывать в результатах поиска можно, а что нельзя. Также в данном файле можно запретить индексирование для определённого поисковика. Например, можно сделать так, чтобы Яндекс мог сканировать сайт, а Гугл нет.

В robotx.txt всегда нужно закрывать весь мусор. Зачастую мусором являются нужные пользователям, но ненужные поисковикам страницы. Самый простой способ проверить страницу – это задаться вопросом: «а нужно ли мне продвигать данную страницу в интернете?”. Если нет — смело закрывайте. Например, страницу услуги или категории товаров однозначно стоит продвигать в интернете, а вот страницу корзины или авторизации в личном кабинете не стоит, поэтому их нужно будет закрыть в robots.txt.

Базово нужно знать следующее:

  • User agent — указывает, для каких ботов поисковых систем действуют правила (для каждой поисковой системы можно задать свои правила);
  • Allow — разрешает индексировать указанный раздел или страницу;
  • Disallow — запрещает индексировать указанный раздел или страницу.

Иногда проще сначала закрыть все разделы сайта от индексирования, а затем открыть нужные разделы или страницы.

Обязательно закройте административную часть сайта от индексирования.

Пример заполненного robots.txt для wordpress:

  • User-agent: *
  • Allow: /*.css
  • Allow: /*.js
  • Disallow: /wp-admin
  • Disallow: /wp-includes
  • Disallow: /wp-content/plugins
  • Disallow: /wp-content/cache
  • Disallow: /wp-json/
  • Disallow: /xmlrpc.php
  • Disallow: /readme.html
  • Disallow: /*?*
  • Disallow: /*?s=*
  • Disallow: /*doc
  • Disallow: /*pdf

* — все символы.

В работе с этим файлом нет ничего сложного: нужные разделы или страницы сайта открываешь, а ненужные закрываешь. Главное знать принцип, по которому нужно открывать и закрывать страницы.

Далее идет файл sitemap.xml (карта сайта). Данный файл отражает все страницы сайта. В нём должны находится лишь те страницы, которые ты намерен продвигать по seo. Весь мусор, закрытый ранее в robots.txt отсюда также должен быть исключен.

Для создания sitemap.xml легче и правильнее всего использовать плагин, который собирает и разделяет страницы сайта на смысловые группы автоматически (при добавлении новых страниц на сайт плагин самостоятельно внесет все коррективы).

Обобщим всю информацию в простую схему, которую ты теперь поймешь от и до:

  1. ПС узнала, что есть новая страница в интернете
  2. ПС направляет своего робота на сайт
  3. робот подключается к robots.txt
  4. удостоверившись, что доступ для него открыт, идет на станицу и сканирует её (если это плановый обход сайта, то идёт в sitemap.xlm, смотрит какие страницы на сайте появились или обновились, идёт на них и сканирует)
  5. все страницы отправляются в БД поисковых систем
  6. полученные страницы анализируются и сопоставляются с другими страницами сайтов
  7. твоим страницам дают\не дают позиций.

Отличия продвижения в Яндекс и Google

Приоритет поисковой системы Яндекс — поведенческие показатели (количество просмотренных страниц, время проведенное на сайте, клики и прочее). Для Google ключевую роль играет ссылочный вес (чем больше чужих качественных сайтов ссылается на твой сайт, тем лучше).

!

Лень вникать и заниматься seo самостоятельно? Боишься совершить ошибки, потерять время и деньги? Доверь seo нам!

Подробнее →

2. Технический аудит

После того, как ты узнал принципы работы поисковых систем, можно приступать к технической оптимизации сайта.

Поисковые системы имеют ряд правил и требований, которые необходимо выполнять каждому сайту в сети. Кто бы что не говорил, но отсутствие технических ошибок всяко не повредит твоему seo продвижению.

Бытует мнение, что поисковикам безразличны технические ошибки сайта. На самом деле — и да, и нет. Если у тебя крупный и популярный агрегатор, который активно рекламируется в интернете (Авито, Циан и другие) то да, данные правила зачастую можно игнорировать, т.к. и без них сайт будет иметь высокие позиции.

Но если ты небольшая локальная компания, которая хочет завоевать позиции в интернете максимально бюджетно и быстро, то лучше не игнорировать данные правила.

На самом деле правила достаточно просты. Они заключаются в том, что код сайта должен быть правильно структурирован и использовать правильные выражения. Чтобы выявить ошибки, достаточно воспользоваться валидаторами кода.

Валидатор – инструмент, проверяющий правильность кода сайта.

Самый популярные валидатор: W3.ORG. Зачастую ошибки находятся в шаблоне сайта и отображаются на всех страницах сайта. Например, на твоём сайте 50 страниц, а ошибка находится в , который одинаковый на всех страницах твоего ресурса. Устранив эту ошибку, ты уберешь сразу 50 ошибок с сайта. Думаю, что логика понятна.

технический анализ

Твоя главная цель – убрать все критические ошибки.

!

Лень вникать и заниматься seo самостоятельно? Боишься совершить ошибки, потерять время и деньги? Доверь seo нам!

Подробнее →

3. Структура сайта

Переходим к самому важному – структуре. Её часто недооценивают, думая, что она играет малую роль, но всё совсем наоборот, т.к. именно от неё зависит ширина охвата твоей целевой аудитории.

Если не вдаваться в детали, то важно запомнить одно: чем больше направлений раскрыто на твоём сайте, тем лучше. Помнишь про главную цель поисковиков, которая описывалась в первом пункте? Нет? Возвращайся в самый вверх, она выделена, поэтому ты её точно не пропустишь.

В глазах поисковых систем, чем больше направлений у компании, тем больше она в действительности. Таким «большим» компаниям поисковые системы доверяют больше, нежели «малым».

Самый простой способ создать правильную структуру сайта с первого раза – использовать структуру конкурентов, находящихся в ТОП 10 поисковой системы. Программа xmind (или любой её аналог) упростит данный процесс. Выписывай все категории и подкатегории без исключения.

xmind

На основе практики могу сказать, что это самый простой и мощный способ, который будет очень полезен и прост в использовании для новичков.

Чем меньше уровень вложенности страницы, тем выше её значимость в глазах поисковых систем.

Например, есть две страницы: «сайт.ру/страница-1/страница-2/». В данном примере «страница-2» находится дальше от главной страницы сайта и имеет уровень вложенности 2, а «страница-1» имеет уровень вложенности 1 и находится ближе. Соответственно, вес «страница-1» больше.

Также используйте ЧПУ. Для этого можете воспользоваться любым транслитом в интернете. Цель ЧПУ – сделать так, чтобы URL был читаемым (например: «sait.ru/remont kvartir/»).

ЧПУ — человекопонятный урл

!

Лень вникать и заниматься seo самостоятельно? Боишься совершить ошибки, потерять время и деньги? Доверь seo нам!

Подробнее →

4. Семантическое ядро

Если ты уже знаком с понятием «семантическое ядро», то приготовься узнать что-то новое. Но обо всём по порядку.

Семантическое ядро – это запросы, характеризующие твой бизнес. С их помощью потенциальный клиент должен смочь найти твою компанию в интернете. Такие запросы называются «ключами».

Ключи собираются на основе структуры сайта, которую ты делал ранее. Например, ты занимаешься продажей холодильников в Москве. В этом случае одним из основных твоих ключей будет «купить холодильник», назовём его [важный ключ]. Важно понимать, что из него может вытекать множество других ключей: [важный ключ] + [город], [важный ключ] + [марка], [важный ключ] + [марка] + [модель] и т.д.

Если ты только начинаешь заниматься seo, то лучше всего собрать семантическое ядро вручную (даже если количество запросов порядка 500-1000 штук), а не использовать различные сервисы. Благодаря этому, ты не соберешь лишние запросы, которые в дальнейшем все равно придется удалить. Да, это дольше, но зато качественнее.

Собираются запросы в сервисе Яндекс Вордстат. Необходимо выбрать нужный регион, ввести запрос и нажать кнопку «подобрать». Упростить себе жизнь и сэкономить время можно с помощью специального расширения для браузера: Yandex Wordstat Helper. Аналогов много, ты можешь выбрать любой.

После установки этого расширения слева появится специальное окно, в которое можно добавлять нужные ключи с помощью плюсов. Все работы с ключами удобнее всего проводить в excel.

Яндекс вордстат

Когда все ключи собраны, их необходимо кластеризировать согласно структуре сайта, которую ты разрабатывал ранее.

Кластеризация — разбиение запросов на смысловые группы.

Одна смысловая группа = одна страница на твоём сайте. Это нерушимое правило успешного seo.

Есть еще один очень важный момент, про который многие забывают – интент.

Интент – это намерение пользователя. Его ОЧЕНЬ ВАЖНО учитывать при сборе семантического ядра.

Например, ты занимаешься регистрацией ИП. Можно предположить, что запрос «регистрация ИП» относится к твоему бизнесу и его можно использовать для seo, но это не так. Если вбить в поисковую строку «регистрация ИП», то мы увидим информационную выдачу (различные статьи). Но если мы вобьем «регистрация ИП под ключ», то выдача будет уже коммерческой (сайты, на которых можно осуществить регистрацию ИП).

Перед тем, как добавить ключ в свой список, убедись, что он тебе подходит по интенту и структуре. Чтобы проверить интент, нужно ввести запрос в поисковую строку и посмотреть выдачу самостоятельно.

!

Лень вникать и заниматься seo самостоятельно? Боишься совершить ошибки, потерять время и деньги? Доверь seo нам!

Подробнее →

5. Структура страницы

После того, как ты создал структуру сайта и собрал правильное семантическое ядро можно приступать к разработке структуры страниц.

Всё делаем также, как и ранее – на основе конкурентов. Создай файл excel, открой ТОП 10 сайтов конкурентов и выпиши все элементы, которые у них есть на странице. Например, конкурент 1: слайдер, баннер, текстовый блок, таблица цен, видео и т.д. Всего должно получится два файла: «анализ главной страницы» и «анализ страницы услуги». Или три файла, если у тебя интернет магазин: «анализ главной страницы», «анализ страницы категории» и «анализ страницы карточки товара».

Когда внесешь в таблицу всех 10-ти конкурентов – выяви общие элементы. Например, 8/10 конкурентов используют таблицу цен, 5/10 конкурентов используют баннер и так далее.

таблица конкурентов

Если элемент встречается у конкурентов больше, чем 2-3 раза из 10, то лучше его внедрить.

После выявления общих элементов начинай разработку структуры своей страницы, используя общие элементы, которые ты выявил ранее. Очередность расположения элементов можешь выбрать любую. Во главе угла – удобство и полезность для пользователя.

!

Лень вникать и заниматься seo самостоятельно? Боишься совершить ошибки, потерять время и деньги? Доверь seo нам!

Подробнее →

6. Сниппет

Когда внутренняя часть сайта готова, необходимо переходить к его внешней оптимизации. Чтобы CTR был выше, твой сайт должен иметь презентабельный внешний вид. CTR также влияет на seo. Чем он выше, тем лучше для seo.

CTR — отношение числа кликов к числу показов (2 клика ÷ 10 показов x 100% = 20% CTR).

сниппет

Два основных элемента сниппета:

  • title (название страницы);
  • description (описание страницы).

Ты можешь влиять на название страницы, которое отображается в результатах поиска. Для этого нужно прописать и заполнить тег title страницы.

Максимальная длина title составляет 60-80 символов. Всё зависит от поисковой системы и типа используемого устройства, с помощью которого пользователь просматривают поисковую выдачу.

В title обязательно должен указываться главный ключ, по которому продвигается страница. Он должен располагаться в самом начале title.

Влиять на description нельзя. Поисковые системы последние несколько лет создают его автоматически, потому что многие seo оптимизаторы спамили (писали в нём только ключи, чтобы манипулировать поисковой выдачей).

В редких случаях поисковая система может показать твой description, поэтому его нужно заполнить, указав в нём наиболее важные ключи и полезную информацию для пользователя.

Максимальная длина description составляет 160-180 символов. Все также зависит от поисковой системы и типа устройства.

На внешний вид сниппета можно и нужно влиять через микроразметку (например, schema.org). Микроразметка позволяет поисковым системам определять тип данных, указанных на сайте. Чем больше данных размечено, тем больше будет размер сниппета, и тем больше кликов он получит.

!

Лень вникать и заниматься seo самостоятельно? Боишься совершить ошибки, потерять время и деньги? Доверь seo нам!

Подробнее →

7. Ускоренная индексация

Поисковые системы автоматически удаляют и добавляют страницы в индекс, но этот процесс небыстрый. Иногда он занимает 1-2 недели, а иногда и 3-5 недель. Ты можешь помочь поисковым системам и ускорить процесс индексирования.

Например, в вебмастере Яндекс есть два полезных инструмента:

  • переобход страниц (находится в разделе: «индексирование»);
  • удаление страниц из поиска (находится в разделе: «инструменты»).

Яндекс вебмастер

Страницу нужно отправить на индексацию если:

  • это новая страница сайта;
  • обновилась информация на странице;
  • страница удалена;
  • у страницы сменился url адрес.
Из индекса можно удалить лишь 3 типа страниц:

  • ошибка 404 (страница не существует);
  • страница закрыта в robots.txt;
  • страница закрыта через тег noindex (проще закрывать страницу или раздел в файле robots.txt).

Если страница имеет код 200 (доступна к просмотру) или 301 (перенаправление на другую страницу), то инструмент «удаление страниц из поиска» не поможет.

В инструменте «удаление страниц из поиска» у добавленных тобой страниц на удаление появится статус: «в работе», «удалена», «отклонена». Отслеживай его.

В Google используется Google Search Console.

Она работает похожим образом. Для удаления тебе нужно выбрать раздел «удаления». А для добавления в индекс или переобхода страницы, нужно написать url адрес страницы в специальную строку и нажать enter.

Гугл консоль

!

Лень вникать и заниматься seo самостоятельно? Боишься совершить ошибки, потерять время и деньги? Доверь seo нам!

Подробнее →

8. Покупка ссылок

Это достаточно сложный и «серый» шаг, в котором очень много важных деталей. Если расписывать всё важное, то это займет еще столько же места. Поэтому, в рамках этой статьи дам лишь общие рекомендации и познакомлю с основными терминами.

Какие ссылки покупать?

Во-первых, качественные. Факторов качества много, но есть базовый инструмент, который подойдет новичку — «check trust». Сервис платный, но есть бесплатный пробный период. После регистрации и авторизации нужно лишь ввести адрес сайта, который требуется проверить на качество.

check trust

Система проанализирует ресурс и покажет два основных показателя: траст и спам. Сайт, с которого ты намерен купить ссылку, должен иметь минимум 30-35 траста и максимум 5-9 спама.

Во-вторых, тематичные. Это значит, что тематика твоего ресурса должна совпадать (или быть похожей) с тематикой ресурса, ссылку с которого ты покупаешь.

В-третьих, региональные. Площадка, ссылку с которого ты покупаешь, должна иметь такой же регион, как и твой сайт (например, чужой московский сайт должен ссылаться на твой московский сайт).

Третью рекомендацию зачастую сложно выполнить, поэтому если есть такая возможность — выполняй, если нет — игнорируй, но первые две рекомендации игнорировать не стоит.

Анкорные или безанкорные ссылки

Анкорные ссылки — это ссылки, которые содержат в себе ключевой запрос, например: «ремонт квартир в СПБ». Безанкорные ссылки — это ссылки, которые не содержат в себе ключевой запрос. Например: «https://сайт.ру/».

Покупать ссылки нужно в пропорции: 20% — анкорные, 80% — безанкорные. Иначе можно случайно «убить» свой сайт.

«Вот», «здесь» и прочие безанкорные слова — это бред, который 100% не нужно использовать при покупке ссылок. Если ты хочешь купить безанкорную ссылку, то она должна иметь такой вид: https://твой-сайт.ру/. В этом случае url (https://твой-сайт.ру/) = анкору (https://твой-сайт.ру/).

Разница вечных и арендных ссылок

Вечные — ссылки, за которые ты платишь лишь один раз (при покупке) и они остаются на всегда, арендные — ссылки, за которые нужно платить каждый месяц. Арендные ссылки стоят дешевле на старте, но дороже в перспективе.

Если ты новичок, то покупай только вечные ссылки. Так ты обезопасишь себя от возможных проблем и сэкономишь бюджет.

Минусы вечных ссылок:

  • ссылки могут остаться не навсегда — ресурс может закрыться;
  • ресурс может испортиться (например, может увеличится уровень спама);
Минусы арендных ссылок:

  • дорого в перспективе;
  • сложнее аккуратно «наращивать» и выше вероятность попасться;

!

Понравилась статья, остались вопросы? Оставь комментарий!

Все статьи →

!

Лень вникать и заниматься seo самостоятельно? Боишься совершить ошибки, потерять время и деньги? Доверь seo нам!

Подробнее →

Автор статьи - Никита Байкалов

Автор статьи:
Никита Байкалов

Добавить комментарий

Ваш адрес email не будет опубликован.