Составление семантического ядра от а до я. Как составить семантическое ядро для интернет-магазина: пошаговая инструкция Составление семантического ядра
Семантическое ядро - основа продвижения сайта в Сети. Без него не получится вывести сайт в лидеры на долгое время. Мы расскажем, из чего оно собирается, где что искать и какие инструменты для этого использовать.
Что такое семантическое ядро
Для упрощения понимания давайте будем исходить из того, что семантическое ядро (СЯ) - это все те слова, словосочетания и их вариации, которые полностью описывают содержимое вашего сайта. Чем точнее и качественнее будет собрано ядро, тем проще продвигать сайт.
Грубо говоря, это один большой длинный список слов и фраз (ключей), по которым пользователи ищут подобные товары и услуги. Общих рекомендаций по размеру ядра нет, но есть одно правило: чем больше и качественнее - тем лучше. Главное, не раздувать размер искусственно, чтобы сделать ядро больше. Если вы будете гнаться за размером в ущерб качеству, вся работа пойдёт насмарку - ядро работать не будет.
Приведём аналогию. Представьте, что вы - руководитель крупной строительной фирмы, которому нужно построить очень много объектов за короткий срок. У вас неограниченный бюджет, но нужно нанять на работу не меньше ста человек - таково требование профсоюза. Каких сто человек вы наймёте на такую ответственную работу - вообще любых, или будете тщательно отбирать, раз бюджет позволяет? А ведь кого наберёте - с теми и дома строить. Разумно предположить, что выбирать вы будете тщательно, потому что от этого зависит результат.
То же самое и с ядром. Чтобы оно работало даже на начальном уровне, хорошо бы, чтобы в нём было хотя бы сто ключей. И если в ядро вписывать что попало, лишь бы побольше, результат будет гарантированно провальный.
Общие правила построения семантического ядра
Один запрос - одна страница. Вы должны понимать, на какую одну страницу нужно отправить пользователя по каждому запросу. Нельзя делать так, чтобы на один запрос приходилось несколько страниц: возникает внутренняя конкуренция и качество продвижения резко падает.
Пользователь получает предсказуемый контент по своему запросу. Если клиент ищет способы доставки в свой регион, не отправляйте его на главную страницу сайта, если там этого нет. Иногда бывает так, что после составления ядра становится понятно, что нужно создавать новые страницы под поисковые запросы. Это нормально и обычная практика.
Ядро содержит все виды запросов (ВЧ, СЧ, НЧ). Про частотность - ниже. Просто держите в голове это правило, когда будете читать материал дальше. Проще говоря, вы должны распределить эти запросы по конкретным страницам своего сайта.
Пример таблицы распределения ядра по страницам сайта.
Способы сбора ядра
Неправильно: копировать у конкурентов
Способ, когда времени и денег нет, а ядро хоть как-то собрать нужно. Находим несколько своих прямых конкурентов, чем круче - тем лучше, а потом используем, например, spywords.ru , чтобы получить список ключей. Делаем так со всеми, объединяем запросы, выкидываем дубли - и получаем базу, от которой можно уже хоть как-то отталкиваться.
Минусы такого подхода очевидны: не факт, что вам нужно продвигаться по тем же самым запросам; разбор и приведение в порядок такого ядра может занять уйму времени.
Иногда бывает так, что даже у одинаковых конкурентов есть своя специфика в запросах, которую они учитывают, а вы нет. Или они делают упор на одно, а вы этим совсем не занимаетесь - ключи работают в пустоту и снижают рейтинг.
С другой стороны, чтобы привести в нормальный вид такую базу, нужно много времени, сил, а иногда и денег на оплату такого труда. Когда начинаешь считать экономику (а это нужно делать всегда в маркетинге), то часто понимаешь, что затраты на создание своего ядра с нуля будут такими же, или даже меньше.
Мы не рекомендуем использовать этот метод, если только у вас не полная катастрофа с проектом и нужно уже хоть как-то запуститься. Всё равно после запуска придётся почти всё переделывать, и работа окажется бесполезной.
Правильно: сделать самим семантическое ядро с нуля
Для этого полностью изучаем сайт, понимаем, какую аудиторию мы хотим привлечь, с какими проблемами, требованиями и вопросами. Думаем, как нас будут искать, соотносим это с целевой аудиторией, корректируем цели, если нужно.
Такая работа занимает много времени, за день всё успеть нереально. По нашему опыту, минимальное время на сбор ядра - неделя, при условии, что человек будет работать полный рабочий день только над этим проектом. Помните, что семантическое ядро - фундамент продвижения. Чем точнее мы его составим, тем проще будет на всех остальных этапах.
Есть одна опасность, про которую новички забывают. Семантическое ядро - это не та вещь, которая делается один раз и на всю жизнь. Над ним постоянно идёт работа, меняется бизнес, запросы и ключевики. Что-то исчезает, что-то устаревает, и всё это нужно сразу отражать в ядре. Это не значит, что можно сначала сделать плохо, раз потом всё равно доделывать. Это значит, что чем точнее ядро - тем быстрее можно в него вносить изменения.
Такая работа изначально стоит дорого даже внутри компании (если не заказывать СЯ внешней фирме), потому что требует квалификации, понимания того, как работает поиск, и полного погружения в проект. Ядром нельзя заниматься в свободное время, это должно стать основной задачей сотрудника или отдела.
Частота запросов показывает, как часто ищут такое слово или фразу в месяц. Формальных критериев для разделения по частотности нет, всё зависит от отрасли и профиля.
Например, фраза «купить телефон в кредит» имеет 7764 запроса в месяц. Для рынка телефонов это среднечастотный запрос. Есть то, что спрашивают намного чаще: «купить телефон» - больше миллиона запросов, высокочастотный запрос. И есть то, что спрашивают гораздо реже: «купить телефон в кредит через интернет» - всего 584 запроса, низкочастотный.
А фраза «купить бурильную установку» имеет всего 577 показов, но считается высокочастотным запросом. Это даже меньше, чем низкочастотный запрос из нашего предыдущего примера. Почему так?
Дело в том, что рынок телефонов и бурильных установок в штучном измерении отличается в тысячи раз. И количество потенциальных клиентов отличается во столько же. Поэтому то, что для одних много, для других - очень мало. Всегда нужно смотреть на объём рынка и знать примерно общее количество потенциальных клиентов в том регионе, где работаете.
Деление запросов по относительной частотности в месяц
Высокочастотные. Их нужно вписывать в метатеги каждой страницы сайта вообще, и использовать для общего продвижения сайта. Конкурировать по ВЧ-запросам крайне сложно, проще просто быть «в тренде» - это бесплатно. В любом случае включайте их в ядро.
Среднечастотные. Это те же высокочастотные, но сформулированные чуть точнее. По ним идёт не такая жёсткая конкуренция в блоке контекстной рекламе, как с ВЧ, поэтому их уже можно использовать для продвижения за деньги, если позволяет бюджет. Такие запросы уже могут приводить целевой трафик вам на сайт.
Низкочастотные. Рабочая лошадка продвижения. Именно НЧ-запросы дают основную долю трафика при грамотной настройке. По ним можно свободно давать рекламу, оптимизировать под них страницы сайта или даже делать новые, если без этого не обойтись. Хорошее СЯ примерно на 3/4 состоит из таких запросов и постоянно расширяется за счёт них.
Сверхнизкочастотные. Самые редкие, но самые конкретные запросы, например «купить телефон ночью в Твери в кредит». С ними редко кто работает при составлении, поэтому конкуренции практически нет. У них есть минус - их действительно очень редко спрашивают, а времени они занимают столько же, как и остальные. Поэтому ими есть смысл заниматься, когда вся основная работа уже сделана.
Виды запросов в зависимости от назначения
Информационные. Их используют, чтобы узнать что-то новое или получить информацию по теме. Например: «как выбрать банкетный зал» или «какие бывают ноутбуки». Все подобные запросы должны вести в информационные разделы: блог, новости или подборки по темам. Если видите, что набирается много информационных запросов, а закрывать их на сайте нечем, то это повод сделать новые разделы, страницы или статьи.
Транзакционные. Транзакция = действие. Купить, продать, поменять, получить, доставить, заказать и так далее. Чаще всего такие запросы закрываются страницами конкретных товаров или услуг. Если у вас большинство транзакционных вопросов высоко- или среднечастотные - снижайте частотность и уточняйте запросы. Это позволит вам точно направлять людей на нужные страницы, а не оставлять их на главной без конкретики.
Прочие. Запросы без ярко выраженного намерения или действия. «Красивые шары» или «лепка поделок из глины» - про них нельзя сказать конкретно, зачем человек это спросил. Может, он хочет это купить. Или узнать технологию. Или почитать подробнее, как это делать. Или ему нужно, чтобы кто-то это сделал за него. Непонятно. С такими запросами нужно работать аккуратно и тщательно вычищать от мусорных ключей.
Для продвижения коммерческого сайта, в основном, надо использовать транзакционные запросы, а информационных избегать - по ним поисковая система показывает информационные порталы, википедию, сайты агрегаторы. А с ними конкурировать по продвижению практически нереально.
Мусорные ключи
Иногда в запросы попадают слова или фразы, которые не относятся к вашей отрасли или вы просто этим не занимаетесь. Например, если вы делаете сувениры только из хвойных пород дерева, вам не нужен, скорее всего, запрос «сувениры из бамбука». Получается, что «бамбук» - мусорный элемент, который засоряет ядро и мешает чистоте поиска.
Такие ключи мы собираем в отдельный список, они нам пригодятся для контекстной рекламы. Мы указываем их как то, что искать не нужно, и тогда по запросу «сувениры из сосны» наш сайт будет в выдаче, а по запросу «сувениры из бамбука» - нет.
То же самое делаем по всему ядру - находим то, что не относится к профилю, убираем из СЯ и заносим в отдельный список.
Каждый запрос состоит из трёх частей: спецификатор, тело и хвост.
Общий принцип такой: тело задаёт предмет поиска, спецификатор - то, что нужно сделать с этим предметом, а хвост - уточняет весь запрос.
Комбинируя разные спецификаторы и хвосты для запросов, можно получить много подходящих вам ключевиков, которые войдут в ядро.
Поэтапная сборка ядра с нуля
Самое первое, что можно сделать - просмотреть все страницы своего сайта и выписать все названия товаров и устойчивые словосочетания товарных групп. Для этого смотрим на заголовки категорий, разделов и основных характеристик. Всё будем записывать в Экселе, пригодится на следующих этапах.
Например, если у нас магазин канцтоваров, получим следующее:
Затем добавляем характеристики к каждому запросу - наращиваем «хвост». Для этого выясняем, какими свойствами обладают эти товары, что ещё можно про них сказать, и записываем их в отдельный столбец:
После этого, добавляем «спецификаторы»: глаголы действия, которые относятся к нашей теме. Если, например, у вас магазин, то это будет «купить», «заказать», «в наличии» и так далее.
Собираем из этого в Экселе отдельные фразы:
Собираем расширения
Разберём три характерных инструмента для сбора ядра - два бесплатных и платный.
Бесплатный. Вбиваем в него нашу фразу, получаем список того, что похоже на наш запрос. Внимательно в него смотрим и выбираем то, что нам подходит. Так прогоняем всё, что у нас получилось на первом этапе. Работа долгая и нудная.
В результате у вас будет семантическое ядро, которое максимально точно отражает содержание вашего сайта. С ним уже можно полноценно работать дальше при продвижении.
При поиске слов ориентируйтесь на тот регион, где продаёте товар или услуги. Если вы работаете не по всей России, переключитесь в режим «по регионам» (сразу под строкой поиска). Это позволит получить точную картину запросов в нужном вам месте.
Учитывайте историю запросов. Спрос - не статичен, про что многие забывают. Например, если в конце января поискать запрос «купить цветы», может показаться, что цветами почти никто не интересуется - всего сотня-другая запросов. Зато если поискать это же в начале марта, картина полностью другая: тысячи пользователей ищут такое. Поэтому, помните про сезонность.
Тоже бесплатный, помогает найти и подобрать ключевые слова, спрогнозировать запросы и даёт статистику по эффективности.
Key Collector. Программа - настоящий комбайн, который может сделать 90% всей работы по сбору семантического ядра. Но платная - почти 2000 рублей. Ищет ключи по многим источникам, смотрит на рейтинги и запросы и собирает аналитику по ядру.
Основные возможности программы:
сбор ключевых фраз;
определение стоимости и ценности фраз;
определение релевантных страниц;
Всё, что она умеет, можно сделать бесплатно, используя несколько бесплатных аналогов, но это займёт в разы больше времени. Автоматизация - конёк этой программы.
На выходе вы получаете не только семантическое ядро, но и полную аналитику и рекомендации по улучшению.
Убираем мусорные ключи
Теперь нужно почистить наше ядро, чтобы сделать его ещё эффективнее. Для этого используем Key Collector (он сделает это автоматически), или ищем мусор вручную в экселе. На этом этапе нам понадобится тот список из ненужных, вредных или лишних запросов, который мы составили раньше
Удаление мусора и ключей можно автоматизировать
Группируем запросы
Теперь после сбора все найденные запросы нужно сгруппировать. Это делается для того, чтобы ключевики, близкие друг к другу по смыслу, отнести к одной странице, а не размывать по разным.
Для этого объединяем похожие по смыслу запросы, ответы на которые нам даёт одна и та же страница, и рядом пишем, куда они относятся. Если такой страницы нет, но запросов в группе много, скорее всего, имеет смысл создать новую страницу или даже раздел на сайте, куда и отправлять всех по таким запросам.
Пример группировки, опять же, можно посмотреть в нашей рабочей таблице.
Используйте все программы автоматизации, до которых сможете дотянуться. Это здорово экономит время на построения ядра.
Не собирайте на одной странице информационные и транзакционные запросы.
Чем больше НЧ-запросов в текстах - тем лучше. Но не увлекайтесь, не превращайте текст на сайте в нечто, понятное только роботом. Помните, что живые люди тоже вас будут читать.
Делаете периодически чистку и обновление ядра. Следите за тем, чтобы информация в семантическом ядре была всегда актуальной и отражала текущее положение. Иначе вы будете тратить деньги на то, что не сможете в итоге дать своим клиентам.
Помните о пользе. В погоне за поисковым трафиком не забывайте, что люди приходят из разных источников, а остаются там, где интересно. Если у вас всё время актуальное ядро и при этом текст на страницах написан человеческим, понятным и интересным языком - вы всё делаете правильно.
Напоследок - ещё раз сам алгоритм построения ядра:
1. находим все ключевые слова и фразы
2. чистим их от мусорных запросов
3. группируем запросы по смыслу и сопоставляем со страницами сайта.
Хотите заняться продвижением сайта, но понимаете, что собирать семантическое ядро - долго? Или не хотите разбираться во всех нюансах, а просто получить результат? Пишите на , и мы подберём для вас оптимальный вариант продвижения вашего сайта.
Семантическое ядро сайта представляет собой ключевые слова (запросы) , которые используют пользователи в интернете для поиска услуг, товаров и любой другой информации, которую предлагает данный сайт. Для веб-мастеров, это план действий по продвижению ресурса. В идеальном плане семантическое ядро сайта создается один раз, перед тем, как начать оптимизацию и продвижение.
Семантическое ядро сайта составляется обычно в несколько этапов:
- Подбираются всевозможные слова (фразы) подходящие по теме сайта. Вначале можно ограничиться 100 – 200 поисковыми запросами. Для того чтобы знать какие запросы вам подходят, ответьте себе на вопрос «Чему я хочу посвятить свой сайт?»
- Расширение семантического ядра за счет ассоциативных запросов
- Следует отсеять неподходящие слова. Тут вы отсеиваете те фразы, по которым вы не будете продвигать ваш сайт. Таких слов обычно находится больше половины.
- Отсеиваются высококонкурентные запросы, по которым продвигать сайт нет смысла. Как правило, убирается три слова из пяти или более.
- И последнее, это правильное распределение списка поисковых запросов на страницах ресурса. Рекомендуется высококонкурентные запросы оставлять на главной странице ресурса, менее конкурентные необходимо группировать по смыслу и располагать на других страницах. Для этого нужно создать в Exel документ и разбить ключевые слова по страницам.
Подбор поисковых запросов и проверка частотности
Первое, что нужно сделать, это собрать как можно больше всевозможных запросов по вашей теме, которые интересуют пользователей в Сети. Для этого существует два метода:
- Бесплатные, в которые входят: Wordstat Yandex, Словоеб, дедовский способ, подсказки от Google (External Keyword Tool), анализ семантики конкурентов и поисковые подсказки.
- Платные которые включают Key Collector, Semrush, базы Пастухова и некоторые другие сервисы.
Данные инструменты подходят для различных целей (к примеру, Semrush лучше использовать для буржунета). Конечно, это все можно доверить оптимизаторам, но присутствует вероятность того, что вам составят неполное семантическое ядро.
Многие пользуются для сбора ключевых фраз базу Пастухова, но с Key Collector намного удобнее собирать запросы с сервисов статистики Яндекса и Гугла .
На начальном этапе сбор запросов лучше сделать в Excel, это выглядит так:
Если для вашего ресурса важнее будет Google, то акцент делайте на него, но также учитывайте и анализируйте ключевые слова из Яндекса. Еще очень важно собрать длинный хвост низкочастотных запросов, по ним вы получите трафик намного быстрее.
Можно воспользоваться и еще одним вариантом, это узнать ключевые фразы (слова) у конкурентов и воспользоваться ими. На этом этапе вы просто собираете как можно больше ключевых фраз (слов) подходящих по теме вашего ресурса, а затем переходите к следующему этапу – фильтрации.
Анализ запросов, удаление "пустышек"
Этот этап уже проще, здесь надо отфильтровать слова пустышки и те, что не связаны с тематикой сайта. К примеру, у вас доставка обедов в Киеве, а в списке присутствуют другие города.
Как определить пустые запросы? Зайдите в Яндекс Вордстат и введите ключевое слово:
Вы видите 881 показов в месяц, но если точнее определить:
Теперь вырисовывается совсем иная картина. Может это и не лучший пример, но главное, чтобы вы поняли суть. Есть большое число ключевых фраз, по которым виден достаточный трафик, хотя на самом деле там все отсутствует. Вот поэтому нужно и отсеять такие фразы.
К примеру, если человек перед тем (либо после того) как набрать запрос «доставка обедов» прописывал в поисковой строке еще какую-либо фразу (называется одна сессия поиска), то Yandex делает предположение, что эти фразы поиска как-то взаимосвязаны. Если такая взаимосвязь наблюдается у нескольких человек, то такие ассоциативные запросы показываются в правой колонке wordstat.
Такие поисковые запросы сортируются в окошке wordstat в порядке убывания частотности их ввода в связке с основным запросом в этом месяце (показывается частота их употребления в поисковике Яндекса). Вам надо воспользоваться такой информацией, чтобы расширить семантическое ядро вашего ресурса.
Распределение запросов по страницам
После этого необходимо распределить собранные вами ключевые слова (фразы) на страницах вашего сайта. Распределение проводить намного проще, когда у вас еще нет самих страниц.
Ориентируйтесь, прежде всего, на ключевые слова в поисковых запросах и их частотность. С конкурентностью следует поступить так: главную страницу выделите для одного-двух высококонкурентных запросов.
Для среднеконкурентных или низкоконкурентных запросов, оптимизируйте соответственно страницы разделов и статей.
Если в поисковых запросах присутствует семантическое сходство, просто соберите одинаковые фразы и определите их в одну группу. При составлении ключевых слов для продвижения ресурса всегда используйте не только стандартные инструменты, но и творческий подход.
Сочетая нестандартные и классические способы можно просто и быстро создать семантическое ядро сайта, подобрать наиболее оптимальную стратегию раскрутки и намного быстрее достигнуть успеха!
В 2008 году я создал свой первый интернет-проект.
Это был интернет-магазин электроники, который требовал продвижения.
Изначально работу по раскрутке передал программистам, создавшим его.
А что продвигать?
Список ключей составил им за 5 минут: мобилки, видеокамеры, фотоаппараты, айфоны, самсунги — все категории и товары на сайте.
Это были общие названия, которые совершенно не были похожи на правильно составленное семантическое ядро.
Длительный период прошел без результатов.
Непонятные отчеты заставили искать исполнителей, специализирующихся на продвижении сайтов.
Нашел местную компанию, поручил им проект, но и тут все без толку.
Тогда пришло понимание, что продвижением должны заниматься настоящие профессионалы.
Перечитав много отзывов, нашел одного из лучших фрилансеров, который заверил в успехе.
Через полгода снова нет результатов.
Именно отсутствие результатов в органике на протяжении двух лет привело меня в SEO.
Впоследствии это стало основным призванием.
Теперь я понимаю, что было не так в моем первичном продвижении.
Эти ошибки повторяет основная масса даже опытных SEO-специалистов, которые не один год потратили на продвижение сайтов.
Промахи заключались в неправильной работе с ключевыми словами.
По сути, не было понимания, что мы продвигаем.
Нет времени на сбор семантического ядра, заполните быстро контактные данные.
(11 )
В этом посте мы расскажем полный алгоритм сбора семантического ядра преимущественно для информационного сайта, но данный подход можно применять и для коммерческих сайтов.
Первоначальная семантика и создание структуры сайта
Подготовка слов для парсинга и первоначальная структура сайта
Перед тем как начать парсить слова, нам надо знать их. Поэтому нам надо составить первоначальную структуру нашего сайта и начальные слова для парсинга (их еще называют маркерами).
Первоначальную структуру и слова вы можете посмотреть:
1. Используя логику, слова из головы (если вы понимаете в теме).
2. У своих конкурентов, которых вы проанализировали при выборе ниш или введя ваш основной запрос.
3. Из википедии. Обычно это выглядит вот так:
4. Смотрим wordstat по вашим основным запросам и правую колонку.
5. Другие тематические книги и справочники.
Например, тема нашего сайта – болезни сердца. Понятно, что у нас в структуре обязательно должны быть все болезни сердца.
Вам не обойтись без медицинского справочника. Я бы не стал смотреть конкурентов, потому что у них могут быть представлены не все заболевания, скорее всего они не успели их охватить.
И ваши начальные слова для парсинга будут именно все болезни сердца, а уже исходя из ключей, которые мы напарсим, вы будете строить структуру сайта, когда начнете их группировать.
К тому же вы можете взять все препараты для лечения сердца, как расширение темы и т.д. Вы смотрите википедию, рубрики у конкурентов на сайте, wordstat, думаете логически и таким способом находите еще маркерные слова, которые будете парсить.
Структура сайта
Вы можете смотреть конкурентов для общего ознакомления, но не всегда вы должны делать структуру как у них. Вы должны исходить в большей степени из логики вашей целевой аудитории, они же вводят запросы, которые вы парсите у поисковиков.
Например, как поступить? Перечислить все болезни сердца, а от них уже вести симптомы, лечение. Или все-таки сделать рубрики симптомы, лечение, а от них уже вести болезни. Эти вопросы обычно решаются при группировке ключевых слов исходя из данных поисковых систем. Но не всегда, иногда вам придется делать выбор самостоятельно и решать, как сделать структуру наилучшей, потому что запросы могут пересекаться.
Вы должны всегда помнить, что структура создается на протяжении всего сбора семантики и иногда в первоначальном виде она состоит из нескольких рубрик, а уже при дальнейшей группировке и сборе она расширяется, так как вы начинаете видеть запросы и логику. А иногда вы сможете её составить и сразу не парся ключевые слова, потому что знаете хорошо тематику или она отлично представлена у конкурентов. Никакой системы по составлению структуры сайта нет, можно сказать это лично ваше творчество.
Структура может быть вашей индивидуальной (отличающейся от конкурентов), но обязательно она должна быть удобной для людей, отвечать их логике, а значит логике и поисковых систем и такой, чтобы можно было охватить все тематические слова в вашей нише. Она должна быть лучшей и удобной!
Думайте наперед. Бывает такое что берете нишу, а потом вам охота ее расширить, и вы начинаете менять структуру всего сайта. А созданную структуру на сайте, очень сложно и муторно менять. В идеале вам надо будет поменять урлы вложения и все это переклеить на самом сайте. Короче, это жесть какая нудная и очень ответственная работа, так что сразу определяйтесь окончательно по мужски, что и как у вас должно быть!
Если вы очень плохо знакомы с тематикой создаваемого сайта и не знаете, как будет строиться структура, не знаете какие начальные слова для парсинга взять, то 1 и 2 этап сбора вы можете менять местами. То есть сначала пропарсить конкурентов (как их парсить разберем ниже), посмотреть их ключи, на основе этого составить структуру и начальные слова для парсинга, а потом уже парсить wordstat, подсказки и т.д.
Для составления структуры я использую майнд менеджер - Xmind . Он бесплатен и в нем есть все основное.
Простенькая структура выглядит вот так:
Это структура коммерческого сайта. Обычно в информационных сайтах нет пересечений и всяких фильтров карточек товаров. Но и эта структура не сложная, составлялась для клиента, чтобы он понял. Обычно мои структуры состоят из множество стрелок и пересечений, комментариев - в такой структуре могу разобраться только я сам.
Можно ли создавать семантику по ходу наполнения сайта?
Если семантика легкая, вы уверены в теме и знаете её, то можно делать семантику параллельно с наполнением сайта. Но первоначальную структуру надо накидать обязательно. Я сам иногда такое практикую в очень узких нишах или в очень широких, чтобы не тратить много времени на сбор семантики, а сразу запускать сайт, но всё-таки не советовал бы так делать. Вероятность ошибок очень большая, если у вас нет опыта. Все-таки легче, когда вся семантика готова, вся структура готова и все разгруппировано и понятно. К тому же в готовой семантике вы видите каким ключам надо уделить первостепенное внимание, которые не имеют конкуренцию и принесут больше посетителей.
Еще здесь надо отталкивать от размера сайта, если ниша широкая, то нет смысла собирать семантику, лучше ее делать по ходу, потому что на сбор семантике может уйти месяц и более.
Так вот мы накидали первоначально структуру или не накидали, решили идти вторым этапом. У нас есть список начальных слов или фраз нашей тематики, которые мы можем начать парсить.
Парсинг и работа в keycollector
Для парсинга конечно же использую keycollector . Я не буду останавливаться на настройке keycollectora, вы можете почитать хелп этой программы или найти статьи по настройке в интернете, их очень много и там все подробно расписано.
При выборе источников парсинга стоит рассчитывать свои трудозатраты и их эффективность. Например, если вы будете парсить базу Пастухова или MOAB, то вы закапаетесь в куче мусорных запросов, которые надо будет отсеивать, а это время. И по моему мнению, это того не стоит, чтобы найти парочку каких-то запросиков. На тему баз есть очень интересное исследование от RushAnalytics, конечно же они там хвалят себя, но если на это не обращать внимание, весьма интересные данные по процентам плохих ключевых слов http://www.rush-analytics.ru/blog/analytica-istochnikov-semantiki
На первом этапе я парщу wordstat, adwords, их подсказки и использую базу ключевых слов Букварикс (десктопная версия бесплатна). Так же раньше просматривал подсказки из Youtube вручную. Но недавно keycollector добавил возможность их парсить, и это прелестно. Если вы полный извращенец, то можете сюда добавить другие базы ключевых слов.
Запускаете парсинг и понеслось.
Чистка семантического ядра для информационного сайта
Мы спарсили запросы и у нас получился список различных слов. В нем конечно же присутствуют нужные слова, а так же и мусорные – пустые, не тематические, не актуальные и т.д. Поэтому их надо почистить.
Ненужные слова я не удаляю, а перемещаю их в группы, потому что:
- Они в дальнейшем могут стать пищей для размышления и приобрести актуальность.
- Исключаем вероятность случайного удаления слов.
- При парсинге или добавление новых фраз, они не будут добавляться, если поставить галочку.
Я иногда забывал её ставить, поэтому настраиваю парсинг в одной группе и парсю ключи только в ней, чтобы сбор не дублировался:
Вы можете работать так или так, кому как удобно.
Сбор частотностей
Собираем у всех слов через direct, базовую частотность [W] и точную [“!W”].
Все что не собралось, дособираем через wordstat.
Чистка однословников и не формат
Фильтруем по однословникам, смотрим их и убираем не нужные. Есть такие однословники по которым нет смысла продвигаться, они не однозначные или дублируют другой однословный запрос.
Например, у нас тематика - болезни сердца. По слову “сердце” нет смысла продвигаться, не понятно, что человек имеет ввиду - это слишком широкий и неоднозначный запрос.
Так же смотрим, по каким словам не собралась частотность – это либо в словах содержатся спец символы, либо слов в запросе более 7. Переносим их в неформат. Малая вероятность что такие запросы вводят люди.
Чистка по общей и точной частотности
Все слова с общей частотностью [W] от 0 до 1 убираем.
Так же убираю и все от 0 до 1 по точной частотностью [”!W”].
Разношу их по разным группам.
В дальнейшем в этих словах можно найти нормальные логические ключевые слова. Если ядро маленькое, то можно сразу вручную все слова с нулевой частотностью пересмотреть и оставить, которые как вам кажется вводят люди. Это поможет охватить тематику полностью и возможно, по таким словам будут переходить люди. Но естественно эти слова надо использовать в последнюю очередь, потому что по ним большого трафика точно не будет.
Значение от 0 до 1 тоже берется исходя от тематики, если ключевых слов много, то можно фильтровать и от 0 до 10. То есть все зависит от широты вашей тематики и ваших предпочтений.
Чистка по полноте охвата
Теория здесь такова: например, есть слово – “форум”, его базовая частотность составляет 8 136 416, а точная частотность 24 377, как видим отличие более чем в 300 раз. Поэтому можно предположить, что данный запрос пустой, он включает очень много хвостов.
Поэтому, по всем словам, я рассчитываю, такое KEI:
Точная частотность / Базовая частотность * 100% = полнота охвата
Чем меньше процент, тем больше вероятность что слово пустое.
В KeyCollector эта формула выглядит вот так:
YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01) * 100
Здесь тоже все зависит от тематики и количества фраз в ядре, поэтому можно убирать полноту охвата меньше 5%. А где ядро большое то можно не брать и 10-30%.
Чистка по неявным дублям
Чтобы почистить неявные дубли, нам необходимо по ним собрать частотность Adwords и ориентироваться по ней, потому что она учитывает порядок слов. Экономим ресурсы, поэтому будем собирать этот показатель не у всего ядра, а только у дублей.
Таким способом мы нашли и отметили все не явные дубли. Закрываем вкладку - Анализ неявных дублей. Они у нас отметились в рабочей группе. Теперь отобразим только их, потому что съем параметров происходит только тех фраз, которые у нас показаны в группе на данный момент. И только потом запускаем парсинг.
Ждем, когда Adwords снимет показатели и заходим в анализ неявных дублей.
Выставляем вот такие параметры умной групповой отметки и нажимаем – выполнить умную проверку. Таким способом у нас в группе дублей не отметятся только самые высокочастотные запросы по Adwords.
Все дубли лучше конечно еще пробежаться и глянуть вручную, вдруг там что-то выставилось не так. Особенно уделить внимание группам, где нет показателей частотности, там дубли отмечаются случайно.
Все что вы отмечаете в анализе неявных группах, это проставляется и в рабочей группе. Так что после завершения анализа, просто закрываете вкладку и переносите все отмеченные неявные дубли в соответствующую папку.
Чистка по стоп словам
Стоп слова я тоже делю на группы. Отдельно заношу города. Они могут пригодится в дальнейшем, если мы надумаем делать каталог организаций.
Отдельно заношу слова содержащие в себе слова фото, видео. Вдруг они когда-нибудь пригодятся.
А так же, “витальные запросы”, например википедия, отношу сюда и форум, а так же в мед теме сюда могут относится – малышева, комаров и т.д.
Все так же зависит от тематики. Можно еще делать отдельно и коммерческие запросы – цена, купить, магазин.
Получается вот такой список групп по стоп словам:
Чистка накрученных слов
Это касается конкурентных тематик, их частенько накручивают конкуренты, чтобы ввести вас в заблуждение. Поэтому необходимо собрать сезонность и отсеять все слова с медианой равной 0.
А так же, можно глянуть соотношение базовой частотности к средней, большая разница может тоже указывать на накрутку запроса.
Но надо понимать, что эти показатели могут говорить и о том, что это новые слова по которым только недавно появилась статистика или они просто сезонные.
Чистка по гео
Обычно проверка по гео для информационных сайтов не требуется, но на всякий случай распишу этот момент.
Если есть сомнения, что часть запросов геозависимые, то лучше это проверить через сбор Rookee, он хоть бывает и ошибается, но намного реже чем проверка этого параметра по Яндексу. Потом после сбора Rookee стоит проверить все слова вручную, которые указались как геозависимые.
Ручная чистка
Теперь наше ядро стало в несколько раз меньше. Пересматриваем его в ручную и убираем ненужные фразы.
На выходе получаем вот такие группы нашего ядра:
Желтый - стоит покопаться, можно найти слова на будущее.
Оранжевый - могут пригодиться, если будем расширять сайт новыми сервисами.
Красный - не пригодятся.
Анализ конкуренции запросов для информационных сайтов
Собрав запросы и почистив их теперь нам надо проверить их конкуренцию, чтобы понимать в дальнейшем - какими запросами надо заниматься в первую очередь.
Конкуренция по количеству документов, title, главных страниц
Это все легко снимается через KEI в KeyCollector.
Получаем данные по каждому запросу, сколько документов найдено в поисковой системе, в нашем пример в Яндексе. Сколько главных страниц в выдаче по этому запросу и вхождений запроса в заголовок.
В интернете можно встретить различные формулы расчета этих показателей, даже вроде в свежем установленном KeyCollector по стандарту встроена какая-то формула расчета KEI. Но я им не следую, потому что надо понимать что каждый из этих факторов имеет разный вес. Например, самый главный, это наличие главных страниц в выдаче, потом уже заголовки и количество документов. Навряд ли эту важность факторов, как то можно учесть в формуле и если все-таки можно то без математика не обойтись, но тогда уже эта формула не сможет вписаться в возможности KeyCollector.
Конкуренция по биржам ссылок
Здесь уже интереснее. У каждой биржи свои алгоритмы расчета конкуренции и можно предположить, что они учитывают не только наличие главных страниц в выдаче, но и возраст страниц, ссылочную массу и другие параметры. В основном эти биржи конечно же рассчитаны на коммерческие запросы, но все равно более менее какие то выводы можно сделать и по информационным запросам.
Собираем данные по биржам и выводим средние показатели и уже ориентируемся по ним.
Я обычно собираю по 2-3 биржам. Главное чтобы все запросы были собраны по одним и тем же биржам и выведено среднее число только по ним. А не так, что какие то запросы собрали одними биржами, а другие другими и вывели среднее.
Для более наглядного вида можно применить формулу KEI, которая покажет стоимость одного посетителя исходя из параметров бирж:
KEI = AverageBudget / (AverageTraffic +0.01)
Средний бюджет по биржам делить на средний прогноз трафика по биржам, получаем стоимость одного посетителя исходя из данных бирж.
Конкуренция по мутаген
Его нет в keycollector, но это не помеха. Без проблем все слова можно выгрузить в Excel, а потом прогнать через KeyCollector.
Чем же лучше Keyso? У него больше база по сравнению с конкурентами. Она у него чистая, нет фраз которые дублируются и пишутся в разном порядке. Например, вы не найдете там таких повторяющихся ключей “диабет 1 типа”, “1 типа диабет”.
Так же Keyso умеет палить сайты с одним счетчиком Adsense, Analytics, Leadia и др. Вы можете увидеть какие еще есть сайты, у владельца анализируемого сайта. Да, и вообще по поиску сайтов конкурентов, считаю это лучшее решение.
Как работать с Keyso?
Берем один любой сайт своего конкурента, лучше конечно побольше, но не особо критично. Потому что мы будем работать в две итерации.Вводим его в поле. Жмакаем - анализировать.
Получаем информацию по сайту, нам здесь интересны конкуренты, жмем открыть всех.
У нас открываются все конкуренты.
Это все сайты, у которых хоть как-то пересекаются ключевые слова с нашим анализируемым сайтом. Здесь будет youtube.com, otvet.mail.ru и т.д., то есть крупные порталы, которые пишут обо всем подряд. Нам они не нужны, нам нужны сайты чисто только по нашей тематике. Поэтому мы их фильтруем по следующим критериям.
Похожесть – процент общих ключей от общего числа данного домена.
Тематичность – количество ключей нашего анализируемого сайта в ключах домена конкурента.
Поэтому пересечение этих параметров уберет общие сайты.
Ставим тематичность 10, похожесть 4 и смотрим, что у нас получится.
Получилось 37 конкурентов. Но все равно еще их проверим вручную, выгрузим в Excel и если надо уберем не нужные.
Теперь переходим на вкладку групповой отчет и вводим всех наших конкурентов, которых мы нашли выше. Жмем – анализировать.
Получаем список ключевых слов этих всех сайтов. Но мы еще полностью не раскрыли тематику. Поэтому мы переходим в конкуренты группы.
И теперь мы получаем всех конкурентов, тех всех сайтов которые мы ввели. Их в несколько раз больше и здесь так же много общетематических. Фильтруем их по похожести, допустим 30.
Получаем 841 конкурента.
Здесь мы можем посмотреть, сколько страниц у этого сайта, трафика и сделать выводы, какой же конкурент самый эффективный.
Экспортируем всех их в Excel. Перебираем руками и оставляем только конкурентов нашей ниши, можно отметить самых эффективных товарищей, чтобы потом оценить их и глянуть какие у них есть фишки на сайт, запросы дающие много трафика.
Теперь мы опять заходим в групповой отчет и добавляем уже всех найденных конкурентов и получаем список ключевых слов.
Здесь мы можем список сразу фильтрануть по “!wordstat” Больше 10.
Вот они наши запросы, теперь мы можем их добавить в KeyCollector и указать, чтобы не добавлялись фразы, которые есть уже в любой другой группе KeyCollector.
Теперь мы чистим наши ключи, и расширяем, группируем наше семантическое ядро.
Услуги по сбору семантического ядра
В данной отрасли можно найти не мало организаций, которые готовы предложить вам услуги по кластеризации. Например, если вы не готовы тратить время на то, чтобы самостоятельно изучить тонкости кластеризации и выполнить ее собственными руками, то можно найти множество специалистов, готовых выполнить эту работу.
Yadrex
Одна из первых на рынке, кто начал использовать искусственный интеллект для создания сематического ядра. Руководитель компании сам профессиональный вебмастер и специалист по SEO технологиям, поэтому он гарантирует качество работы своих сотрудников.
Кроме того, вы можете позвонить по указанным телефонам, чтобы получить ответы на все интересующие вас вопросы относительно работы.
Заказывая услуги, вы получите файл, где будут указаны группы содержания ядра и его структура. Дополнительно вы получаете структуру в mindmup.
Стоимость работы варьируется в зависимости от объема, чем больше объем работы, тем дешевле стоимость одного ключа. Максимальная стоимость для информационного проекта будет 2,9 рублей за один ключ. Для продающего 4,9 рублей за ключ. При большом заказе предоставляются скидки и бонусы.
Заключение
На этом создание семантического ядра для информационного сайта завершено.
Советую вам мониторить историю изменений программы KeyCollector, потому что она постоянно дополняется новыми инструментами, например недавно был добавлен youtube для парсинга. С помощью новых инструментов, вы можете ещё больше расширить свое семантическое ядро.
Полезные материалы из блога по сбору ключей для семантики, кластеризации запросов и оптимизации страниц сайта.
Темы статей:
Семантическое ядро
Корректно составленное семантическое ядро способно отправить на ваш сайт только нужных пользователей, а неудачное - похоронить в недрах поисковой выдачи.
Работа с запросами, входящими в семантическое ядро (СЯ) состоит из сбора, очистки и кластеризации. Получив результаты группировки, нужно определить оптимальное место для каждого из них: на странице ресурса, в составе контента вашего сайта или сторонней площадки.
Как собирать ключи для СЯ
Кратко о важном: какими операторами пользоваться в Вордстате, чтобы смотреть нужные запросы, и как облегчить себе работу в сервисе.
Вордстат не дает абсолютно точной информации, в нем нет всех запросов, в данные могут быть искажены, потому что Яндексом пользуются не все потребители.Тем не менее, из этих данных можно сделать выводы о популярности темы или товара, приблизительно спрогнозировать спрос, собрать ключи и найти идеи для нового контента.
Можно искать данные, просто вбивая запрос в поиск по сервису, но для конкретизации запросов есть операторы - добавочные символы с уточнениями. Они работают на вкладках поиска по словам и по регионам, на вкладке с историей запросов можно использовать только оператор "+запрос".
В статье:
- Зачем нужен Вордстат
- Работа с операторами Вордстата
- Как читать данные Wordstat
- Расширения для Яндекс Вордстата
Стремимся в лидеры выдачи: как анализ статей из топа поможет в работе над контентом, по каким критериям проводить анализ и как сделать это быстрее и эффективнее.
Сложно отслеживать результаты ведения блога и публикации других текстов на сайте без детальной аналитики. Как понять, почему статьи конкурентов в топе, а ваши нет, хотя вы пишете лучше и талантливее?
В статье:
- Что обычно советуют
- Как проводить анализ
- Минусы подхода
- Преимущества анализа контента
- Инструменты
Как писать оптимизированные тексты
Какой контент получает больше ссылок и социальных сигналов? «Backlinko» в партнерстве с «BuzzSumo» проанализировали 912 миллионов постов из блогов: изучили длину статей, формат заголовков, социальные сигналы и обратные ссылки на статьи, и вывели рекомендации для контент-маркетинга. Мы перевели и адаптировали исследование.
В статье:
- Кратко выводы из исследования контента
- Новые знания о контент-маркетинге, подробно:
- Какой контент получает больше ссылок
- Какие тексты популярнее в соцсетях
- Обратные ссылки получить сложно
- Какие материалы собирают все репосты
- Как связано количество обратных ссылок и репостов
- Какие заголовки приносят больше репостов
- В какой день недели лучше публиковать контент
- Какой формат контента репостят чаще
- Какой формат контента получает больше ссылок
- Как генерирует ссылки и репосты B2B и B2C-контент