Парсер ключевых слов Key Collector.

Lasto's Abductor, Похититель буковок Lasto's Abductor, Похититель буковок

Парсер ключевых слов Key Collector.

Лично для меня самым универсальным и лучшим инструментом для парсинга ключевых слов является программа Key Collector.

При помощи неё можно не только напарсить ключевиков, но и отсеять кейворды-пустышки, котрые в реале не имеют запросов.

В Key Collector можно выставить глубину парсинга и количество страниц, что дает возможность набрать очень большую базу ключевых слов, и составить качественное семантическое ядро.

Также, помимо парсинга кеев, в этой программе имеется множество других полезных опций. Статистика LiveInternet, Web Effector, и т.д.

В общем, Key Collector - это незаменимая программа для любого вебмастера. К примеру, Вам требуется список ключевых слов по запросу "американские интернет магазины". Вам необходимо прописать это ключевое слово в программу, настроить ее, и начать парсинг. Через пару часов у вас будет порядка 10к ключевых слов, из которых можно выбрать необходимые для создания страниц, заточенных под кейворд.

Сбор ключевых слов, подробнее.

Если предполагается создавать семантическое ядро на обширное количество запросов, не связанных одной тематикой, я рекомендую сортировать ключевые слова на блоки. То есть, если заказчик продает велосипеды и скутеры, то лучше вынести эти слова в разные блоки. Тем самым мы значительно упростим свою работу в будущем. Подобные блоки лучше разносить по разным вкладкам в KeyCollector или даже создавать под них отдельные проекты.

Запускаем KeyCollector и парсим запросы.

  1. Соберем статистику Яндекс.Wordstat. Сначала всю левую колонку, затем, используя только что полученные ключевые слова, правую.

  2. Соберем ключевые слова из Adwords.

  3. Соберем слова из Rambler.Adstat. Вряд ли мы найдем тут какие-то новые ключевики, но статистика Рамблера поможет нам уже на более поздних этапах продвижения посчитать KEI и количество потенциальных переходов из поиска.

  4. Соберем поисковые подсказки из всех возможных поисковиков.

  5. Запустим инструмент подборки ключевых слов Rookee. Эта операция даст значительное количество новых слов для семантического ядра, жаль, что среди них будет очень много шлака, который придется потом вычищать руками (прошу прощение за тавтологию).

Все вышеперечисленное, повторяем несколько раз: то есть делаем так, чтобы каждое ключевое слово отработалось каждым возможным инструментом, встроенным в KeyCollector, на 100%.

Удаляем нецелевые запросы

Используем встроенный фильтр ключевых слов. Если вы когда-то имели дело с контекстной рекламой на достаточно профессиональном уровне, у вас обязательно найдется сотня-другая таких стоп-слов («бесплатно», «скачать», «форум», «инструкция», «фото» и т.п.). Плюс в каждой тематике существуют свои стоп-слова: например, «radeon драйвера», «asus прошивка» или «гарантийный ремонт».

Сюда же можно отнести и региональные привязки (в том случае, если семантическое ядро собирается для геозависимого сайта). Для этого я загружаю список городов (Россия + Украина + Беларусь; сюда же я добавил список московских районов: Бутово, Чертаново и т.д.) и стараюсь исключить фразы, содержащие названия нецелевых городов.

Для создания подобных фильтров в KeyCollector присутствует инструмент «Стоп-слова» — «Загрузить из файла» (естественно, текстовыми файлами со списком стоп-слов необходимо запастись заранее).

Как бы хорошо не были настроены фильтры стоп-слов, нам все равно придется просмотреть все собранные ключевые слова и фразы на предмет нецелевых запросов. Процесс долгий и утомительный, но необходимый. При условии, что на следующем шаге мы будем удалять слова с низкой частотностью, лучше проводить такой визуальный аудит ключевых слов после отсева сверхнизкочастотки.

Считаем частотность ключевых слов

Запускаем инструмент сбора частотности по Yandex.Wordstat. Далее все зависит от тематики будущего сайта. Например, для развлекательного портала слова с низкой частотностью можно просто выкинуть, но для коммерческого сайта, напротив, всю низкочастотку следует сохранить, чтобы продолжить работу с ней в будущем.

Кластеризуем семантическое ядро

Для этого создаем таблицу в Excel, OpenOffice Calc или в GoogleDocs. Если на первом шаге мы позаботились о разделении ключевых слов по тематикам, то каждая вкладка электронной таблицы будет представлять свой пул поисковых запросов. Такое разделение семантического ядра будет целесообразно, если клиент торгует различными видами продукции, логически не связанными друг с другом.

Теперь отсортируем ключевые слова в порядке убывания частотности по WordStat и разделим их условно на высокочастотные (ВЧ), среднечастотные (СЧ), низкочастотные (НЧ). Условно — потому что в каждой тематике свои понятия о частотности запроса.

Приоритетность ключевых слов

Я никогда не читал об этом в SEO-блогосфере, но активно использую сам.

Расстановка приоритетов поисковым фразам. Это некий показатель, который я прописываю собранным ключевым словам. Как вы думаете, каким образом мы должны расставить приоритеты? Чем больше частотность — тем выше приоритет? Ничего подобного.

Глупый оптимизатор увеличивает количество посетителей на сайте клиента, умный оптимизатор увеличивает количество продаж, мудрый увеличивает прибыль заказчика.

Например, интернет-магазину компьютерной техники выгоднее продать три навороченные видеокарты, чем сто дешевых мышек. Делаем выгрузку из 1С на предмет самых прибыльных позиций. Этим запросам и присваиваем наибольший приоритет.

Чем менее прибыльней ключевое слово, тем ниже его приоритет.
Частотность ключей тут ни при чём.

К нашей радости, такие слова чаще всего являются ВК или СК НЧ, которые продвинуть в ТОП будет не так сложно, как какой-нибудь конкурентный высокочастотник.

Список приоритетных ключевых слов мы вынесем в отдельный блок, с которым будем работать более глубоко, нежели с другими ключами.

Собственно, на этом сбор семантического ядра запросов закончен.

Поделиться статьёй с друзьями:

Другие статьи раздела "Парсинг контента":

  1. 06.02.13 Парсер контента от Google
  2. 04.02.13 Онлайн-сервис для генерации и синонимизации текстов.
  3. 03.02.13 А не купить ли статьи для сайта? Это не проще?
  4. 02.02.13 Вся правда про контент для сайта
  5. 30.01.13 Парсер ключевых слов Key Collector.
  6. 25.01.13 Обзор популярных парсеров контента.
  7. 23.01.13 Бесплатный контент для сайта
  8. 23.01.13 Самопальный парсер контента, идеи.
  9. 22.01.13 Мнение: Выбираем парсер x-parser.
  10. 21.01.13 Об индексации автопереводного контента.
Прыг: 01 02 03 04