Как ускорить сбор семантического ядра

Семантическое ядро

Приветствую, друзья. Я слишком ценю свое время, чтобы тратить его на бессмысленные и ненужные вещи. И все мои близкие знают, что я постоянно пытаюсь оптимизировать временные затраты с помощью различных сервисов, жизненных лайфхаков и других инструментов. И моя работа в этом плане не исключение. Парсинг запросов, фильтрация, оформление — все это требует немалого количество времени, а тратить его на сухую и рутинную работу совсем не охота.

За все время, пока я занимаюсь сбором семантического ядра на заказ, я открыл для себя много полезняшек, которые существенно экономят время. О них сегодня и расскажу.

1. Подготовка к парсингу запросов

Я использую программу Key Collector и все сказанное сегодня будет применено именно к ней.

Для начала рекомендую заглянуть в Настройки > Яндекс Wordstat > Таймаут ожидания ответа от сервера. Этот параметр отвечает за время, когда программа будет ждать ответа на отправленный в сервис запрос, перед тем, как выдаст нам ошибку в журнале сообщений и сделает повторный запрос, или перейдет к следующей фразе. Если мы установим параметр меньше 3000-3500 мс, то сигнал не успеет дойти к запросу и процесс прервется, и тем более не нужно ставить задержку в 10000 мс и больше — при нормальном интернете хватает 3000-5000 мс, чтобы доставить сигнал к серверу и получить ответ.

semantic-core-time-oyt

Оптимальным вариантом для меня является параметр в 4000 мс. Это при условии, что у меня отличный интернет. Рекомендую для начала поставить значение 5000-6000 мс, а потом понижать и найти свою оптимальную крайнюю точку.

Кроме этого, мне часто приходится иметь дело с «пустышками», т.е. с запросами, которые не имеют реальных вводов пользователями. Чтобы такое дело отсекать еще на этапе парсинга (а не на этапе фильтрации) я использую Настройки > Яндекс Wordstat > Добавлять в таблицу фразы с частотностями от. Обычно я выставляю минимальный параметр в 10-20 показов, этого достаточно чтобы отсеять 70% пустышек. Остальное оставляю на этап фильтрации, так как если установить значение больше 30-50, то большая вероятность, что вместе с говном вы отсеете неплохие НЧ запросы.

semantic-core-parsing

В Настройки > Общие > Ускорение сбора данных обязательно установите галочку. Собирает и обрабатывает запросы намного быстрее, что не может не радовать.

seo-core-speed

2. Парсинг и уточнение частотности запросов

Раньше для ускорения парсинга и уточнения частотности я использовал прокси-сервера:

Proxi

Но некоторое время назад протестировал новый метод и ускорил процесс парсинга и уточнения в несколько десятков раз. Теперь я уточняю частотности запросов с помощью сервиса ApiShops:

semantic-core-api

Для того, чтобы использовать сервис, нужно перейти по ссылке (навел ее выше) — зарегистрироваться в сервисе, а потом вернуться в программу, в Настройки — Яндекс Вордстат — Получать частотности из ApiShops и указать там свой логин и пароль.

Существует два способа получить частотность запросов из сервиса:

а) Более медленный, но действенный при количестве запросов до 1000

Вводим в программу логин и пароль от сервиса и нажимаем на кнопку «Уточнить частотность запроса». В таком случае будет уточняться примерно 1000 запросов в минуту. Это конечно намного лучше прокси-серверов и всего прочего, но есть вариант побыстрее

б) Более быстрый, но при количестве запросов от 1000

Заходим на сервис, копируем туда запросы из программы, нажимаем на кнопку «Собрать частотности» и экспортируем файл из сервиса, вставляя запросы обратно в программу.

Сервис платный, стоимость уточнения ~10 центов за 1000 запросов. При регистрации дают попробовать сервис на 5 долларов, так что этих средств вполне хватит, чтобы понять, нужно вам это или нет.

3. Фильтрация запросов

На этапе, когда запросы уже подобраны, перед нами возникает задача отфильтровать их. И чтобы не делать абсолютно всю работу вручную, предлагаю использовать встроенную в программу возможность фильтрации:

semantic-core-filtrДля фраз и цифр разные варианты:

filtr2

Включить и отключить автоматическую фильтрацию можно здесь:

filtr3

На этом статью заканчиваю. Постарайтесь не терять время на лишние и не нужные вещи.

Заказать семантическое ядро у меня можно на страничке «Услуги» или по этой ссылке.