1. Главная
  2.  
  3. Статьи
  4.   Инструкция по работе в Sape.ru. Часть 3, заключительная: проверка купленных ссылок

Инструкция по работе в Sape.ru. Часть 3, заключительная: проверка купленных ссылок

Работа с плагинами Вебмастер Sape и Xtool_checker. Настройка плагинов. Отсев «мусора».

Теперь настало время отделить «мусор» (который все же прошел через сито фильтра Sape) от хороших ссылок.

Рисунок 1: Хорошая иллюстрация в пользу того, что помимо фильтров Sape следует использовать и дополнительные (плагины, фильтры, ручной просмотр). Отличный сайт по всем данным от Sape…забанен в Яндексе. Всего лишь 4 страницы в индексе, причем среди них нет главной.

Сортируем их по цене (от дешевых к дорогим). Для этого мы предлагаем использовать бесплатный плагин для FF Вебмастер Sape (от Wink-а) и условно бесплатный сервис XTool.

Параметры и настройки плагина Вебмастер Sape:

  • Таймаут между запросами сразу ставим 1000 мс (или еще меньше, если проверяем через сервисы). При иных значениях проверка будет либо идти слишком долго (Гугл начинает «просить» капчу даже при таймауте 5000 мс), либо придется постоянно вводить капчу вручную. Вполне терпимо, если у вас небольшое количество ссылок. Но для автоматизации рекомендуем пользоваться Яндекс.XML или сервисом Antigate, который решит эту проблему за совершенно смешные деньги – 1$ за 1000 капч!
  • Количество страниц в индексе [Cn]. Нужен для мгновенного отсева площадок находящихся под фильтрами Яндекса и Google, а именно АГС (Яндекс) и бан (Яндекс + Google). Настроить его можно во вкладке «Яндекс». Мы рекомендуем устанавливать значения 12 и 2 соответственно.
  • Наличие «плохих» слов в урлах [LF]. Этот параметр позволяет нам сразу же отобрать потенциально бесполезные ссылки с различных сайтов с варезом, форумов, фотогалерей, страниц тэгов, резюме и анкет и т.д. Указать нужные вам стоп-слова можно во вкладке «Фильтры». Мы предлагаем следующий список, составленный в свое время Александром Алаевым: =[0-9a-f]{32} |forum|phorum|viewtopic|showtopic|showthread|showpost|lofiversion |comment |user|profile|member|showuser|authors |search|poisk|feedback|links|sitemap|pda|print|prn= |\/tag/|\/tags/|tag=|tagId=|=tag|\/tegi/|taxonomy |&page|\/page/|\/pages/|&archive|\/date/ |category|rubriks|\/cat/ |gallery|galery|displayimage|image_id|photo|foto|image |board|doska |vacancy|view_vacancy|view_vac|vac_id|resume|rezzume |catalog|katalog|subcat|virtuemart|shop|productID|product|goods |warez|varez|tracker|torrent|dvdrip|hdrip|soft|mp3|playlist|youtube| skachat|besplatno|seks|znakomstva|anekdot|porn|sex|prikol|wallpaper|oboi|goroscop| goroskop|referat|chat|song|screenshot|fgames|flash|akord|accord|acord|akkord

    Отмеченные страницы можно либо сразу отправить в ГБЛ, либо рассмотреть вручную. Иногда и в куче навоза можно найти жемчужину.

    Отметим, что это совершенно не значит, что ссылки, например, с форумов – некачественные. Важно то, естественные ли они и находятся в посте пользователя, или же покупные и размещены в «подвале».
  • Количество внешних ссылок [Ex]. При первой закупке рекомендуем отсеивать страницы, с количеством прогнозируемых внешних ссылок не более 2. Этот параметр настраивается во вкладке «Ссылки». При этом стоит поставить галочку «Уникальные», чтобы не учитывать ссылки в <noindex> и с тэгом nofollow.
  • Отмечать, если объем текста на странице меньше заданного значения без учета анкоров [Ex]. Здесь можно поставить 1500 или даже больше. Ссылки со страниц-«пустышек» нам не нужны.
  • Отмечать, если купленная ссылка расположена в «подвале» [Ex]. По словам А. Садовского, руководителя отдела веб-поиска Яндекса, для Яндекса гораздо важнее качество ссылок, а не то, покупные они или нет. Тем не менее, расположение ссылки в «подвале» является минусом, пусть и небольшим. Ведь такая ссылка с гораздо большей вероятностью покупная, чем ссылка из контентной части. А главное – по ней практически никогда не будет переходов. Это подтверждает и Евгений Пошибалов, руководитель биржи Sape, который на конференции CyberMarketing-2012 сообщил, что «подвальность» и некликабельность ссылки являются негативными факторами.
  • Наличие страницы в индексе Яндекса и Google. YP и GC соответственно. Включаем во вкладке «Яндекс» опцию «Отмечать, если страницу не удалось проверить». Мы либо откажемся от «кота в мешке», либо пойдем проверять вручную. Вполне возможно, это хороший сайт, а данная страница просто временно выпала из индекса. Кстати, если навести мышкой на кнопки после проверки – вы увидите Title страницы, что очень удобно.
  • Посещаемость сайта [T]. Очень важный параметр, т.к. является одним из основных поведенческих факторов. Проблема в том, что все больше и больше сайтов избавляются от счетчиков в футере. База от SEMRush.com подходит скорее для англоязычного сегмента. Так что если посещаемость сайта установить не удалось, а остальные параметры в принципе устраивают – не стоит сразу заносить его в ГБЛ, лучше рассмотреть вручную. В качестве конкретных параметров советуем установить 3000 для Alexa Rank и 600 для ежемесячной посещаемости по данным LI.

    Важно! Alexa некорректно определяет посещаемость для доменов 3-го уровня типа site.hosting.ru.
  • MozRank [mR] – параметр, используемый известнейшей в Буржунете компанией SeoMoz для определения статического «веса» страниц, который «делится» между всеми исходящими ссылками. По принципу расчета он схож с PageRank. Однако вряд ли роботы SeoMoz уделяют много внимания индексированию Рунета, поэтому данный параметр следует учитывать с осторожностью.
  • Использовать кэширование запроса. Ставим 6 часов. Это сэкономит вам время при повторных проверках.

Порядок проверки: Cn + LF (чтобы сразу отсеять явный «мусор»); затем наличие страницы в индексе - YP и GC; и под конец – Ex + T + MozRank.

XTool

Теперь немного о сервисе XTool. «Изюминкой» этого сервиса является возможность расчета параметров траста, как для сайта, так и для домена. Точный алгоритм, разумеется, не раскрывается, и верить ли авторам – каждый решает сам. Но по нашему опыту скажем, что учитывать этот параметр стоит. Кроме того, весьма полезной является возможность определить «заспамленность» сайта продаваемыми ссылками и в каком формате выводятся ссылки – блоком или «раскиданы» по странице (второй вариант, конечно, лучше). Остальные функции сервиса примерно такие же, как и у Вебмастер Sape. Только платные J

Для работы с этим сервисом также следует установить плагин Xtool_checker, который, кстати, поддерживает и много других бирж помимо Sape.

Параметры и настройки сервиса XTool: отмечать, если XTD < 3 или желтого цвета (на сайт наложены санкции); отмечать, если XT < 2 и отмечать, если XT = 0. В последнем случае уровень доверия к такой странице составляет 0.1

Важно! Оба этих плагина имеют некоторые глюки в функционале. Например, XTool не умеет определять индексацию страниц, имеющих в своем URL заглавные буквы.

В принципе этого достаточно. Проверку остальных факторов можно делать через Вебмастер Sape.

Ну и, разумеется, по возможности (если только вы не тысячами ссылок ежедневно ворочаете) стоит просмотреть сайты вручную. Оценить шаблон, качество текста, соответствие вашей тематике. Крайне важно посмотреть, нормально ли выводятся ссылки. Видны ли они посетителям или спрятаны с помощью стилей CSS, сливаются с фоном и т.д. Поисковые системы уже умеют различать такие «хитрости». Кстати, за их использование на сайт могут быть наложены санкции, о чем мы писали в предыдущей статье.

Разумеется, всегда будут оставаться спорные случаи, когда страница удовлетворяет одним критериям, но не проходит по другим. Что делать в этом случае? Каждый решает сам. Именно поэтому эффективно закупать ссылки может и должен человек, а скрипты – лишь помощники.

 

Предположим, мы отбираем ссылки для магазина бытовой техники и наткнулись на сайт-площадку, страницы которой приведены на скриншоте выше.

Факторы «за»: наличие сайта в ЯК в близкой тематике; траст 7 по данным XTool; старый сайт; прекрасная ссылочная масса (много естественных качественных ссылок, ссылка с Википедии, непродажные ссылки с «морд» качественных трастовых порталов, имеющих PR 4, 5, 6); хорошие позиции и посещаемость в Яндексе (анализировалось отдельно); 0 или 1 внешняя ссылка; тип сайта – качественный сайт информационного характера.

Факторы «против»: слишком большое количество исходящих ссылок (оранжевый цвет кнопки XTool); несоответствие общей тематики сайта («Строительство») тематике акцептора; очень низкий траст страниц по данным XTool; очень низкие MozRank и Page Authority; зафильтрован Гуглом (анализировалось отдельно); очень большое количество баунсов (bounce rate – процент посетителей, которые посетили только одну страницу сайта, высокий показатель bounce rate считается одним из признаков «плохой» входной страницы) и малое количество времени, проведенного на сайте (по данным Alexa).

На самом деле так дотошно (с запросом данных Alexa, SEMRush и т.д.) анализировать не стоит, мы это сделали лишь для примера. Экономьте свое время.

Как видим, выбор весьма сложен. В этом случае следует принимать во внимание, сколько ссылок вам примерно необходимо закупить, и сколько ссылок схожего качества осталось в системе. Например, если вы собираетесь купить 20-30 ссылок, а первый же (самый жесткий) фильтр выдал 200 сайтов – подобные «спорные» площадки лучше пропускать. Выбор и без того велик. Если же ссылок требуется уже 50, а предложенных площадок мало – покупайте. Даже если 10-20 таких ссылок окажутся бесполезными, затраченные средства все равно невелики, и ими можно пренебречь.

Подчеркнем, что речь идет о спорных случаях, когда хватает и доводов «за», и доводов «против». Покупать же ссылки с явных г…сайтов ради экономии времени лучше не стоит.

Окончательная проверка на прочность, уже после покупки.

Советуем проверять купленные ссылки через месяц, чтобы еще раз убедиться, что все в порядке. Или наоборот. Здесь будут описываться только те дополнительные параметры и их значения (для настройки), которые не были указаны в пункте 4., и которые следует проверять уже после покупки

  • Проверка проиндексированности ссылки в Яндексе и Гугле - [Yl] + [Gl] соответственно. Мы рекомендуем проверять ссылки старше 30 дней. Отмечать, только если ссылки нет в индексе более 6 дней. Эти параметры можно задать во вкладке «Яндекс». Если ссылка месячной давности все еще не в индексе, причем уже неделю – это, как минимум, повод осмотреть донора повнимательней. Например, стоит узнать, когда на страницу последний раз заходил робот – параметр [YC] во вкладке «Яндекс»
  • Количество страниц сайта в индексе. Рекомендуем установить для Гугла - 2, для Яндекса - 12. Несмотря на то, что мы его проверяли перед покупкой, лучше проверить еще раз. Вполне может получиться, что фильтр был наложен уже когда ваша ссылка висела на сайте, причем висела на странице, которая не попала под бан.
  • Отмечать, если купленная ссылка не найдена на странице. Включаем.
  • И можно периодически (раз в месяц, например) проверять траст страницы и/или сайта через XTool. Ссылки со страниц с трастом 0.5 и ниже лучше удалять.

Также стоит рассмотреть и вопрос «Как реагировать на повышение цены ссылки?». Нужно учитывать 2 фактора: насколько повысилась цена и насколько ценна для вас эта ссылка. Не забывайте, что ссылки, они как коньяк: чем старее, тем лучше. Поэтому если вебмастер поднял цену, скажем, с 0,2 до 0,25 на хорошую тематическую ссылку, которая висит уже полгода – лучше наступить на горло собственной прижимистости и подтвердить.


Добавить комментарий

Пункты, отмеченные *, являются обязательными к заполнению