Back to TOP

Поиск

Подпишитесь

понедельник, 7 мая 2018 г.

Пошаговая инструкция – ищем бесплатные статьи для сайта


Добываем бесплатные статьи из webarchive.


Категорически приветствую! Хотя основная цель блога – научиться зарабатывать в сети с помощью создания конкурентоспособных текстов, начать новый виток развития хочется все же с менее трудозатратных способов получения выгоды.
Поэтому эта статья будет посвящена способу получить  бесплатные статьи для сайта, с целью их дальнейшей перепродажи.  Ведь кто из нас не любит халяву?

Наверняка вам знакомо понятие вебархив тему «спалили» давно, но как, ни странно этот метод получать бесплатный контент остается актуальным и по сей день. Причина в том, что сайты уходят в небытие ежедневно, оставляя после себя домены, хранящие  уникальные тексты.

Дабы не быть голословным проведем эксперимент и попытаемся получить  уникальные статьи бесплатно. Пошагово пройдем весь путь, посчитаем время и усилия, затраченные нами, и сделаем вывод об актуальности  поиска бесплатного контента таким способом.

Описание методики:



  • Основной задачей является поиск ресурсов, почивших в бозе;

  • Отобрав необходимые, проверяем, присутствуют ли они в вебархиве;

  • Определяем, содержится ли на находках уникальный контент.



Искать почивших будем здесь:

http://auction.nic.ru/forbuyer/download_list.shtml#buying

Сканируем зону ру


Наиболее благодатной почвой для поиска, безусловно, является наша родная зона ру.  (качаем архив)



Открываем скачанный файл excelем. Начальный столбец оснащаем фильтром – текстовый фильтр – содержит



Набираем приблизительный текст, отражающий суть темы, по которой будем искать контент. В моем примере stroi (строительная тематика), удаляем лишние столбцы оставляет только первый и последний (последний столбец – это содержание страниц в вебархиве)



277 потенциальных дарителей бесплатных статей – вот начальный результат. К сожалению, последняя строка не содержит информацию о количестве страниц находящихся в веб архиве (?) поэтому придется провести проверку используя сервис http://www.seogadget.ru/wa а точнее его бесплатную версию, позволяющую анализировать по тридцать доменов за раз.

Первая проверка дала следующий результат:



Меня сразу заинтересовали проекты, выдавшие ошибку, проверка показала,  что они при жизни были защищены от переноса в веб архив и после смерти контент потерян окончательно. Можно спокойно удалить эти мертвые души из списка.

Находки с показателем 1 ради частоты эксперимента, я решил все же проверить. Не по одному из них веб архив не выдал ни одной адекватной статьи. В итоге улов - 6 доноров, потенциально содержащих контент.

Проверив все записи, вычленил 39 подходящих клиентов с потенциалом от 13 до 1651 страниц архива.


Непосредственная проверка доменов в веб архиве.


Вводим в поисковой строке вебархива http://archive.org/web/ ресурс ligastroi.ru Последняя запись датирована 11.01.2016



Заходим и испускаем вздох разочарования – страница пуста, пройдясь по датам в правом верхнем углу сайта определяем, что весь контент содержащийся на ресурсе – это сообщения о продаже. 



Проверяем следующие ресурсы по порядку.

На девятом проблеск - работоспособный проект


К сожалению, все тексты бесплатны, но не уникальны.

Роем дальше.

А вот и успех! 21 по списку домен выстрелил.



Строительный блог на котором кучей навалены бесплатные статьи для сайта. Проверяем первую:





Результат конечно не 100% но доработки необходимы минимальные, зато темы статей очень востребованы на биржах копирайтинга.

Итог потрошения -  10 статей с уникальностью от 74% до 100% .



В процессе дальнейших изысканий получаем следующую картинку:



Сайт stroisaitsam.ru не тематический, но с него я умыкнул пару уникальных статей.

В сухом остатке 21 статья по теме плюс 2 левых.

Результаты опыта


Время, затраченное на операцию 10 часов. Это конечно много, но:

  • Начальный опыт, кое какую информацию приходилось разведывать параллельно поиску;

  • Одновременно писалась эта статья, и создавались скриншоты;

  • Для легитимности результата проверялись домены с 1-50 страницами в веб архиве (в дальнейшем все сайты с количеством страниц менее 50 будут отбрасываться);

  • Определялся с методикой максимально быстрой проверки текста на плагиат (оптимальной оказалась пакетная проверка программой Etxt Антиплагиат).

Время, затрачиваемое в рабочем режиме, составит не более 3 часов.

Результат превзошел все мои ожидания, рассчитывая получить 2-3 бесплатные статьи для сайта, на выходе их оказалось гораздо больше. Как видите, метод действительно достоин  внимания! В следующих статьях расскажу, как составить заголовки и описание к полученному, контенту, а также озвучу сумму, которую удалось заработать, реализовав добытый хабар.

p.s. Еще одну пошаговую инструкцию для получения бесплатного контента, вы найдете в статье: Бесплатные статьи для сайта. Перевод, да не тот.