Добываем бесплатные статьи из webarchive.
Категорически приветствую! Хотя основная цель блога – научиться зарабатывать в сети с помощью создания конкурентоспособных текстов, начать новый виток развития хочется все же с менее трудозатратных способов получения выгоды.
Поэтому эта статья будет посвящена способу получить бесплатные статьи для сайта, с целью их дальнейшей перепродажи. Ведь кто из нас не любит халяву?Наверняка вам знакомо понятие вебархив тему «спалили» давно, но как, ни странно этот метод получать бесплатный контент остается актуальным и по сей день. Причина в том, что сайты уходят в небытие ежедневно, оставляя после себя домены, хранящие уникальные тексты.
Дабы не быть голословным проведем эксперимент и попытаемся получить уникальные статьи бесплатно. Пошагово пройдем весь путь, посчитаем время и усилия, затраченные нами, и сделаем вывод об актуальности поиска бесплатного контента таким способом.
Описание методики:
- Основной задачей является поиск ресурсов, почивших в бозе;
- Отобрав необходимые, проверяем, присутствуют ли они в вебархиве;
- Определяем, содержится ли на находках уникальный контент.
Искать почивших будем здесь:
http://auction.nic.ru/forbuyer/download_list.shtml#buying
Сканируем зону ру
Наиболее благодатной почвой для поиска, безусловно, является наша родная зона ру. (качаем архив)
Открываем скачанный файл excelем. Начальный столбец оснащаем фильтром – текстовый фильтр – содержит
Набираем приблизительный текст, отражающий суть темы, по которой будем искать контент. В моем примере stroi (строительная тематика), удаляем лишние столбцы оставляет только первый и последний (последний столбец – это содержание страниц в вебархиве)
277 потенциальных дарителей бесплатных статей – вот начальный результат. К сожалению, последняя строка не содержит информацию о количестве страниц находящихся в веб архиве (?) поэтому придется провести проверку используя сервис http://www.seogadget.ru/wa а точнее его бесплатную версию, позволяющую анализировать по тридцать доменов за раз.
Первая проверка дала следующий результат:
Меня сразу заинтересовали проекты, выдавшие ошибку, проверка показала, что они при жизни были защищены от переноса в веб архив и после смерти контент потерян окончательно. Можно спокойно удалить эти мертвые души из списка.
Находки с показателем 1 ради частоты эксперимента, я решил все же проверить. Не по одному из них веб архив не выдал ни одной адекватной статьи. В итоге улов - 6 доноров, потенциально содержащих контент.
Проверив все записи, вычленил 39 подходящих клиентов с потенциалом от 13 до 1651 страниц архива.
Непосредственная проверка доменов в веб архиве.
Вводим в поисковой строке вебархива http://archive.org/web/ ресурс ligastroi.ru Последняя запись датирована 11.01.2016
Заходим и испускаем вздох разочарования – страница пуста, пройдясь по датам в правом верхнем углу сайта определяем, что весь контент содержащийся на ресурсе – это сообщения о продаже.
Проверяем следующие ресурсы по порядку.
На девятом проблеск - работоспособный проект
К сожалению, все тексты бесплатны, но не уникальны.
Роем дальше.
А вот и успех! 21 по списку домен выстрелил.
Строительный блог на котором кучей навалены бесплатные статьи для сайта. Проверяем первую:
Результат конечно не 100% но доработки необходимы минимальные, зато темы статей очень востребованы на биржах копирайтинга.
Итог потрошения - 10 статей с уникальностью от 74% до 100% .
В процессе дальнейших изысканий получаем следующую картинку:
Сайт stroisaitsam.ru не тематический, но с него я умыкнул пару уникальных статей.
В сухом остатке 21 статья по теме плюс 2 левых.
Результаты опыта
Время, затраченное на операцию 10 часов. Это конечно много, но:
- Начальный опыт, кое какую информацию приходилось разведывать параллельно поиску;
- Одновременно писалась эта статья, и создавались скриншоты;
- Для легитимности результата проверялись домены с 1-50 страницами в веб архиве (в дальнейшем все сайты с количеством страниц менее 50 будут отбрасываться);
- Определялся с методикой максимально быстрой проверки текста на плагиат (оптимальной оказалась пакетная проверка программой Etxt Антиплагиат).
Время, затрачиваемое в рабочем режиме, составит не более 3 часов.
Результат превзошел все мои ожидания, рассчитывая получить 2-3 бесплатные статьи для сайта, на выходе их оказалось гораздо больше. Как видите, метод действительно достоин внимания! В следующих статьях расскажу, как составить заголовки и описание к полученному, контенту, а также озвучу сумму, которую удалось заработать, реализовав добытый хабар.
p.s. Еще одну пошаговую инструкцию для получения бесплатного контента, вы найдете в статье: Бесплатные статьи для сайта. Перевод, да не тот.
[…] слово несбыточная, а вот и нет. В предыдущей статье «Пошаговая инструкция – ищем бесплатные статьи для сай…» я уже рассказывал, как можно получить контент из […]
ОтветитьУдалитьВажный момент для тех, кому нужен не только домен с халявным ТИЦ, но и тексты с сайта, бывшего на этом домене. Для того чтобы понять, можно ли будет восстановить на этот домен статьи, нужно убедиться в наличии снимков сайта в Вебархиве. Для этого переходим по адресу Если Вебархив вам не доступен, воспользуйтесь простым и удобным расширением к вашему браузеру, о котором я писал
ОтветитьУдалить[…] десяток статей, или, как я описывал в своей статье: Пошаговая инструкция – ищем бесплатные статьи для сай…, натырить их из веб архива, на худой конец […]
ОтветитьУдалить