Много вопросов возникает по поводу источников бесплатного уникального контента.
Рассмотрим варианты его получения!
I. Хорошо известные методы
1. Скан книг/брошюр/журналов — еще не все выложено в сеть
нюансы:
а)обязательная чистка прогами типа textcleaner
б)разбавление («оживление») контента — об этом ниже
2.Синонимайзинг
а) уникальность 15-20 процентов, это ничто..и скорее всего, попадание под АГС. Синонимайзинг должен быть качественным, или за него нет смысла браться — замечено, что сильно наказуем. Хороший результат получается, когда база синонимов тематическая, и используются обходы проверки по шинглам (перестановки, комбинации, разбавление кодом и тд)
б) в паблике бесплатных качественных синонимайзеров не попадалось.
в) если начинать заниматься синонимайзингом, нужно обязательно вложить труд именно в базы в выбранной нише.
3. Контент удаленных сайтов из вебархива.
Периодически мелькают платно-бесплатно скрипты и программы, которые якобы восстанавливают полностью сайт по его копии.
Ничего не могу сказать подробней — но точно знаю, что часто 100% восстановления контента не получается, например, из-за картинок. Считаю неэффективным.
4. Контент с освобождающихся доменов.
Идем на сервис http://dnhunter.ru, где отражается наличие контента, смотрим его тип. Например.
http://dnhunter.ru/cgi-bin/get_hist.pl?dom…RIENTAL-STAR.RU
Как выкачать из кеша поисковиков, или с сервера — это уже второй вопрос. К слову, сайтик, восстановленный таким образом (36 стр в индексе) стабильно приносит мне около 300 рублей ежемесячно, при условии что я с ним почти ничего не делаю годами — контент оказался хорош, сайт имел естественные ссылки.
По моему мнению, нерентабельно.
5. Переводы
Переводы в тройке русский-украинский-белорусский довольно приличные, процентов на 95. Поисковики относятся благосклонно.
Однако есть проблемы с поиском «доноров».
нюансы:
а)Перевод со словацкого, чешского, словенского, болгарского и греческого бывает читабелен на 70-90 процентов. Ручная правка желательна, если у вас не сплог. Но ее стоимость, при заказе (допустим,для СДЛ), будет уже в разы дешевле, чем рерайт и не требовать особых способностей от исполнителя.
б)Еще упрощает (и удешевляет) стоимость работ правка типичных ошибок Гугла в тексте автоматом (скриптом). Например, упорный перевод гуглом «масла» в рецепте как «нефть», заменялся пакетно во всех 1200 файлах с кулинарными рецептами за пару секунд.
в) Также автоматически чистятся ошибочно оставленные теги, теги с лишними пробелами, которые портят вид и дают повод для санкций ПС- лично я это делаю регулярками, но есть и функции типа strip_tags_smart()- и тп.
6. Непроиндексированные сайты
С еще непроиндексированных сайтов, или с уже непроиндексированных сайтов (ищут в Sape, парсят яндекс-гугл) тоже можно выцепить уникальный контент.
Подробности излагать не хочу, т.к. не очень эффективно и например, не очень подходит для СДЛ.Кстати, пришлось как-то бороться за свой контент и дизайн- показала всего лишь ссылки на свой профили на соотв. форумах, включая эксплойт. Помогло, воришка убрал тыренную Интел_Собств.
7. Чаты, форумы
Для некоторых целей (комменты, например) подойдет треп с чатов, конференций, форумов. Есть форумы, где флуд чистится раз в месяц…практически под корень =) Это же относится и к болталкам. Распарсенные фразы как раз и пригодятся для «оживления» норм. сайта.
II. Неочевидности
8. Генерация уникального контента
Трюк этот далеко не новый, и массовое создание подобных сайтов, если не ошибаюсь, началось с каталогов товаров.
Собственно говоря, уникальность контента в этом случае — вариант спорный, для большинства сайтов скорее можно говорить о микшировании отдельных фраз и картинок. Но иногда применяется и непосредственная генерация
{куплю|продам|обменяю} и тп.
До сих пор идет массовое генерирование контента в виде анкет для сайтов знакомств, псевдокаталогов товаров, квартир, объявлений о продаже автомобилей и тд. Сюда же можно присоединить и парсинг, т.е. прямой копипаст в промышленных масштабах шопов и каталогов — насколько помню такие «сайты под ключ» еще недавно предлагали по 5 баксов при многих тысячах страниц.
При некоторых условиях такие сайты могут жить долго, но так как создание таких условий стоит денег, то большинство с генерированных сайтов обычно уходят в бан. Да и покупатели как правило — неискушенные ни в кодинге, ни в сео.
В общих чертах схема выглядит так:
а) продается скрипт, генерирующий авто объявления;
б) народ расхватывает по дешевке;
в) добряки выкладывают сначала под хайды, потом скрипт уходит в паблик;
г) поисковики просекают пачки сайтов однотипной структуры с минимумом осмысленного текста, низким трафиком, но очень большим количеством страниц.
д) финиш. схема не рабочая.
Почему? Сайт объявлений частных лиц изначально имеет 2500 страниц и нулевой траф. Реально ли такое? Нет. Логично наложить на подобный сайт фильтр или отправить в бан.
Хотя, стоит отметить, это происходит не сразу.
Можно ли сделать вывод о том, что генерировать уникальный контент бесполезно и идея обречена на провал изначально? нет. Конечно же, нет. Многое упирается в формат и тематику — контент в идеале должен быть нестандартным,т.е. нужно искать свою нишу + нужно правильно организовать его подачу на сайте. Что значит правильно?-а вот это уже отдельная тема.
9. Еще о переводах
Старая тема с umax. Хотя, кстати, работает до сих пор, при некоторых условиях (см.ниже). Я знаю с десяток человек, которые сравнительно недавно получили немалый профит на сотнях сайтов, созданных на автомате. у меня тоже, но намного меньше.
Это автоперевод на украинский и белорусский. Он имеет косяки, но мало. (Кстати, мне в комментах на сателлитах националисты жаловались на ошибки в переводе, так и хотелось их послать к…Гуглу..было очень смешно). Тоже тема не новая, но из серии: «вы не любите кошек? вы просто не умеете их готовить». Что вам делать с таким добром? А много чего. И мультиязычные СДЛ (после легкой правки), и сайты полностью на закордонной мове под траф, биржы ссылок и тп. Или комбинация этих методов.
10. Как использовать неуникальный контент.
Способов много. От прямого заимствования (кражи) до цитирования, что считается предпочтительным. Поисковики к цитированию относятся достаточно терпимо, это доказано.
Возникает вопрос. А есть ли категории/тематики сайтов, где поисковики относятся лояльней к копипасту? Есть. Например, новостные сайты. Если они похожи на СДЛ =) Но не только эта категория.
По распространенному мнению 50 и даже 80 процентов неуника не помешают сайту и попадут в индекс и даже там останутся, если будет соблюдаться ряд очень важных условий.
Это:
а) посещаемость страницы и поведение пользователя на ней (т.е. контент востребован);
б) правильная внутренняя перелинковка, страница должна иметь статический вес;
в) наличие на странице с неуникальным контентом уникальных элементов — картинок, видео, кода.
г) трастовость сайта:
— возраст домена;
— нормальный хостинг (или трастовость сервиса, куда закачивается контент);
— «нормальный» whois;
д) наличие беклинков и поисковый траф;
е) уникальный дизайн.
И напоследок.
Типичные ошибки работы с контентом
а) выложить полностью все что есть на сайт и дождаться индексации после быстробота
б) загонять в биржу ссылок сайты моложе полугода без достаточного кол-ва беклинков и трафа
в) размещать скан какого-нибудь учебного пособия для маляров(или научные статьи) на распространенный шаблон без картинок
Поисковики умеют определять стиль текста, и его тематику, это бесспорно.
г) оставлять «без присмотра» старые страницы — они выпадают со временем с нулевым ВИЦ
д) резко вбрасывать массу контента — Яндексу это не нравится иногда.
е) пытаться заработать на сайтах с объемом меньше 100 (500) страниц
Автор: lisa99 (exploit.in/forum/)