Фильтры (АГС и прочее) | Записки компосапиенса

Фильтры (АГС и прочее)



О фильтрах Яндекса и не только о них

Архив на категорию ‘Фильтры (АГС и прочее)’

Tweet

Я уже писал свое видение того, как вывести сайт из-под АГС. Однако, АГС — это всего-лишь фильтр, в поиске остается от 1 до 10 страниц зафильтрованного сайта. Но как быть, когда сайт в бане? То есть — запрещен к индексации и при попытке добавления его в эддурилку вылезает соответствующее сообщение...

Некоторое время назад (почти 3 месяца как) я запустил новый сайт по бесплатным программам, купив для него короткий домен. Однако доменчик оказался не простой, а с бурной историей, причем — когда-то на нем висел самый обыкновенный черный варезник, после которого домен оказался забанен Яндексом. При попытке добавить его в эддурилку выскакивало как раз то самое сообщение, о котором я упомянул выше. Но домен на мой взгляд хороший и стоил того, что бы попробовать его «спасти», а заодно — провести эксперимент по возвращению забаненного домена к жизни. Читать далее »

Tweet

На сегодня существует как минимум 2 разновидности фильтра АГС от Яндекса: 17 и 30. На самом деле — абсолютно фиолетово, под какую версию лег ваш сайт — основной критерий непопадания сайта под санкции это его полезность для людей. А ниже я приведу несколько советов как по выводу уже попавшего под фильтр сайта, так и (при профилактическом использовании) — непопадания сайта под фильтры «антиговносайт» ;)

Что нужно делать чтобы не столкнуться с АГС?

1. Используйте уникальный контент (заказывайте на биржах, пишите сами, переписывайте до неузнаваемости тематические статьи с других ресурсов — главное, чтобы читалось нормально);
2. Использовать сложную древовидную структуру сайта (если у вас сателлит с раскидистым баобабом категорий и страниц — его даже некоторые люди могут принять за СДЛ);
4. Ни в коем случае не делайте линки с главной на все страницы (лучше — на категории, из которых уже ссылки расползаются дальше по сайту);
5. Объем статьи — от 600-1000 знаков;
6. Не использовать пагинацию (то есть «неговорящие» урлы с циферками) страниц;
7. Поменьше виртуальных страниц — если у страницы концовка .html (.htm), робот будет думать, что она и есть HTML, а не виртуальная, а то, что у вас может стоять плагин типа ModRewrite`a, конвертирующего стандартные движковские адреса в удобочитаемые, это уже роботу глубоко параллельно ;)
8. Используйте с умом robots.txt;
9. Делайте внутреннюю перелинковку страниц (контекстные ссылки с одной страницы на другую, анонсы постов (если блог), ссылки на старые посты и «интересное» — что может заинтересовать читателя конкретной страницы);

Используя эти простые советы при работе с каждым из своих сайтов, вы сократите вероятность проявления к вам интереса со стороны различных фильтров и «боевых роботов на страже Интернета». Удачной жизни вашим сайтам и много нулей на счетах в биржах ;)