Книги по бизнесу и учебники по экономике. 8 000 книг, 4 000 авторов

» » Читать книгу по бизнесу Раскрутка: секреты эффективного продвижения сайтов Николая Евдокимова : онлайн чтение - страница 4

Раскрутка: секреты эффективного продвижения сайтов

Правообладателям!

Представленный фрагмент книги размещен по согласованию с распространителем легального контента ООО "ЛитРес" (не более 20% исходного текста). Если вы считаете, что размещение материала нарушает ваши или чьи-либо права, то сообщите нам об этом.

Читателям!

Оплатили, но не знаете что делать дальше?

  • Текст добавлен: 28 мая 2022, 08:26

Текст бизнес-книги "Раскрутка: секреты эффективного продвижения сайтов"


Автор книги: Николай Евдокимов


Раздел: Интернет, Компьютеры


Возрастные ограничения: +16

Текущая страница: 4 (всего у книги 7 страниц)

Я не раз касался того, как SeoPult извлекает пользу из анализа конкурентной среды. Возможен и прямой анализ – в форме сравнения. Небольшой пример. Дан список из 50 поисковых запросов и десяток конкурентов. В отчетах SeoPult можно получить сравнение сайта с конкурирующими и постоянно быть в курсе, выше или ниже его они находятся в выдаче. Такой мониторинг дает вам возможность заблаговременно принять решение об увеличении бюджета или, наоборот, успокоить нервы зримым подтверждением своей незыблемости в топе. Система показывает, насколько быстро набирает очки тот или иной сайт. В конце концов, алгоритмы поисковиков меняются едва ли не каждый день. Хотя глобальные изменения совершаются не чаще чем раз в полгода, нелишним будет прогнозировать, исходя из реальной статистики, в какую сторону грозит качнуться выдача и где подстелить соломку, чтобы не было больно падать по позициям.

Нельзя умолчать о такой функции, как гостевой доступ. Изначально он создавался для того, чтобы у человека, который таким образом заходит в систему, не было возможности редактировать данные в проекте. Режим допускает как «белое», так и «сероватое» применение. Честные оптимизаторы через такое «окошко» могут показывать своему клиенту в понятном и приятном интерфейсе, какие позиции занимает его сайт и сколько расходуется на продвижение, и не засорять ему почту письмами с многочисленными отчетами. В свою очередь, оптимизаторы, нечистые на руку, используют гостевой вход с «коэффициентом накрутки». Дело в том, что при настройке урезанного доступа владелец аккаунта вправе выбрать, какие данные предоставлять гостю. Можно показать ему только ключевые запросы и позиции, можно продемонстрировать увеличенный коэффициент цены ссылочной массы, а следовательно, и бюджета в целом. Этически такой прием часто сомнителен, однако вполне правомерен, когда клиент договаривается с SEO-агентством о некоей наценке за сервис и знает о ней.

Мне удалось бегло описать лишь несколько функций SeoPult. Правда, надеюсь, моих примеров достаточно, чтобы вы убедились в степени гибкости системы. Естественно, за манипуляции во вред сервису его администрация вынуждена налагать бан, о чем честно предупреждает на своих страницах большими буквами. Однако штатной и полуофициальной функциональности системы хватает с головой практически для любых случаев без привлечения сторонних инструментов. Подобно тому как, в отличие от автовладельцев, владельцы и пилоты самолетов редко бывают одержимы их «апгрейдом», предпочитая совершенствоваться в искусстве маневра и в управлении, то же самое можно сказать и о продвижении своими силами и через автоматизированные сервисы. Стараться нужно в обоих случаях. Но вообще – земля и небо.

Трастовость сайта

В число важнейших факторов ранжирования входит такой показатель сайта, как трастовость, именуемый также TrustRank, или просто траст. Представители поисковых систем настаивают на том, что траст – понятие относительное и не выражается количественно для каждого отдельно взятого сайта. Нам же как практикам важно одно: траст существует, он более чем реален и участвует в ранжировании. А значит, было бы непростительной ошибкой закрывать на него глаза в процессе поискового продвижения. Суслика никто не видит, но он действительно есть, и огромный.

Что такое TrustRank

Первое упоминание о трасте датируется 2004 годом. Это понятие фигурировало в совместном труде сотрудников Стэнфордского университета и компании Yahoo! под названием «Борьба с веб-спамом с помощью TrustRank». Согласно содержанию работы, TrustRank отводится важная роль в искоренении искусственной накрутки авторитетности ресурсов. Ключевые моменты влияния траста на качество выдачи таковы.

1. Наличие лишь одного метода определения авторитетности сайта, а именно PageRank, на руку любителям «черной» оптимизации. Один из их методов базируется на создании множества грамотных перелинковок между сайтами с нулевым весом, которые образуют сетку сателлитов. Благодаря накрутке реципиент получает приличный вес и вместе с ним статус авторитетного ресурса.

2. Во избежание глобальной несправедливости и ради устранения спама из выдачи и вводится TrustRank. Таким образом, при передаче PageRank от донора к реципиенту посредством обратных ссылок учитывается некий «особый вес», исходящий только от качественных, крупных, известных, прошедших ручную проверку ресурсов. Трастовый сайт не станет ссылаться на низкосортный ресурс с псевдоуникальным контентом. Это обстоятельство призвано подтолкнуть оптимизаторов и разработчиков к созданию предназначенных для людей сайтов с интересным контентом.

В сущности, траст напоминает переменную, без которой невозможно решить уравнение. Значение траста нельзя зафиксировать, но без него у сайта падают шансы на долговременное попадание в топ по высококонкурентным запросам. Вместе с тем все ресурсы Сети не могут обладать большим TrustRank. Это привело бы к хаосу в поисковой выдаче, так как определить сайты, наиболее релевантные запросу, было бы проблематично.

Благодаря трасту сайт котируется поисковыми системами выше, чем если бы не имел его, но залогом успеха в продвижении по-прежнему остаются уникальный тематический контент, безупречная внутренняя оптимизация и максимально приближенная к естественной внешняя ссылочная масса, стабильная и разнородная.

TrustRank присваивается домену в целом по аналогии с тИЦ, и делается это двумя способами. Во-первых, посредством ручной проверки сайта асессорами, во-вторых, в автоматическом режиме на основании ряда факторов, отражающих качество ресурса. Оценки в первом и втором случаях могут не совпадать: порой при незначительном трасте, определенном автоматически, выставленный вручную балл оказывается на порядок выше.

Способы увеличения траста

Наряду с поднятием «пузомерок» (в частности, PR и тИЦ) увеличение траста сайта – ежедневная забота оптимизатора. Пусть траст – величина, не поддающаяся измерению, но ее можно преумножить. Получение даже небольшого TrustRank серьезно повышает шансы ресурса на то, чтобы продвинуться в топ по ключевым запросам. Процесс приобретения траста имеет две составляющие.

1. Работа над внутренней оптимизацией сайта. Качество внутренней оптимизации явным образом влияет на присвоение траста.

2. Приобретение ссылок с трастовых ресурсов. Наличие у площадки даже небольшого количества покупных ссылок с авторитетных ресурсов повышает эффективность ссылочного продвижения в целом.

Работа с сайтом

Оптимизаторы носили бы на руках того, кто предоставил бы им подробный достоверный список факторов, которые принимает во внимание поисковая система при назначении уровня траста ресурсу. Также тайной за семью печатями остаются алгоритмы вычисления траста, которые вдобавок регулярно меняются. В частности, «Яндекс», поставив себе на службу систему машинного обучения MatrixNet, ускорил внедрение изменений.

Опытным путем SEO-эксперты все же составили перечень наиболее важных факторов, влияющих на получение TrustRank. Легко заметить, что многие из них схожи с критериями выставления тИЦ, вИЦ («взвешенный индекс цитирования» в терминологии «Яндекса») и PR. Перечислим наиболее важные.

1. Необходим качественный контент – уникальный и тематический. Сайту с заимствованным контентом странно рассчитывать на доверие поисковиков. Все тексты должны быть объединены общей тематикой, или, по-умному, обязательно присутствие сквозного семантического кластера. Сайту о ремонте жилых помещений с дельными статьями легче заслужить доверие, чем псевдоэнциклопедии, страницы которой забиты всякой всячиной, мало интересующей пользователей.

Немаловажны с точки зрения присвоения траста страницы с контактными данными, информацией о компании. Очевидно, что эти сведения должны быть реальными. В противном случае оценка асессоров будет заведомо отрицательной.

2. Возраст домена и сайта напрямую влияют на присвоение траста. Молодой сайт лишен шансов быстро удостоиться TrustRank. Поисковики прибегают к таким ограничениям ради борьбы с сателлитами и дорвеями, которые с первых дней жизни способны засорить поисковую выдачу. Стоит отметить, что возраст сайта для поисковика отсчитывается не с даты регистрации домена, а с момента первой индексации его поисковым роботом.

3. Качество хостинга играет не последнюю роль в оценке сайта. Учитывается бесперебойная работа сервера, отсутствие ошибок в его настройке, скорость загрузки страниц сайта, история IP-адреса. Если на IP ранее был размещен вредоносный ресурс, нарушавший правила поисковых систем, вероятно понижение траста у продвигаемого ресурса.

4. Дизайн сайта, претендующего на хороший траст, не должен быть шаблонным. Если в коде встречаются фрагменты, которые используются и на других сайтах, они могут быть идентифицированы как дублированный контент. Да и асессоры оценят шаблонный дизайн невысоко.

5. Вредоносный код несовместим с трастом. Следует тщательно проверить сайт и убедиться в отсутствии вирусов на нем.

6. Спам на сайте недопустим. Необходимо проверять комментарии, сообщения форума и своевременно удалять все похожее на спам.

7. Стабильный трафик свидетельствует о востребованности сайта. Регулярная посещаемость и естественный, постепенный прирост аудитории – прямой путь к набору траста. Резкие скачки или падение трафика с высокой степенью вероятности приведут к понижению TrustRank.

8. Кликабельность сниппетов демонстрирует интерес пользователей к продвигаемому ресурсу. Привлекательный сниппет приближает сайт к получению заветного траста.

9. Время нахождения на площадке – один из поведенческих факторов, которые также влияют на доверие к ней со стороны поисковых систем. Данные о длительности пребывания пользователей на сайте «Яндекс», в частности, получает посредством установленного на сайте счетчика «Яндекс.Метрика». Слишком быстрый переход посетителей со страниц свидетельствует о низком качестве контента.

10. Присутствие в крупных «белых» каталогах, а именно в «Яндекс.Каталоге» и DMOZ, повышает траст сайта в «Яндексе» и Google.

11. Использование ключевых слов в домене в некоторой степени также работает на присвоение траста. По возможности домен должен быть лаконичным и характеризовать тематику ресурса. Слишком длинные домены с нагромождением ключевых запросов в URL характерны для спам-сайтов. Им поисковики не доверяют и принимают против них защитные меры.

12. Количество страниц в индексе также учитывается при оценке ресурса. Поисковики больше доверяют крупным сайтам, у которых в индекс попало большое количество страниц с качественным контентом. Маленькие площадки имеют право на существование и способны попасть в топ, однако траста им достанется гораздо меньше.

13. Сайт тем больше нравится поисковикам, чем чаще обновляется его содержание. Не обязательно каждый день добавлять уникальные статьи, достаточно систематически проводить работу с контентом, тем самым показывая, что сайт живет и развивается. Полезно использовать такие фишки, как RSS-ленты и XML-sitemap.

Этот внушительный список отражает требования к внутренним факторам сайта. Не менее важны и внешние.

Приобретение ссылочной массы

Покупка ссылок с целью «подкачки» траста требует бдительности, так как доноры должны быть исключительно трастовыми площадками и передавать большой вес.

В SeoPult реализована такая функция, как закупка сугубо трастовых ссылок. Система самостоятельно определяет, нужно ли сайту поднять TrustRank, и автоматически подключает к используемому каскаду фильтры закупки трастовых ссылок.

Прибегая к традиционным ручным методам закупки ссылок, необходимо помнить о нескольких факторах, на которые следует обращать особое внимание при отборе доноров.

1. Качество исходящих ссылок продвигаемого ресурса. Прежде чем начать поиск доноров, проверьте собственные исходящие ссылки. Если они ведут на ресурсы сомнительного качества, это может грозить передачей в обратном направлении «отрицательно заряженного» траста. Необходим и контроль количества исходящих ссылок. Чем их меньше, тем лучше.

2. Входящие ссылки. «Надуть» траст покупными ссылками не так просто, но все же возможно. Поэтому при покупке трастовых входящих ссылок важно проверять возможных доноров с особой дотошностью. Подлинно трастовый ресурс запросит высокую плату за размещение ссылки и будет удовлетворять основным критериям площадки с большим TrustRank.

При необходимости можно каждого донора пристально изучать под лупой, но гораздо удобнее поручить эту задачу каскадам фильтров системы SeoPult. Источником качественных доноров для SeoPult является биржа трастовых ссылок TrustLink, где сайты проходят жесткий отбор и ручную модерацию. Это гарантирует, что ссылки, приобретенные в TrustLink, положительно повлияют на авторитетность и трастовость продвигаемого ресурса.

Рекомендуется при покупке ссылок разбавлять общую внешнюю ссылочную массу с помощью безанкорного продвижения. В среднем 5-10 % от бюджета на продвигаемую страницу следует выделять на закупку ссылок с анкорами вида «тут», «здесь», «на сайте» и т. д. Также для придания большей естественности можно купить несколько ссылок на страницы, которые непосредственно не участвуют в продвижении.

3. Входящие естественные ссылки. Покупка ссылок – дело нехитрое, особенно если под рукой удобный инструмент. Но хотя SeoPult при грамотном использовании выводит сайты в «Топ-10» поисковой выдачи, параллельно имеет смысл провести работу над внутренними факторами. Владелец качественного сайта способен добиться того, чтобы ссылки на его материалы бесплатно размещались в известных блогах, на крупных тематических сайтах. Интересный и востребованный ресурс сам по себе запускает механизм наращивания естественной ссылочной массы. Необходимо дать пользователям то, что им нужно: знания, сервисы, развлечения, исследования. Получив популярность в широких кругах, сайт вправе рассчитывать на достойный траст. А трастовым ресурсам проще как забраться на высшие ступени поисковой выдачи, так и удерживать завоеванные позиции.

Резюмируя все вышеизложенное, мы повторим, что, как это ни тривиально, качество сайта – тот фундамент, на котором строится его продвижение.

В процессе присвоения уровня траста ресурсу поисковые системы учитывают тысячи разных параметров, но все они коррелируют с качеством сайта и его полезностью для интернет-аудитории.

АГС, горе от ума и парадоксы современного SEO

«Мой сайт попал под АГС[9]9
  АГС – комплекс фильтров «Яндекса», определяющих, достойна ли страница (или сайт) индексации, исходя из ряда критериев ее качества. – Примеч. ред.


[Закрыть]
!» – обронить такую фразу на форуме оптимизаторов – значит вызвать такой же всплеск сочувствия пополам со злорадством, какой возник бы, если бы некая дама написала в комьюнити о фитнесе: «Я сидела на диете полторы недели, но за два дня набрала все, что сбросила». Как в том, так и в другом случае жалобщиков избавило бы от проблем знание ряда фундаментальных законов: в первом – «сеошно-математических», во втором – физиологических и биохимических. О том, чем в большинстве случаев оказывается мнимое «попадание под АГС», какую пользу сметливый оптимизатор извлечет из теории игр, комбинаторики и иных страшных в своей полезности дисциплин, расскажет известный SEO-эксперт Андрей Шипилов.


Насколько актуален АГС сегодня?

Андрей Шипилов: АГС свою задачу выполнил. Потому что он был направлен против массы ГС, автоматически ваяемых школьниками. Их больше нет, поэтому сайты продолжают наказываться совсем по другим основаниям. Конечно, если вы сваяли кучу говносайтов, то у вас сайт попадает под АГС, пять страниц в индексе осталось – и вы рвете волосы. Но если у вас нормальный сайт, в развитие которого вложено 5–6 млн руб., да пусть даже 500 тыс., и у вас вдруг остается десять страниц в индексе, а вы бегаете кричите, что у вас АГС, то, простите, у вас не АГС – у вас глупость! В теории игр есть такое положение: не надо искать заговор там, где все можно объяснить простейшей глупостью.


Разве АГС сегодня не работает?

А. Ш.: Он продолжает работать. Вот пришел Коля Иванов: «Ах, я сейчас пойду зарабатывать на Sape[10]10
  Sape – биржа ссылок (http://www.sape.ru/). – Примеч. ред.


[Закрыть]
!» Сделал 100 сайтов, и 100 сайтов у Коли Иванова ушли под АГС. Такое случается. Когда приходит человек, у которого сайт приносил на нормальной рекламе, на контексте или еще на чем-то 60 тыс. руб. в месяц, когда у него была посещаемость 20 тыс. в месяц, когда на сайте бурлила жизнь и вдруг у него либо трафик падает в 50 раз, либо вылетают все страницы из индекса, то это не АГС, а, повторюсь, глупость.


Действительно хороший сайт не может в принципе попасть под АГС?

А. Ш.: Как правило, человек, желая сделать свой сайт лучше и наслушавшись советов SEO-специалистов, загнал его в такие условия, что он, с точки зрения «Яндекса», стал очень плохим. Я придумал термин – «парадокс Марьи-искусницы». Знаете, когда в старом фильме выходит мальчик и колдун предъявляет ему 20 абсолютно равнозначных копий его мамы – выбирай, какая настоящая. Сейчас любой в нашей отрасли находится в положении такого мальчика, выбирающего между десятками «Марий-искусниц», потому что на рынке SEO сейчас информации нет. Есть информационный белый шум, и среди него гуляет один-единственный нужный вам ответ, но вы его не увидите, поскольку у вас нет методики, как его вытащить. Простейший эксперимент. Я иду в «Помощь» «Яндекса», читаю о синтаксисе robots.txt, захожу на форум под видом новичка и спрашиваю: «Ребята, каков правильный синтаксис строки Crawl-delay? Как мне ее правильно написать в robots.txt?» Получаю восемь, десять, пятнадцать ответов. Взаимоисключающих. Логика подсказывает, что среди ответов в лучшем случае только один верный.

Другой парадокс – «парадокс монетки»: принимая решение по принципу «орел или решка», я получу более точный ответ, чем задав вопрос на форуме. Говорят, что на форумы не надо ходить, но форумы – это отражение сообщества. Человек, который владеет информацией, будет на ней зарабатывать, он ею делиться не станет. И даже если некто владеет информацией, маленьким кристалликом истины, тот все равно будет поглощен информационным шумом. Темы быстро «сгорают». Положим, вы нашли способ заработать на SEO. Вы сумеете на нем зарабатывать два-три года, не больше, а скорее меньше. Возникает куча сервисов, разного рода программ SEO, которые что-то делают. В основе их функционирования лежит тот же информационный шум, который гуляет по SEO-рынку. Но человек, получая информационный шум опосредованно, через программу, зачастую не видит того, что творится на форумах, он хочет быть выше их суеты: «Пускай школьники болтают, а вот программа дала мне результаты, я на них и буду ориентироваться». Посмотрите по терминологии, зайдите на форумы Sape, на SearchEngines. Приходит человек: «У меня трастовые показатели сайта – 15, показатели вхождения – 18, все круто, а сайт падает. Почему?» А что такое «трастовые показатели – 15»? Ему программа это сказала. Еще конкретный пример: «У моего сайта выпала первая страница из индекса. Все остались, а первая выпала. Почему?» Да потому, что ему какой-то сервис сказал, что выпала первая страница. Когда человек хочет улучшить свой сайт, он волей-неволей оказывается жертвой информационного шума.


В заблуждение впадают те, кто слишком доверяет как истинным, так и самозваным SEO-специалистам, это болезнь неофитов?

А. Ш.: Классический пример. Сидит народ на серьезной конференции и рассуждает о влиянии поведенческих факторов на ранжирование сайтов, на их позиции в «Яндексе». Дескать, надобно увеличить время просмотра страницы на столько-то, а глубину просмотра – на столько-то, а показатель отказов – на столько-то. Обратите внимание: употребляя эти термины, каждый под ними понимает свое. А в соседнем зале рассказывают, как «Яндекс» наказал MegaIndex или еще кого-то за накрутку поведенческих факторов. Что такое поведенческие факторы? Никто не знает. Раз никто не знает, будем принимать за поведенческие факторы статистику. Почему? Потому что статистика показывает, как пользователь ведет себя на нашем сайте. Коль скоро она показывает, как пользователь ведет себя на нашем сайте, значит, статистика и есть поведенческий фактор. Следовательно, надо улучшить статистику сайта. А как я буду улучшать? Уменьшая процент отказов, увеличивая глубину просмотра, увеличивая время нахождения на сайте.

Очень серьезная контора, очень грамотные специалисты. Компания занимается онлайн-обучением. Хороший инвестор, действительно умелые технические специалисты и преподаватели, бизнес-команда прекрасная. Они принимают совершенно верные тактические решения, проводят маркетинговые исследования. Однажды делают вывод: «Если мы разместим на сайте видеоролики, то тем самым повысим усвояемость материала, сделаем его более интересным». Приходит грамотный технический специалист и говорит: «Вы что, сдурели – видеоролики класть на своем сервере! Есть же видеохостинг. Заведите аккаунт, положите все видеоролики там, а здесь сделайте iframe или еще что-нибудь и показывайте на здоровье». Посетитель заходит, смотрит видеоролик «Как собрать детектор для пыли в домашних условиях». Как принято на видеохостингах, ему сразу же подсовываются значки более интересных записей на ту же тему, он щелкает, смотрит их 15 минут, не уходя со страницы. Все радуются: проведенное на сайте время – 15 минут, глубина просмотра – неимоверная, и уж, наверное, чудесные поведенческие характеристики. В какой-то момент у сайта оказывается ноль страниц в индексе. Причина проста: поисковая машина лишена эмоций и ей понятен тот факт, что на сайте с 5 тыс. страниц каждая ссылается на один и тот же хостинговый аккаунт и народ ходит туда, только чтобы через эти страницы смотреть видеоролики на стороннем хостинге. Что увидел «Яндекс»? Дорвей. Сайт забанен.


А как понять причину «возмездия»?

А. Ш.: Причина наказания качественного сайта может быть до такой степени неочевидной, что даже три-четыре аудитора, садясь вместе, очень долго будут копаться. Сам я сейчас, когда занимаюсь аудитом сайтов, действую очень просто: я прежде всего стараюсь понять, что именно было вытащено из информационного шума. Я вижу, по какой ниточке из информационного шума они пошли, и всегда отыщется уязвимая точка, где сделано не то. Только так. Если тупо сидеть и искать, вы ничего не найдете.

Другой аспект. Везде, на сайтах разработчиков CMS, на сайтах специалистов по безопасности, в очень многих серьезных источниках по SEO, выложены чек-листы по 20–30 пунктов, описано, чего не надо делать, какие технические погрешности на вашем сайте могут привести к наказанию со стороны поисковых машин. В 90 % случаев именно нарушение чисто технических требований и приводит к наказанию сайта, несмотря на то что разработчики сайта все это читали и вроде бы понимают: не нужно плодить дубли, надо закрывать от поисковых роботов все технические страницы, результаты сортировки, профили – все то, что не несет информации, релевантной содержанию сайта.

Беда в том, что если вы все перечисленное без задней мысли проделаете, то потеряете четыре пятых трафика, который у вас идет на эти паразитные страницы. Снова бросаемся с головой в информационный шум, выныриваем оттуда вот с такими глазами, с полной уверенностью в том, что чем больше у нас проиндексированных страниц на сайте, тем лучше он проиндексирован, чем больше трафик на сайт льется, тем круче. Да, если ваш сайт – СМИ и вы с трафика продаете рекламу, без вопросов. А если вы торгуете шинами или бриллиантами и добились того, что на ваш сайт в поисках бриллиантов заходит 50 тыс. человек в день? Чтобы радоваться этому – извините, господа, – надо быть полным глупцом! Потому что бриллиант и даже автомобильные шины – это не тот товар, который можно продать 50 тыс. покупателям. Значит, у вас столпится такая куча народа, что вы его не продадите.

Еще раз: не плодим дубли, категорически закрываем от индексации все технические страницы, в строгом соответствии с рекомендациями в «Яндексе» и Google составляем robots.txt. На 95 % сайтов, аудит которых я проводил, robots.txt был написан с синтаксическими (что не страшно, в общем-то) или фактическими ошибками. За последние два года мне три раза приходилось сталкиваться с тем, что сайт вылетал из индекса, поскольку веб-мастер нечаянно запретил индексацию сайта в файле robots.txt, просто написав строку Allow без параметров, подумав, что она разрешает индексировать на сайте.

Смотрим, чтобы было с robots.txt. В обязательном порядке проверяем, что выдает наш сервер в ответ на запрос браузера. Если ваш сервер отвечает – типичная ситуация, – что срок валидности опубликованного материала истек 1 января 1980 года, то ни о каком регулярном и системном посещении вашего сайта поисковыми роботами и речи нет. Вы можете прописать в sitemap все параметры как положено, однако, если робот увидит эту запись в коде ответа сервера, он ваш sitemap проигнорирует. Пустячок, но я сам был свидетелем того, как новостной сайт нормально не индексировался. После того как в полях, касающихся модификации публикаций, появились валидные даты, возникла валидная дата истечения cookie, сайт взлетел просто за счет того, что робот стал заходить практически секунда в секунду с публикуемым материалом. Грубо говоря, вы делаете технически правильный сайт и потом не платите мне 30 тыс. за то, чтобы я вам сказал: «Исправьте эту строчку в robots.txt или закройте с помощью noindex технические страницы».

К слову о noindex. Он позволяет закрыть часть страницы от индексации. Проглядываю сайт, и каждое второе предложение – в noindex. Спрашиваю у владельца сайта:

– Что это такое у тебя?

– А это я придумал такой очень хороший способ уникализации текста!

– Как так?

– Вот «Яндекс» это предложение читает, это предложение читает, это предложение, и вроде как текст уникальный.

– Да «Яндекс» у тебя все прочитает, понимаешь?

Noindex – это «не помещать в индекс», это не значит «нельзя читать, нельзя анализировать». Это значит «прочти, проанализируй, но не помещай в индекс». На сайте «Яндекса» четко все написано в «Помощи», двоякие толкования исключены.

Очень серьезная контора, имеющая десятки сайтов по всему бывшему СССР Специфика компании вынуждает одни и те же позиции товара по 50, по 100 раз на одной странице приводить. В какой-то момент сайт перестает нормально индексироваться, все рушится, из индекса тоже много вылетает. Когда я проверяю сайт, в первую очередь смотрю robots.txt, потом код страницы. Открываю совсем небольшую страничку – там 150 раз noindex.

– А что это, господа?

– Понимаете, у нас слово «насос» встречается 150 раз, и мы подумали, что «Яндекс» это сочтет спамом. Только один «насос» оставили, а все остальные забрали в noindex, чтобы поисковик их не прочитал.

Во-первых, «Яндекс» никогда прайс-лист, табличку не сочтет спамом. Он не дурак и распознает, где у вас прайс-лист, а где текст, насыщенный спамом. Он это начал понимать лет десять назад. Во-вторых, если на сайте 50 тыс. страниц и на каждой надо обработать тег по 150 раз, это же какие вычислительные мощности потребуются. В конце концов, либо роботу самому «надоело», либо человек зашел, увидел 150 noindex, у него глаза из орбит вылезли, он – чпок! – нажал кнопку.

Повторюсь, когда я слышу: «Помогите, мой сайт попал под АГС!» – то, если это достаточно серьезная площадка, почти наверняка она попала не под АГС, а под информационный белый шум в Интернете, помноженный на глупость владельца.


Если не АГС, то что может грозить хорошему сайту и за что именно?

А. Ш.: Да простит меня поисковая система «Яндекс», но у нее очень часто случаются разного рода ошибки и глюки. В большинстве случаев они некритические и остались бы незамеченными, кабы владельцы сайтов, «вооруженные» информационным шумом, не следили за позициями. Здравый смысл подсказывает, что важно следить за трафиком сайта. А информационный шум говорит: «Мониторь позиции». Вдруг владелец сайта видит, что у него позиции начинают скакать. Когда подобное происходит, у меня первая мысль: «А не глюк ли это “Яндекса”?» Ведь мне известно, что с моим сайтом все нормально и ни с того ни с сего он прыгать в выдаче не начнет. А у человека, который живет в белом шуме, иная реакция: «А какой фильтр на меня наложили?» Он делает лихорадочные шаги в поисках мнимого фильтра и надеется устранить проблему, мечась от одного предположения к другому: «Ах, может быть, у меня переспам? А давай на 1 % меньше ключевых слов на всех страницах сделаем? Ах, может быть, я слишком много ссылок закупил? Дай-ка я от части откажусь, закуплю вместо них другие…» Сайт, в общем-то, стабильный и нормальный, но с ним в одночасье затевается чехарда: синхронно меняются тексты на всех страницах, ссылки скачут. Все, и никаких фильтров не надо. Просто потому, что тексты синхронно поменялись, позиции у вас упадут.

Технологии совершенствуются. Раньше – да: накупил ссылок – фильтр «Ты последний» (уж не знаю, существовал он на самом деле или нет), переспамил – фильтр «Ты спамный». Сейчас такого нет. Действуют очень сложные механизмы, которые стараются понапрасну не наказывать. На сегодняшний день «Яндекс» наказывает, только если его изрядно достать. Четкой статистики у меня нет, но частенько ко мне приходят люди с просьбой: «Ах, определите, какой у меня фильтр!» Нередко дело в региональной принадлежности оказывается. «Яндекс» все время что-то у регионов подкручивает. Господа, ваш сайт привязан к Перми. Поменяйте регион, и вы увидите, что эта чехарда только в конкретном регионе происходит, в других ее нет. У «Яндекса» написано чуть ли не аршинными буквами черным по белому на панели «Веб-мастер», что для каждого региона используются свои правила ранжирования. Следовательно, что-то с факторами ранжирования в вашем регионе происходит. Можно задать «Москву», зайти с зарубежного IP и убедиться, что на самом деле с сайтом все нормально. Я не знаю, как он внутри устроен, в моих глазах «Яндекс» – это «черный ящик» что на входе, что на выходе. Но очень часто по какой-то причине «Яндекс» перестает видеть часть страницы. Может, действительно какие-то проблемы с базой, а может, проблемы со считыванием. Тем не менее он индексирует страницу до половины, а оставшуюся часть не видит. Такие эксцессы, впрочем, кратковременны. Если вас «Яндекс» видит по одному заголовку, по тупому вхождению предложения целиком, а абзацем ниже – нет, то подождите немножко. При условии, что вы страницу в noindex не забирали, не бывает так, чтобы страница индексировалась кусочками, она всегда индексируется полностью.


Когда позиции скачут или нечто подобное происходит, как правило, это не фильтр?

Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 | Следующая

Правообладателям!

Представленный фрагмент книги размещен по согласованию с распространителем легального контента ООО "ЛитРес" (не более 20% исходного текста). Если вы считаете, что размещение материала нарушает ваши или чьи-либо права, то сообщите нам об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Топ книг за месяц
Разделы







Книги по году издания