Правообладателям!
Представленный фрагмент книги размещен по согласованию с распространителем легального контента ООО "ЛитРес" (не более 20% исходного текста). Если вы считаете, что размещение материала нарушает ваши или чьи-либо права, то сообщите нам об этом.Читателям!
Оплатили, но не знаете что делать дальше?Текст бизнес-книги "Поисковое продвижение сайтов"
Автор книги: Сергей Анисимов
Раздел: Маркетинг; PR; реклама, Бизнес-книги
Возрастные ограничения: +16
Текущая страница: 2 (всего у книги 6 страниц)
4. Длительность регистрации домена
Цитата представителей Гугла однозначна: «Ценные (легитимные) домены часто бывают оплачены на несколько лет вперед в то время как доры (нелегитимные) нечасто используются дольше года. Таким образом, дата истечения срока регистрации домена может быть фактором определения легитимности сайта». Очевидно, что уровень траста выше у тех доменов, которые зарезервированы на годы вперед.
✍ На заметку
Траст сайта – это интегральный показатель доверия к сайту со стороны поисковых систем. Траст зависит от множества параметров и значительно влияет на позиции сайта в результатах поиска.
Чтобы понять механизм действия траста, можно посмотреть на Википедию. Статьи с этого сайта, как правило, занимают верхние строчки в выдаче без дополнительных усилий по продвижению, просто благодаря факту своего появления на высокотрастовом сайте. В то же время качественная статья на низкотрастовом сайте может долго ранжироваться невысоко, несмотря на все усилия по ее продвижению.
По большому счету все продвижение сайта сводится к тому, чтобы растить и увеличивать траст. Вместе с трастом придут высокие позиции в поисковой выдаче, а за ними – и трафик.
К сожалению, в России пока нет возможности арендовать доменные имена в зоне. ru более чем на год, поэтому все вышеизложенное относится только к международным доменам.
5. Приватный WHOIS
WHOIS[4]4
https://ru.wikipedia.org/wiki/whois
[Закрыть] (от англ. who is – «кто это?») – это сетевой протокол прикладного уровня, основное применение которого заключается в получении регистрационных данных о владельцах доменных имен, IP-адресов и автономных систем.
С данным протоколом работают разнообразные WHOIS-сервисы[5]5
https://www.nic.ru/whois/
[Закрыть], которые позволяют интернет-пользователям и поисковым системам быстро получить информацию о регистрации домена (в том числе дату регистрации и возраст домена) и узнать контакты, по которым можно связаться с организацией или человеком, которые владеют доменом.
Однако владелец домена по разным причинам может скрыть контактные данные (сделать их приватными). В таком случае поисковые системы считают, что сайту «есть что скрывать». Это понижает уровень траста и может ухудшить позиции веб-ресурса в выдаче по целевым запросам.
Отсюда простая рекомендация: при продвижении необходимо открыть контактные данные и привести полную информацию о владельце домена.
✍ На заметку
Забегая вперед, необходимо отметить, что самый короткий путь к успеху в Интернете – это открытость во всех проявлениях. Прозрачность позволяет установить с пользователями доверительные отношения и быстро масштабировать любой интернет-проект.
Рис. 1. Данные WHOIS-сервиса для домена mail.ru, представленные на странице https://www.nic.ru/whois/
6. Привязка домена высшего уровня (TLD) к стране
TLD (от англ. top-level domain, домен верхнего (первого) уровня) страны (например, ru или. ua) позитивно влияет на рейтинг сайта внутри стран, но негативно – на глобальный.
Отсюда вывод: если в проекте хотя бы в перспективе планируется выход за пределы отечественного Интернета, есть смысл уже на старте задуматься о международном домене.
Техническая оптимизация сайта
Техническая оптимизация – это комплекс работ по выявлению и устранению программных и технических недоработок, мешающих сайту занять высокие места в выдаче поисковых систем. Это крайне важный процесс, без выполнения которого продвижение сайта либо существенно усложняется, либо становится невозможным.
Техническую оптимизацию условно можно разделить на два этапа:
1. Первоначальная оптимизация. Данная процедура выполняется на старте проекта и обеспечивает корректную индексацию сайта и правильную настройку его основных механизмов.
2. Периодический анализ состояния сайта, устранение выявленных недостатков и доработка новых возможностей. На этом этапе техническая доработка превращается в итерационный процесс, где в конкретный временной период (например, за календарный месяц) выполняется определенный перечень работ по улучшению сайта, объем которых зависит от финансовых возможностей в проекте по продвижению.
В данном разделе мы сосредоточимся на тех параметрах вебсайтов, которые оказывают влияние на ранжирование в поисковых системах, а также приведем рекомендации, которые помогут избежать самых распространенных технических ошибок.
7. Надежный, быстрый и удобный хостинг
Аптайм сервера
Аптайм сервера (от англ. uptime – время непрерывной работы) – это один из важнейших параметров, которые надо учесть при выборе хостинг-площадки для веб-сайта. Аптайм рассчитывают в процентах, как среднее время работы системы от общего времени измерения. Противоположным аптайму является «даунтайм» (от англ. downtime) – время, когда сервер не работает.
Хорошими показателями аптайма считаются цифры в пределах 99,8-99,9 %, что примерно соответствует часу-полутора даунтайма в месяц. Этого вполне достаточно для устойчивой работы сайта, да и добиться более высоких показателей может быть сложно, так как любой сервер требует критических обновлений (после которых идет перезагрузка), а иногда тормозит или подвисает, вследствие чего непрерывная работа может прерываться.
Чем опасен низкий аптайм? Во-первых, если сервер «упал», теряются посетители и клиенты, которые могли бы прийти на сайт. Особенно это критично при высоком уровне платного трафика из контекстной рекламы и других рекламных сетей, когда денежные потери могут выливаться во вполне ощутимые суммы.
Во-вторых, если сайт будет недоступен по причине неработоспособности хостинга, поисковые роботы не смогут получить к нему доступ. При кратковременных неполадках, конечно, ничего не произойдет, но постоянные отключения приведут к понижению сайта в результатах выдачи, вплоть до полного исключения ресурса из поискового индекса.
Чтобы избежать негативных последствий, нужно ответственно отнестись к выбору хостинга: провести анализ предложений на рынке; проверить отзывы; разобраться в том, насколько удобный интерфейс предоставляет хостинг-компания[6]6
https://ru.wikipedia.org/wiki/XocTHHroBaa_KOMnaHHa
[Закрыть] и какие дополнительные услуги будут доступны. Такая работа сэкономит много сил в дальнейшем.
Отслеживать работоспособность сервера можно множеством способов. Самый простой – настроить уведомления о проблемах на сайте в системе веб-статистики, которую устанавливают на сайт для сбора информации о различных аспектах его работы (подойдет, например, Яндекс-метрика). Если нужно более подробное и гибкое решение, необходимо воспользоваться веб-сервисами проверки хостинга, ссылки на которые легко найти в Сети.
Местонахождение и скорость работы сервера
Физическое местонахождение сервера хоть и слабо, но может повлиять на ранжирование сайта. Особенно это актуально при поиске информации с геопривязкой, по определенному географическому региону.
Большое географическое удаление сервера может вызвать проблемы со скоростью загрузки сайта и обслуживанием сервера: общаться с технической поддержкой сервера, например, придется ночью, да еще и на иностранном языке.
Большое значение имеет скорость работы сервера, от которой напрямую зависит ряд аспектов, влияющих на скорость загрузки сайта. Для ускорения своих площадок хостинг-провайдерами используются различные технологии, вплоть до CDN[7]7
https://ru.wikipedia.org/wiki/Content_Delivery_Network
[Закрыть] – географически распределенной сетевой инфраструктуры, позволяющей оптимизировать доставку контента пользователям. Соответственно, при продвижении нужно проанализировать предоставляемые разными компаниями возможности и выбрать самый быстрый сервер из всех доступных.
Отказоустойчивость
С ростом трафика сайта нагрузка на хостинг будет расти. Также нужен запас прочности сервера на случай внезапного лавинообразного роста трафика (например, из-за рекламных акций или случайных ссылок в социальных сетях, по которым одномоментно могут перейти множество пользователей).
В идеале выбранный для сайта сервер должен выдерживать даже критичную нагрузку. Проверить это можно с помощью специальных сервисов нагрузочного тестирования производительности[8]8
https://loadimpact.com/
[Закрыть].
Если у сайта слабый сервер и нет возможности увеличить его мощность, можно также оптимизировать нагрузку с помощью директивы crawl-delay[9]9
https://yandex.ru/support/webmaster/controlling-robot/robots-txt. xml#crawl-delay
[Закрыть]. Но это временная мера: проще и надежнее использовать более мощный хостинг.
8. Скорость загрузки сайта
Скорость загрузки является критично важным параметром при продвижении сайта.
Дело в том, что пользователи привыкли к быстрой загрузке и их раздражает ситуация, когда сайт долго не открывается. Поисковые системы учитывают этот момент и в погоне за удовлетворенностью пользователей ставят на высокие позиции в выдаче только быстрые сайты.
Как измеряется скорость сайта
Поисковые системы могут весьма точно просчитывать скорость загрузки страницы, основываясь только на ее коде и размере скачиваемых файлов. Однако для измерения скорости используется и множество других источников, например, статистика браузеров (Google Chrome, Яндекс Браузер), плагинов для браузеров и систем веб-мониторинга.
Чем выше будет скорость загрузки страниц, тем лучше. В общем случае время ожидания не должно превышать 3–5 секунд, а хорошие показатели составляют до 0.7 секунды для времени скачивания исходного кода документа и до 0.2 секунды для времени ответа сервера. То есть ваш сайт должен загружаться меньше чем за секунду.
Оценить скорость загрузки помогут специальные сервисы. Самый популярный из них – Google PageSpeed Insights[10]10
https://developers.google.com/speed/pagespeed/insights/
[Закрыть], по оценке которого нужно набирать 90+ баллов и для мобильной, и для десктопной версии сайта. Помогут и другие сервисы анализа скорости загрузки веб-ресурсов, ссылки на которые легко найти в Интернете.
Работу по ускорению сайта должен выполнять профессиональный программист, результаты работы которого необходимо проверить с помощью специальных веб-сервисов и данных веб-статистики. Для общей информации приведем некоторые рекомендации, которые могут помочь выполнить задачу:
1. Использовать кэш браузера [11]11
https://developers.google.com/speed/docs/insights/ LeverageBrowserCaching
[Закрыть].
2. Включить сжатие[12]12
https://developers.google.com/speed/docs/insights/ EnableCompression
[Закрыть].
3. Удалить код JavaScript, препятствующий показу страницы[13]13
https://developers.google.com/speed/docs/insights/BlockingJS
[Закрыть].
4. Оптимизировать код CSS[14]14
https://developers.google.com/speed/docs/insights/OptimizeCSSDelivery
[Закрыть].
5. Сократить объем ресурсов (HTML, CSS и JavaScript)[15]15
https://developers.google.com/speed/docs/insights/MinifyResources
[Закрыть].
6. Оптимизировать изображения[16]16
https://developers.google.com/speed/docs/insights/OptimizeImages
[Закрыть].
7. Оптимизировать время ответа сервера[17]17
https://developers.google.com/speed/docs/insights/Server
[Закрыть].
Перечисленные рекомендации подходят для всех вебплатформ, поэтому их можно реализовать в первую очередь.
9. Оптимизация метатегов
Метатеги[18]18
https://ru.wikipedia.org/wiki/MeTaTerH
[Закрыть] (от англ. meta tags) – это html-теги, предназначенные для предоставления структурированных метаданных (дополнительных, сопроводительных данных) о веб-странице.
Метатегов очень много, но большинство из них для практического поискового продвижения бесполезны, поэтому в данном разделе мы рассмотрим только те теги, которые способны реально повлиять на позиции сайта в поисковых системах.
Для диагностики проблем с метатегами можно воспользоваться сервисами для веб-мастеров Яндекса и Гугла. В них представлена информация о проиндексированных страницах, и можно легко увидеть явные проблемы (например, разделы с отсутствующими или повторяющимися метатегами).
Однако о скрытых дефектах метатегов поисковые системы не рассказывают: продвигаемый сайт будет просто ранжироваться ниже конкурентов. Поэтому изучению метатегов и правил их заполнения стоит уделить особое внимание.
Тег <title> (название страницы)
Хотя <title>[19]19
https://yandex.ru/support/webmaster/recommendations/ presentation.html
[Закрыть] с технической точки зрения не метатег, а просто тег, он часто используется вместе с метатегом <description>, поэтому обсуждать его мы будем именно в этом разделе[20]20
https://support.google.com/webmasters/answer/798127hbru
[Закрыть].
<title> многими исследователями считается чуть ли не вторым по важности фактором при ранжировании страницы (на первое место ставится текстовое наполнение). Такое утверждение спорно, однако тег точно нельзя недооценивать. Как правило, на его основе поисковая система формирует заголовок страницы, который пользователь видит на странице поисковой выдачи[21]21
https://support.google.com/webmasters/answer/35624
[Закрыть]. Именно от него во многом зависит, какую позицию займет страница и перейдет ли на нее пользователь.
При заполнении тега нужно придерживаться следующих рекомендаций:
1. <title> должен отражать содержимое страницы.
2. В теле тега <title> должно присутствовать точное вхождение основного запроса, под который оптимизирована страница. Также в него можно включить вхождения второстепенных запросов и полезную информацию для пользователей (бренд, отзывы, цена, скидки, телефон, сведения о доставке). При этом нужно избегать переоптимизации (чрезмерного употребления) по главным и второстепенным ключевым словам.
3. Ключевые слова лучше размещать ближе к началу заголовка. Это влияет как на позицию в выдаче, так и на CTR (на такой заголовок больше кликают).
4. Текст заголовка должен быть осмысленным и привлекательным для клика. Нужно помнить, что именно его видит пользователь в результатах выдачи.
5. Весь заголовок рекомендуется вмещать в 70 символов, так как есть вероятность, что большее количество текста пользователь просто не увидит из-за ограничений верстки на странице выдачи поисковых систем. Приблизительно это 1–2 небольших словосочетания. Ограничениями можно пренебречь, чтобы разместить действительно важную для пользователей информацию (есть вероятность, что поисковая система покажет эту часть заголовка при вводе пользователем соответствующего запроса). При этом нужно помнить, что чем больше слов в <title>, тем меньше вес у каждого слова, поэтому чем заголовок содержательнее и короче, тем лучше.
6. Необходимо проанализировать заголовки успешных конкурентов, которые уже присутствуют в выдаче по нужным ключевым словам. Это не только поможет определить оптимальную длину заголовка, но и подскажет, какую информацию стоит в нем разместить.
7. <title> должен быть уникальным для всех страниц в пределах одного сайта.
Для больших сайтов часто кажется слишком трудоемким заполнение тега заголовка для всех страниц в ручном режиме. Зачастую это иллюзорное впечатление: объем усилий оказывается не таким уж большим и с лихвой окупается полученным эффектом.
Но если ручной режим представляется нецелесообразным, можно сгенерировать метатеги по шаблону. Подробнее мы поговорим об этом ниже.
Метатег <description> (описание страницы)
Метатег <description>[22]22
https://yandex.ru/support/webmaster/indexing-options/description.html
[Закрыть] описывает содержимое веб-страницы. Он также очень важен, так как на его основе поисковые системы зачастую формируют сниппеты, и, следовательно, от его качества напрямую зависит популярность сайта.
✍ На заметку
Сниппет – это небольшой фрагмент текста, который мы видим на странице поисковой выдачи вместе со ссылкой на сайт. Сниппеты напрямую влияют на кликабельность, и их оптимизации посвящен отдельный раздел в этой книге.
При формировании содержимого метатега < description> необходимо выполнять следующие рекомендации:
1. В теле < description> должно присутствовать точное вхождение основного запроса, под который оптимизирована страница. Также в него можно включить: вхождения второстепенных запросов и полезную информацию для пользователей (бренд, отзывы, цена, скидки, телефон, инфо о доставке и прочее). При этом нужно избегать переоптимизации (чрезмерного употребления) по главным и второстепенным ключевым словам.
2. Текст должен содержать призыв к действию и быть привлекательным для клика.
3. Желательно делать основное содержимое < description > короче 160 символов. Но нужно учитывать, что количество символов, которые выводятся в сниппете на странице с результатами поиска, может в любой момент измениться. Поэтому текст описания может быть и более 160 символов. Главное, чтобы это была полезная и нужная для пользователей информация. 160 символов – это 2–4 небольших предложения. Допускается, когда эти предложения взяты из текста на странице (желательно из верхней его части). Это почти гарантированно приведет к тому, что сниппет будет формироваться поисковыми системами именно на основе содержимого <description>.
4. <description> должен присутствовать на всех страницах и быть уникальным в пределах сайта.
5. Хорошим приемом повышения кликабельности сайта на странице поисковой выдачи может быть вставка в описании специальных символов и значков (самолет, телефон, решетка и прочее). О том как это сделать, можно легко найти информацию в Сети.
Шаблонизация
Для больших веб-проектов актуальна проблема ручного заполнения метатегов на всех страницах. Этих страниц просто слишком много, хотя выше мы отмечали, что часто эта проблема надуманная: на заполнение метатегов понадобится не так уж много времени, а затраченные усилия с лихвой окупятся хорошими позициями в поисковых системах.
Но если вопрос стоит остро, на помощь придут автоматические скрипты и конкатенация.
✍ На заметку
Конкатенация – операция склеивания объектов линейной структуры, обычно строк. Например, конкатенация слов «микро» и «мир» даст слово «микромир»[23]23
https://ru.wikipedia.org/wiki/KoHKaTeHau,Ha
[Закрыть].
Заниматься написанием скриптов должны программисты, это технический вопрос. Важнее другой момент: как составить тексты для заголовков и описаний?
Универсальных рецептов нет, но важно понимать, что схема конкатенации – это составление шаблонов для определенных видов контента, где на место свободных полей можно подставить конкретные значения с каждой страницы.
Допустим, нужно заполнить метатеги для большого количества продуктовых страниц на сайте интернет-магазина парфюмерии. Для начала необходимо определить, как пользователи движутся по сайту. Пусть это происходит так: главная – категория – продукт. Эти три переменные необходимо заполнить.
Далее определяются дополнительные параметры и слова, которые важны для пользователей. Для этого необходимо проанализировать хвост низкочастотных запросов, который возникает при проверке основного запроса. Например, вот что мы видим при проверке в сервисе Яндекс. Wordstat[24]24
https://wordstat.yandex.ru/
[Закрыть] категории «женские духи»:
Анализируем таблицу и выбираем то, что волнует покупателей женских духов (цена, фото, отзывы, купить…).
Переходим к построению шаблона заголовка. Например, для страницы с товаром он мог бы быть таким:
{название категории} {название товара} – купить в {название магазина}. Цена от {цена} р., фото, отзывы, доставка.
После подстановки всех переменных получим:
Женские духи Dia Woman – купить в магазине Beauty. Цена от 17 800 р., фото, отзывы, доставка.
С мета-описанием аналогично. Если на страницах сайта есть подробное описание товара – можно планировать схемы детальнее, включать больше параметров и полезной для пользователей информации.
Рекомендуется делать схемы для каждого раздела сайта. Чем детальнее их проработать, тем лучше, хотя стоит помнить о балансе затрат и полученных результатов.
Метатег <keywords> (ключевые слова)
На заре развития поисковых систем появилась красивая, но наивная идея о том, что веб-мастера будут сами подсказывать поисковым системам те ключевые слова, которым релевантна та или иная веб-страница.
Для реализации этой теории ввели метатег <keywords >, слова из которого имели серьезное значение при ранжировании документов.
Что произошло дальше, догадаться нетрудно. Веб-мастера и специалисты по продвижению начали запихивать в <keywords> все ключевые слова, по которым они хотели продвинуть сайт в результатах поиска. На релевантность никто не обращал внимания: зачем эти тонкости, когда можно было в короткий срок продвинуться по всем нужным коммерческим запросам?
Масштаб злоупотреблений достиг такой величины, что поисковые системы вынуждены были свести влияние <keywords> буквально до нуля, поэтому на данный момент заполнять этот тег бессмысленно.
Если тег все-таки заполняется содержимым (так сказать, на всякий случай), необходимо соблюдать простые правила. Содержимое <keywords> должно быть уникальным в пределах сайта, все ключевые слова должны быть релевантны странице, и их должно быть немного.
В противном случае поисковые системы могут воспринять содержимое метатега <keywords> как веб-спам и понизить сайт в результатах поиска.
Метатег <robots>
Данный метатег[25]25
https://developers.google.com/search/reference/robots_metatag?hl=ru
[Закрыть] позволяет контролировать сканирование и индексирование сайта поисковыми системами. По умолчанию задаются значения «index, follow» (то же самое, что «all») – дополнительно их прописывать не нужно. Разные поисковики распознают разные значения тега, но универсальными являются два:
– noindex: запрещает индексирование страницы;
– nofollow: запрещает роботу переходить по ссылкам с этой страницы.
Эти значения можно комбинировать, разделяя их запятыми. Например, комбинация
<meta name=«robots» content=«noindex, follow»/> заставит робота поисковиков перейти по всем ссылкам на странице, но не индексировать ее содержимое.
Нужно отметить, что использование данного метатега, как правило, свидетельствует о проблемах со структурой сайта. С такими проблемами еще можно мириться на огромном портале, где регулярно возникают трудноустранимые с программной точки зрения «тупики» (страницы, представляющие мало интереса для пользователей и возникающие вследствие несовершенства архитектуры сайта). Но для небольшого проекта это недопустимо.
✍ На заметку
Данное правило является частным случаем другого, более универсального, принципа, который звучит так: «Пользователи и поисковые системы должны видеть одинаковый контент». Если на сайте возникают страницы, содержимое которых нецелесообразно индексировать поисковому роботу, необходимо задуматься о том, а стоит ли их «индексировать» пользователям сайта и какое впечатление такие страницы на них произведут? Не проще ли просто их убрать?
Остается добавить, что использование данного тега для управления индексированием менее предпочтительно по сравнению с правильным формированием файла robots.txt (о нем мы поговорим позже).
Правообладателям!
Представленный фрагмент книги размещен по согласованию с распространителем легального контента ООО "ЛитРес" (не более 20% исходного текста). Если вы считаете, что размещение материала нарушает ваши или чьи-либо права, то сообщите нам об этом.Читателям!
Оплатили, но не знаете что делать дальше?