Правообладателям!
Представленный фрагмент книги размещен по согласованию с распространителем легального контента ООО "ЛитРес" (не более 20% исходного текста). Если вы считаете, что размещение материала нарушает ваши или чьи-либо права, то сообщите нам об этом.Читателям!
Оплатили, но не знаете что делать дальше?Текст бизнес-книги "300+ факторов ранжирования в Google"
Автор книги: Анатолий Косарев
Раздел: Компьютеры: прочее, Компьютеры
Возрастные ограничения: +12
Текущая страница: 9 (всего у книги 10 страниц)
55 фактор. Контент, скрытый за вкладками
«Google не может ранжировать страницу для контента в разделах, скрытых за вкладками, потому что Google знает, что пользователи не видят контент, спрятанный в закладках, потому что он не виден по умолчанию».
Специалист отдела качества поиска Google Джон Мюллер.
Это значит, что для уменьшения длинны страницы установленные вкладки, аккордеоны, и подобные красивые элементы, которые нужно кликнуть, чтобы посмотреть содержание не индексируется.
Google не может ранжировать такой скрытый контент в этих разделах. Google считает, что если пользователь сделал запрос, то должен сразу увидеть ответ, не догадываясь, что нужно открыть ещё и соответствующую вкладку.
Вес страницы в этом случае не уменьшается, но следует учитывать, что скрытый текст может быть только дополнительным, и объём текста не учитываются.
Прежде Amazon использовал много вкладок, но теперь они, выводят большую часть контента непосредственно на странице, заставляя пользователя прокручивать и прокручивать, чтобы увидеть содержимое.
В своих справочных документах Google использует клик для расширения, но только для просмотра вопросов. Нажав на сам вопрос, пользователь попадаете на новую страницу с указанным ответом, а не остаётся на той же страницы с ответом под вопросом.
Задумайтесь – требует ли красота этих жертв?
Не забывайте, если человек попадает на ваш сайт из поисковика, то он задал конкретный вопрос, на который хочет получить ответ. У него масса других вопросов, которыми забита голова. Но вот человек попал на ваш сайт и хочет получить ответ на свой вопрос.
Ему не интересны ваши сюрпризы типа найди ответ на этой, страницы, угадай за какой вкладкой спрятан ответ. Именно поэтому Google не учитывает скрытые тексты. Больше того, чем быстрее посетитель увидит ответ на свой вопрос, зайдя на страницу, тем ценнее страница.
56 фактор. Фред
Эксперты команды MOZ, изучив более 700 сайтов, пострадавших от этого обновления, заметили, что 95% из них сайтов имеют две общие черты.
Все сайты кажутся ориентированными на контент, будь то форматы блогов или другой контент, такой как сайты, и все они довольно сильно занимаются размещением рекламы на страницах своих сайтов.
На самом деле, похоже, что многие (не все, но многие) из них были созданы с единственной целью получения дохода от AdSense или других рекламных компаний, и не обязательно принося пользу пользователю.
На сайтах, которые попадают под этот фильтр, также наблюдается падение органического трафика Google на 50% и выше сразу же.
А в некоторых случаях падение трафика доходит до 90% за ночь.
Я должен заметить, что Google официально не подтвердил эти теории или даже что было обновление.
Барри Шварц пишет, что после проверки более 100 различных сайтов:
«Это обновление предназначено для сайтов с низким качеством контента, но приносят доход больший, чем помощь своим пользователям.
Подавляющее большинство URL-адресов, которыми я поделился, показывают веб-сайты одного типа. Контент-сайт, часто в формате блога, но не всегда, с контентом по различным темам, который выглядит написанным для целей ранжирования, а затем содержит рекламные и / или партнёрские ссылки, разбросанные по всей статье. Многие из этих сайтов не являются отраслевыми экспертными сайтами, а скорее имеют контент по широкому кругу тем, которые не добавляют столько ценности, сколько уже написали другие сайты в этой отрасли.
Во многих случаях контент оборачивается вокруг рекламы, где зачастую объявления немного сложно отличить от контента. В других случаях рекламы становится меньше или вообще нет, а скорее выручка за счёт партнёрских моделей, потенциальных клиентов или других возможностей.»
Из этого следует, что создание сайтов с контентом низкого качества, цель которых получение денег от рекламы, не предоставляя полезной информации посетителям невозможно оптимизировать так, чтобы в поисковой выдаче Google.
57 фактор. Автоматически сгенерированный контент
Контент «автоматически сгенерированный» – это контент, созданный программным способом. В тех случаях, когда он предназначен для манипулирования поисковым рейтингом и не помогает пользователям, Google может предпринять отрицательные воздействия с таким контентом. Автоматически сгенерированный контент включает:
· Текст, который не имеет смысла для читателя, но может содержать ключевые слова для поиска.
· Текст переведён с помощью автоматизированного инструмента без проверки человеком без редактуры и корректуры.
· Текст генерируется с помощью автоматизированных процессов, таких как цепочки Маркова (последовательность случайных событий с конечным или счётным числом исходов, характеризующаяся тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого).
· Текст, созданный с использованием автоматических методов синонимизации или перестановки слов в предложении.
· Текст, сгенерированный из очищающей ленты Atom / RSS или результатов поиска.
· Сшивание или комбинирование контента с разных веб-страниц без добавления достаточного значения.
Google ненавидит авто сгенерированный контент. Если они подозревают, что ваш сайт откачивает контент с других сайтов, это может привести к штрафу или деиндексированию.
58 фактор. Копии частей контента на разных страницах сайта
«Содержимое, которое копируется, но немного отличается от оригинала – отрицательный фактор. Этот тип копирования затрудняет поиск точного соответствия исходного источника. Иногда меняются только несколько слов или меняются целые предложения, или делается модификация «найти и заменять», где одно слово заменяется другим во всем тексте. Эти типы изменений намеренно выполняются, чтобы затруднить поиск исходного источника контента. Мы называем этот контент «скопированным с минимальными изменениями, и как правило не учитываем его при ранжировании».
Руководство по оценке качества поиска Google Март 2017.
Часто на сайтах услуг, которые оказываются в разных городах, создаются страницы с одним и тем же текстом, но меняется только название города.
Повторяющийся контент – это отрицательный фактор для всего сайта. Когда поисковые системы сканируют много URL-адресов с одинаковым (или очень похожим) контентом, это может вызвать ряд проблем с SEO.
1. Пользователи должны пробираться через слишком много дублированного контента, поэтому могут пропустить часть уникального контента.
2. Крупномасштабное дублирование может привести к снижению ранга всего сайта, т.к. один вес страницы будет распределяться на все копии. Например, ремонт смартфонов оказываются в пяти районах города. Создано пять страниц контента, в которых меняется только название района. С точки зрения геозависимости очень здорово, потому что пользователь, набрав «ремонт смартфона в промышленном районе» попадает на страницу, оптимизированную под этот район. Но страниц с мало изменённым текстом – пять, поэтому вес каждой страницы составляет пятую часть.
3. Увеличивает время ранжирования всего сайта за счёт того, что будут индексироваться копии, а не информативные веб страницы. Интернет-магазины часто для увеличения количества товаров делают для каждого размера и / или цвета отдельные страницы. Так ранжируются карточки одного и того же товара в то время, как другой товар ждёт своей очереди.
4. Но даже если контент имеет рейтинг, поисковые системы могут выбрать неправильный URL как «оригинал». Использование canonicalization помогает контролировать дублированный контент.
59 фактор. Дубли или копии страниц на сайте
Дубли или копии – это одна и та же страница сайта, которая открывается по нескольким разным адресам.
Копии страниц чаще всего возникают, когда:
· Движок системы управления содержимым сайта (CMS) автоматически генерирует дубликаты страниц.
Например, http://site.net/press-centre/cat/view/identifier/novosti/ http://site.net/press-centre/novosti/.
· Для Google одна и та же страница, например,
http://site.net/press-centre/novosti/ – со слешем в конце http://site.net/press-centre/novosti – без слеша в конце считается, как 2 разные страницы, т.е. дубли.
· Один и тот же товар представлен в нескольких категориях. Например, костюм может быть в категории костюмы, в категории бренды, и в категории распродажа.
Например, http://site.net/category-1/product-1/ http://site.net/category-2/product-1/ http://site.net/rasprodaza/product-1/.
· При изменении структуры сайта, когда уже существующим страницам присваиваются новые адреса, но при этом сохраняются их дубли со старыми адресами.
Например,http://site.net/catalog/product http://site.net/catalog/podcategory/product.
· Это происходит, когда каждому пользователю, посещающему веб-сайт, назначается другой идентификатор сеанса, который хранится в URL-адресе.
· Версия для печати содержимого также может вызывать повторяющиеся проблемы с содержимым, когда индексируются несколько версий страниц.
· Если сайт имеет отдельные версии на «www.site.com» и «site.com» (с префиксом «www» и без него), и один и тот же контент живёт в обеих версиях. Так создаются дубликаты каждой из этих страниц. То же самое относится к сайтам, которые поддерживают версии как в http: //, так и в https: //. Если обе версии страницы являются живыми и видимыми для поисковых систем – это проблема с дублированием контента. И как говорилось раньше, вес таких страниц делится на количество страниц.
Устранение проблемы с повторяющихся контентом сводится к одной идее: указать, какой из дубликатов является «правильным».
Всякий раз, когда контент на сайте можно найти по нескольким URL-адресам, он должен быть канонизирован для поисковых систем.
(Канонический тег («rel canonical») – это способ сообщить поисковым системам, что конкретный URL-адрес представляет собой главную копию страницы.)
На данный момент используют один из трёх основных способов избавиться от индексирования дублей страниц.
· использование 301 перенаправления на правильный URL,
· rel = canonical атрибут
· или использование инструмента обработки параметров в Google Search Console.
301 перенаправление.
Во многих случаях лучшим способом борьбы с дублирующим контентом является настройка 301 перенаправления с «дублированной» страницы на исходную страницу контента.
Когда несколько страниц с потенциалом для ранжирования хорошо объединены в одну страницу, они не только перестают конкурировать друг с другом; они также создают более сильную релевантность и популярность сигнала для поисковика в целом. Это положительно повлияет на способность «правильной» страницы хорошо ранжироваться.
Атрибут rel = «canonical».
Другим вариантом для борьбы с копиями контента является использование атрибута rel = canonical. Это говорит поисковым системам, что данная страница должна рассматриваться как копия указанного URL-адреса, а все ссылки, метрики контента и «рейтинг мощности», которые поисковые системы применяют к этой странице, должны быть направлены на указанный адрес URL.
Атрибут rel = «canonical» является частью HTML-страницы, заносится в HEAD страницы, и выглядит следующим образом:
Общий формат:
<head>
…[другой код, который должен быть в HTML-заголовке веб-страницы]…
<link href = «АДРЕС (URL) ОРИГИНАЛЬНОЙ СТРАНИЦЫ» rel = «canonical» />
…[другой код, который может быть в HTML-заголовке веб-страницы]…
</ HEAD>
Например, для текущей страницы указать ее каноническую ссылку <link rel=«canonical» href="http://site.com/canonical-link.html"/>.
Атрибут rel = ‘’canonical’’ должен быть добавлен в HTML-заголовок каждой повторяющейся версии страницы, а часть «АДРЕС (URL) ОРИГИНАЛЬНОЙ СТРАНИЦЫ» выше заменена ссылкой на исходную (каноническую) страницу.
Атрибут передает примерно одинаковое количество веса ссылки в качестве перенаправления 301, и, поскольку он реализован на уровне страницы (вместо сервера), более легок в исполнении.
Мета-роботы Noindex.
Один метатег, который может быть особенно полезен при работе с дублями контента, – это meta robots, когда он используется со значениями «noindex, follow».
Обычно называемый Meta Noindex, Followи технически известный как content = «noindex, follow», этот тег мета-роботов добавляется в HTML-заголовок каждой отдельной страницы, который должен быть исключен из индекса поисковой системы.
Общий формат:
<head>
…[другой код, который должен быть в HTML-заголовке веб-страницы]…
<meta name = «robots» content = «noindex, follow»>
…[другой код, который должен быть в HTML-заголовке веб-страницы]…
</ HEAD>
Тег meta robots позволяет поисковым системам сканировать ссылки на странице, но не позволяет им включать эти ссылки в свои индексы. Важно, чтобы дубли страниц все равно сканировалась, хотя говорите Google не индексировать ее, потому что Google явно предостерегает от ограничения доступа к общему доступу к дублированию контента на вашем веб-сайте.
Поисковые системы желают видеть все на случай, если вы сделали ошибку в своем коде.
Использование мета-роботов является особенно хорошим решением для разрешения проблемы с дублями страниц.
Предпочтительная обработка доменов и параметров в Google Search Console.
Консоль Google Search Console позволяет указать предпочтительный домен сайта (например, http://yoursite.com вместо http://www.yoursite.com) и указать, должен ли Googlebot сканировать различные параметры URL-адреса по-разному, т.е. обрабатывать параметры.
В зависимости от структуры URL-адреса и причины возникновения проблемы с дублями страниц, можно настроить или предпочитаемый домен, или обработку параметров (или оба!).
Основным недостатком использования обработки параметров в качестве основного метода работы с копиями страниц является то, что эти изменения, работают только в Google.
Любые правила, введенные с помощью Google Search Console, не повлияют на то, как Яндекса, так и других поисковых систем, которые сканируют сайт. Придется использовать инструменты для других поисковых систем в дополнение к настройке параметров в Search Console.
Файл robots. txt.
В файле robots. txt сообщается поисковым ботам, какие страницы или файлы не стоит сканировать.
Для этого используют директиву «Disallow». Она запрещает заходить на ненужные страницы.
Заметьте, если страница указана в robots. txt с директивой Disallow, это не значит, что страница не будет проиндексирована, и не попадёт в выдачу.
Это может произойти, потому что
· страница была проиндексирована ранее,
· на неё есть внутренние
· или внешние ссылки.
Инструкции robots. txt носят рекомендательный характер для поисковых ботов. Поэтому этот метод не гарантирует удаление дублей из списка ранжированных страниц.
Всегда тег rel = canonical гарантирует, что версия вашего сайта получит дополнительный кредит доверия как «оригинальный» фрагмент контента.
Дополнительные методы для работы с дублирующим контентом.
1. Если веб-мастер определяет, что каноническая версия домена – www.example.com/, то все внутренние ссылки должны идти по адресу
http: // www. example.com/example, а не http: // example.com/page
(обратите внимание на отсутствие www).
2. При копировании фрагмента контента убедитесь, что страница с копированной частью добавляет ссылку на исходный контент, а не вариант URL.
3. Чтобы добавить дополнительную защиту от копирования контента, уменьшающего SEO– вес для контента, разумно добавить ссылку на rel-canonical для ссылок на существующие страницы. Это канонический атрибут, указывающий на URL-адрес, на котором он уже включён, и это значит, что это препятствует воровству контента.
После того как устранили дублирующий контент необходимо проверить сайт ещё раз. Только так можно убедиться в эффективности проведённых действий.
Анализ сайта на дубли желательно проводить регулярно. Только так можно вовремя определить и устранить ошибки, чтобы поддерживать высокий рейтинг сайта.
Дополнительно читайте о дублях страниц в ФИЛЬТРЕ PANDA, в первой части книги «36 фильтров Google».
ИЗОБРАЖЕНИЯ
60 фактор. Уникальность изображения
На сайте изображения должны быть уникальными, также, как и тексты. Если картинка взята с другого сайта, то такие изображения не учитываются.
Даже если у вас интернет-магазин, который продаёт брендовые вещи, и на нем вы размещаете фотографии производителя, то для поисковиков – это не аргумент качества сайта, а фактор того, чтобы не учитывать это изображение.
Только уникальные изображения добавляют вес страницы.
61 фактор. Дубли изображения
Также, как и текст поисковик учитывает только на одной страницы, которую проиндексировал первой, так и изображение увеличивает вес только один раз.
Повороты, обрезание, зеркальные отражения, применение различных фильтров Google распознает. Так что такие манипуляции с изображениями не проходят.
62 фактор. Количество пикселов и килобайт
Изображения менее 160 пикселов – это 40х40 пикс. Google относит к дизайнерскому оформлению сайтов и не учитывает. Поэтому миниатюры изображений должны быть более чем 50х50 пикселов, если желаете, чтобы поисковик учёл эту картинку. Это замечание актуально для интернет-магазинов, которые размещают несколько мелких изображений товара под одним большим, потому что Google считает мелкие картинки частью дизайна.
Google считает, что несколько изображения товара лучше его представляют, чем одна картинка.
Поисковик считает, что большие изображения более полезны пользователю, но следует учитывать, что чем больше картинка, тем требуется больше времени для её загрузки. Если же страница сайта грузится долго, то это существенный фактор понижения веса сайта.
Сейчас фотоаппараты позволяют делать фотографии более 10 МБ, и количеством пикселей более чем 5000х3000. Такие фотографии не допустимы для интернет-страниц.
Поэтому первое, что нужно сделать – это уменьшить размер фотографии до размера экрана пользователя. Если Ваш потенциальный пользователь будет смотреть Ваш сайт на компьютере или ноутбуке, то, делайте фотографии не больше разрешения его монитора. Если де сайт нацелен на пользователей смартфонов, то уменьшайте фотографии под экран смартфона.
Для смартфонов не стоит размещать фотографий больше трёх. По исследованиям маркетологов большее количество – утомляет.
И последнее – фотографии не должны превышать 200 КБ, а желательно чтобы они были меньше 100 КБ. В любом случае соблюдайте правило: «Минимальный размер при сохранении допустимого качества.»
63 фактор. Количество изображений на странице
Хорошая статья с одним изображением получает больший вес, чем эта же статья без изображения. Google считает, что изображение – хороший сигнал того, что страница качественная.
Однако второе, третье и т. д. изображения слабо увеличивают вес страницы, но снижают скорость загрузки страницы, а чем медленнее скорость загрузки, тем больше уменьшается рейтинг сайта.
Много изображений, значит дольше пользователь остаётся на странице, рассматривая их. Это увеличивает рейтинг страницы, но увеличение скорости загрузки снижает этот же рейтинг. Точных расчётов, возможно ещё и у Google нет, но это не значит, что его и не будет. Поэтому лучше не заморачиваться на этих параметрах, а делать просто хорошо. В конечном счёте Google учится выбирать лучшее.
64 фактор. Название файла изображения
Очень часто на веб страницах можно увидеть картинки с такими названиями «e1495475889821.jpg».
Google не приветствует такие названия. Google считает, что название файла изображения должно соответствовать изображению. Поэтому файл с картинкой следует называть по изображаемому объекту латиницей, и желательно с употреблением ключевых слов.
Например, «divan.jpg».
Если требуется написать несколько слов, то нужно писать их через дефис или нижнее подчёркивание: «сhjornyj-divan.jpg», или «сhjornyj_divan.jpg» хуже без разделения «сhjornyjdivan.jpg». Цифры допускаются если указывается количество объектов на изображении. Заглавные буквы – не допустимы. Можно использовать только маленькие буквы без пробелов Недопустимы символы и спецсимволы.
Кроме этого, Google отмечает, что путь к изображению тоже должен быть человеку понятным, например, таким «img/divany/сhjornyj_divan.jpg».
65 фактор. Атрибут ALT
Текст alt, по существу, отображается, когда изображения отключены в большинстве браузеров, поэтому мы считаем его частью текста на странице.
Джон Мюллер, Google 2017.
«Поскольку робот Googlebot не видит изображения напрямую, мы обычно концентрируемся на информации, предоставленной в атрибуте «alt».
SEROUNDTABLE, 2017.
Атрибут ALT – значимый, как теги заголовка и описания веб страницы.
Формат записи:
<IMG src = "file-name.gif» alt = «Здесь размечается alt-текст»>
Также, как и теги заголовка и описания страницы этот текст должен быть уникальным, описывать суть демонстрируемого, и иметь ключевую фразу как можно ближе к началу.
Например, если вы разместили статью о том, как ваш щенок любит играть с теннисным мячом, оптимизировали статью под фразу «мой щенок», и разместили фотографию, где он изображён играющимся, то уместно такое описание.
alt = «Мой щенок Кеша – большой любитель играть на спортивной площадке с теннисными мячами.»
Если у вас несколько изображений, то разнообразие описаний изображения увеличивает вес страницы.
Чем больше – тем лучше, но не забывайте – чем больше фотографий, тем дольше грузится страница.
Если изображение является частью дизайна сайта, то Google рекомендует всё равно писывать атрибут alt, и оставлять его пустым вот так alt = «».
Этим вы сообщаете поисковику, что это изображение относится к дизайну сайта.
Если же у Вас нет подписей к изображениям на веб странице, то Google считает, что у Вас нет иллюстрации рассказываемого в статье, нет дополнительной информации, только красивый дизайн, который больше по объему имеющейся информации. А такие страницы – теряют в весе.
Ещё хуже, когда атрибут «alt» отсутствует в теге img.
Какова же допустима длинна текста в атрибуте alt?
По проведённым исследованиям в англоязычном Google было получено, что поисковик считывает до 16 слов текста из этого атрибута. Делайте этот атрибут уникальным и содержательным, потому как Google считает его немаловажной частью текста.
Если желаете иметь достоверную картину факторов, влияющих на ранжирование, вы должны проводить эксперименты на своём собственном сайте для проверки любых заявлений, которые читаете в Интернете по двум причинам.
1. Можете натолкнуться на утверждения неумелых пересказчиков, которые недопоняли авторитетов, или вообще сами, что-то придумали.
2. Google – постоянно совершенствует свой поисковый алгоритм, а поэтому многое, что работало некоторое время назад, становится бесполезным.
3. Google – если, что-то написал в своём руководстве, то это он может только указал на перспективу развития.
4. То, что Google ввёл на английском языке ещё может быть не включено в поиск на русском и других языках.
Правообладателям!
Представленный фрагмент книги размещен по согласованию с распространителем легального контента ООО "ЛитРес" (не более 20% исходного текста). Если вы считаете, что размещение материала нарушает ваши или чьи-либо права, то сообщите нам об этом.Читателям!
Оплатили, но не знаете что делать дальше?