Главная Новости

Почему позиции сайта падают в Гугле (Google)?


Опубликовано: 01.09.2018

видео Почему позиции сайта падают в Гугле (Google)?

Как проверить индексацию сайта в Google на 1млн страниц за день

Вопрос объективности оценки сайта поисковиками актуален для каждого владельца интернет-ресурса, независимо от планов на монетизацию. Вообще обидно – ты сделал сайт для людей, а зловредный Google выдает его на 100500-й странице выдачи, куда естественно «не долистает» ни один адекватный человек. Проблема эта является животрепещущей и глобальной в условиях динамичности среды интернет-пространства, потому что сайты постоянно растут и падают. Чтобы зафиксироваться на высоком месте в выдаче, мало просто достичь его – необходимо ПОСТОЯННО работать и совершенствовать ресурс по требованиям капризного Гугла. 



В ходе работы с сайтами наших клиентов специалисты студии F1 выделили основные причины падения в выдаче, проблемы, способы решения и просто интересные мысли на этот счет. Их много, а потому, не придумав ничего лучшего, мы просто создали один большой список, который полезно прочесть каждому, кто делает или продвигает сайты и добавили внизу популярные вопросы/ответы.


Почему падает выдача в Google?

Навигация по странице

Понижение выдачи и падение трафика  Для новичков  Ручные меры  Проверка sitemap  Изменения на сайте  Meta noindex  Заражение вирусом  Дешевый хостинг  Закрытие в robots  Качество ссылочной массы  Наращивание ссылочного  Дубли контента  Адаптированный дизайн  Лишний скролл страницы  Скорость загрузки  Валидация кода  Переспам ключей  Ошибки в разметке  География и персонализация  Теги alt у картинок  ЧПУ (SEF)  Дубли страниц  Язык сайта (hrefang)  Пользовательские факторы  Ворованный контент  Дорвейность (перенаправление)  Навязчивая реклама 

Популярные вопросы:

Сайт полностью пропал из Гугла - что делать?  Сколько нужно времени для того, чтобы восстановить мои позиции?  Если структура была сломана, но теперь все исправлено, как сообщить об этом в Гугл?  Почему моя позиция в выдаче Яндекса высокая, а в Гугл – низкая?  Почему с такими же ошибками мои конкуренты выше в выдаче?  Что надо, чтобы быть в ТОПе всегда?  Почему не видна моя страница в ВК (Фейсбуке, ЖЖ и т.д.)?  Как связаться с техподдержкой Google, если у меня есть вопросы по ранжированию сайта?  Что такое ручные меры?  Почему мне не приходит ответ о пересмотре исправлений после ручных мер?  Как посмотреть PR сайта? 

Итак, начнем!

Понижение выдачи и падение трафика – коллинеарные явления. Естественно, что из-за того, что ресурс существенно снизился в выдаче, на него попадет меньшее количество пользователей. И наоборот – если пользователи перестанут к вам заходить, трафик упадет и «порядковый номер» тоже. Поэтому необходимо повышать качество контента, юзабилити, использовать другие приемы для поддержания интереса со стороны потенциальной аудитории. Пока не залезли далеко в дебри, сразу оговоримся, наш материал не для тех, кто вчера сделал сайт и сетует над его отсутствием в топовой выдаче. Для новичков есть универсальный алгоритм: Проверьте, зарегистрировались ли вы в Search Console; Подготовлена ли карта сайта; Загружена ли карта сайта в Search Console; Наберитесь терпения и ждите (нужно месяца 2-3 не меньше)! Потом можно начинать паниковать. Если вы считаете, что причины для паники есть, в первую очередь удостоверьтесь, что к вашему сайту не применили «ручные меры». То есть Гугл не все делает автоматически, некоторые санкции к интернет-ресурсам применяют живые люди. Как правило, это связано с нарушением (или подозрением в нарушении) авторских прав. Итак, если кто-то решил, что вы посягнули на его контент, бренд или другую «собственность», он подает заявку в Гугл, и тот без суда и следствия банит сайт, наблюдая за развитием событий. А события могут развиваться по двум сценариям. 1) Вы ищете того, кто на вас пожаловался, и просите отозвать жалобу, 2) Вы никого не ищете и просто делаете новый сайт. Итак, если жалоба будет отозвана, вас разбанят. Проверить, не поданы ли на ваш сайт жалобы можно на Lumen . Обратная сторона – если у вас увели дорогой сердцу уникальный контент, вы так же можете подать жалобу в Гугл, и ждать пока воришка приползет на коленях. Проверьте сколько страниц подано в соответствии с картой сайта (sitemap), и сколько фактически проиндексировано. Если эти показатели значительно отличаются, значить, проблема падения в выдаче связана с ошибками индексирования. В первую очередь важно проверить, насколько корректно сгенерирована карта сайта, в каком формате она отправлена (в частности не допускается текстовый формат или вид HTML-страницы), влезают ли размеры файла sitemap в обозначенный лимит. Любые изменения на сайте могут привести к временному падению позиций. Независимо от того, идет ли речь об изменении текстового контента или о глобальной перестройке sitemap, поисковик отреагирует на это снижением рейтинга. Только в первом случае через 7-10 дней показатели могут самостоятельно вернуться на прежний уровень, а во втором – вам грозят длительные проблемы. Поэтому изменять карту, а тем более удалять из нее страницы без крайней необходимости не рекомендуется.

Посетитель на найдет страницу, в заголовке которой обозначено meta noindex. Это может случиться по разным причинам, в частности из-за неосторожного обращения с настройками хостинга и CMS. Возможная причина закрытия страниц для пользователей – заражение вирусом. Будучи авторитетной поисковой системой, Гугл старается защитить лояльных к себе пользователей от переноса «заразы», поэтому ограничивает возможности развития эпидемии. Заподозрить неладное система может, в том числе по наличию стороннего кода, направляющему пользователей на сторонние ресурсы (социальные сети, баннеры рекламы и т.д.). Объем трафика, и как следствие рейтинг в выдаче, может упасть из-за того, что хостинг ограничил доступ к ресурсу, например, по «географическим» соображениям или на основании UserAgent. Особенно часто этим грешат бесплатные или откровенно дешевые хостинги. Еще одна причина – необдуманное скрытие содержимого с помощью robots.txt. Если вы будете «прятать» от пользователя все, что кажется вам недостойным его внимания, с большой вероятностью многие полезные страницы станут недоступными для поисковика. Как вариант – используйте возможности robots.txt только в крайнем случае, все остальные вопросы решайте с помощью канонических ссылок. Прежде чем активно наполнять ресурс входящей ссылочной массой, необходимо осознать, что повысить авторитет вашего сайта смогут только качественные ссылки, а те, которые продаются на биржах по «три копейки за ведро», с большой вероятностью возымеют обратный эффект. Решение проблемы: используйте анализаторы качества ссылочной массы, например, Ahrefs, SEMRush и другие. Не обязательно работать только с одним, в некоторых случаях большую эффективность демонстрирует сочетание сервисов.

Не уходя далеко от темы входящих ссылок, напомним, что их полное отсутствие не менее негативно сказывается на выдаче, чем ситуация, описанная в пункте 10. Количество ссылок должно увеличиваться по мере роста и развития ресурса. Лучше если они будут размещены на тематических площадках. Если на разных страницах сайта поисковик находит одинаковую или очень похожую информацию, ему это не понравится. За подобное можно схлопотать не только автоматический бан, но и ручные санкции. Будьте креативными, мы уверены, что вам есть, чем поделиться с посетителем ресурса без откровенного дублирования инфы. До сих пор нет адаптации под мобильную версию? Не ждите ничего хорошего, Гугл активно борется за то, чтобы каждому посетителю было комфортно находить информацию, независимо от того, с какого устройства он это делает. Сразу оговоримся, два сайта – нормальный и «телефонный» - не вариант. Правильное решение – использование адаптивной верстки. Чисто интуитивная находка – требовательный Google не любит, если страница начинается с большого изображения, из-за которого необходимо скролить страницу, чтобы добраться до текстового контента. Независимо от того, идет ли речь о рекламном банере или вы просто «украсили» сайт таким неординарным образом, ранжирование будет сопровождаться проблемами. «Тяжелый», длительно открывающийся сайт при прочих равных условиях ранжируется хуже. Если это про вас, рекомендуем начать с оптимизации графического контента. Также можно пересмотреть степень ресурсообеспечения хостинга.

Не забывайте проверять код валидатором. Любые синтаксические ошибки и отличия от кодировки UTF-8 приводят к негативным последствиям – ресурс тормозит при открытии, некорректно отображается в окне браузера и теряет позиции выдачи. Следите за количеством и частотой употребления ключевых слов. Ушли в прошлое времена, когда действовал принцип – чем больше, тем лучше. Сейчас ключевики и ссылки должны быть аккуратно помещены в текст, чтобы читающий не спотыкался о них в каждом предложении. На счет ссылок: учитывайте, что шаблоны Wordpress могут самостоятельно включать спам-код, существенно увеличивая число ссылок по сравнению с тем, сколько запланировано веб-мастером. Ошибки в разметке – увесистый минус в карму сайта. Если вы используете шаблоны Wordpress, не забывайте проверять структуризацию данных. Нередко начинающие веб-мастера неправильно проверяют позиции своего сайта, и впадают в панику от «падения» выдачи. Важно понимать, что на результат, который выдает ранжировщик, влияет географическое положение, а также условия персонализации запроса. Если вы пытаетесь определить позицию сайта с чужого компьютера в другом городе – результат не будет объективным. Большое количество картинок – прерогатива интернет-магазинов, владельцы которых стремятся максимально информативно визуализировать товар. При этом выдача сайта может быть низкой из-за отсутствия тегов alt, а также из-за несоответствия названия файлов с картинками их тематическому содержанию. Наше мнение о ЧеловекоПонятных Урлах таково – руководствуйтесь здравым смыслом. Старайтесь, чтобы при транслитерации русского слова оно не выглядело криво, косо или даже неприлично. Слова в УРЛ разбиваем строго дефисом, а не нижним подчеркиванием.

Если вы запутаете ранжировщика наличием множественных поддоменов, готовьтесь к пессимистичному сценарию. В данном случае необходим обязательный редирект вспомогательных страниц (как правило, с www) на основные (без www). Страницы robots.txt – не перенаправлять! Не показывайте поисковику страницы с машинным переводом! Четко придерживайтесь правил и способом использования hrefang . В своем стремлении, как можно сильнее угодить требовательному ранжировщику многие веб-мастера добиваются совершенно противоположного эффекта. Основная идея заключается в том, что нужно стараться угодить пользователю, а не системе. Заметив это, система оценит ваши старания работать «для людей» и повысит рейтинг выдачи. Что нужно делать в рамках каждодневной работы: неустанно мониторить ошибки в консоли, исправлять их, продвигать ресурс на тематических площадках, добиваясь получения естественных ссылок, следить за спамом и т.д. Помните, чем выше оценит ваш сайт пользователь, тем лояльнее будет поисковик, определяя ваше место в выдаче. Ранжировщик может счесть содержимое на сайте неинформативным. И речь не идет о глупых текстах с ошибками или другими последствиями дешевого копирайта , скорее всего бот выявил нарушение авторских прав. Встречный вопрос: но почему открыто и прямо не назвать сайтостроителя вором? Не желая нарваться на кучу обоснованных и не обоснованных исков, Гугл предпочитает уклончивую формулировку – «неинформативно»! Если пользователь ищет «котенка Сфинкса», а его посредством тизерной рекламы и переадресации отправляют на сайт про установку биологических септиков, согласитесь – это досадная потеря времени, которая, кстати сказать, бесит не только пользователя, но и ранжировщика. Что грозит веб-мастеру, использующему сторонний код? – ручные меры! Если на сайте основной контент частично или полностью «загораживается» баннером с предложением скачать приложение (даже подходящее по тематике), ранжировщику это не понравится, о чем вы узнаете, проверяя рейтинг выдачи.

Вопросы:

Сайт полностью пропал из Гугла - что делать?!

Первое, на что необходимо обратить внимание - это санкции. Если в Google Search Console нет никаких сообщений системы безопастности по сайту, значит всё впорядке. После этого главную страницу сайта и несколько второстепенных советуем проверить через валидатор файла robots.txt в Google . Если страницы доступны для индексации, то этот пункт можно отмахнуть в сторону. Остается только одно - сайт в Вебмастере Гугл был поставлен полностью на удаление случайно вами или кем то кто работал с сайтом до этого. Проверьте это на существующей версии? а так же постарайтесь добавить все версии сайта в вебмастер тоже (с www и без, с https и без). Посмотрите не удалялись ли там какие страницы. Команду на удаление и блокировку страниц можно отклонить и тогда сайт за сутки залетит обратно в индекс! Сколько нужно ранжировщику для того, чтобы восстановить мои позиции?

Точного ответа нет, и не может быть, так как факторов, влияющих на сам процесс и его скорость – великое множество. Если речь идет о примененных ручных мерах, то их могут снять через 2-5 недель после принятия вашей заявки. Однако в этом случае не стоит рассчитывать на автоматическое поднятие позиции, потребуется серьезная работа со структурой и наполнения ресурса. Если структура была сломана, но теперь все исправлено, как сообщить об этом в Гугл?

Сделайте повторную отправку sitemap. Откорректируйте If-Modified-Since, если изменения касались страниц. В индекс отправляйте не только главную, но и связанные с ней. Далее сидим и ждем результатов индексирования, чтобы понять, насколько хорошо вы все исправили. А почему моя позиция в выдаче Яндекса высокая, а в Гугл – низкая?

Потому что Гугл – это не Яндекс. Это совершенно разные комплексы программ и проверочных сервисов, разные подходы и философии. Если Гугл показывает наличие ошибки, найдите ее и справьте, без сравнения с тем, что думает на этот счет Яндекс. А почему с такими же ошибками мои конкуренты выше в выдаче?

Это может казаться вам жизненной несправедливостью, но все гораздо проще – бот-ранжировщик мог пропустить какие-то ошибки, или… простить, например, из-за большого количества естественных ссылок нередко закрываются глаза на незначительный переспам или контент, далекий от 100% уникальности. Что надо, чтобы быть в ТОПе всегда?

Во-первых, важно понять причинно-следственную связь: популярный (качественный, интересный) сайт поднимается в ТОП, а не ТОП делает сайт популярным. Во-вторых, если у вас удобный сайт и 100 честно ведущих на него ссылок, а у вашего конкурента невменяемый ресурс с 100500 купленных ссылок, то, скорее всего, Гугл ранжирует его выше вашего. Вместо того чтобы сетовать на тотальную жизненную несправедливость, есть смысл заняться наращиванием качественной ссылочной массы. Почему не видна моя страница в ВК (Фейсбуке, ЖЖ и т.д.)? 

Это может случиться по разным причинам, но скорее всего они останутся для вас тайной. И не надо воспринимать все «на свой счет»: параллельно с вашей страницей на подобных площадках существуют сотни некачественных или откровенно вредоносных страниц. Попадая под бан, они могут ненароком утянуть с собой тех, кто находится рядом – то есть ни в чем не повинные ВК страницы. Хотите узнать об этом больше в администрации площадки? Желание понятное, но в большинстве случаев неосуществимое – администраторы не дают подобных разъяснений. Просто сделайте собственный сайт, и вы будете точно знать, что взлеты или падения в выдаче – эта ваша личная «заслуга», а не чье-то влияние. Как связаться с техподдержкой Google, если у меня есть вопросы по ранжированию сайта?

Никак! Независимо от того какой масштабности, срочности и важности ваши вопросы, напрямую связи с Гуглом не существует. Есть форум Google, куда вы можете написать свой вопрос. Если авторитетным форумчанам он покажется интересным и значимым, его передадут для рассмотрения в Гугл, а ответ будет освещен пользователям России или даже мира. Если же они сочтут ее несложной или ничтожно значимой – ответа и разъяснения не будет. Что такое ручные меры?

Это неприятная ситуация, когда специалист из Google сочтет ваш сайт подозрительным или недобросовестным или малоинформативным или еще каким-то, и понизит выдачу. Неприятность ситуации заключается в том, что доказать что вы не осел – можно, но займет это весьма продолжительное время. Алгоритм снятия ручных мер таков: вы читаете комментарий к ручным мерам, пытаясь понять, за что именно вас линчуют. Это не всегда удается с первого раза, так как Google славится расплывчатостью формулировок, стремясь минимизировать количество судебных исков. Далее исправляете то, что не понравилось специалисту из Гугл, и отправляете на пересмотр, который продлится порядка 2-12 недель. Если в не все до конца исправлено или вы не учли смежные моменты, вам снова придет оповещение о ручных мерах. И снова вы будете переделывать, отправлять и ждать ответа. Вывод: так как повлиять на процесс нельзя никак, единственное, чем можно облегчить свою участь – сразу корректно выполнять исправления, чтобы прошло с первого пересмотра. Почему мне не приходит ответ о пересмотре исправлений после ручных мер?

Как вариант – вы используете архаичный браузер Internet Explorer. Немедленно перейдите на Google Chrome! Как посмотреть PR сайта?

Никак! Начиная с 6.12.2013г открытая информация о PR не обновляется и тулбар фактически закрыт. Поэтому: не верьте всевозможным «специалистам» или сервисам, обещающим вам показать динамику PR.

Если вы столкнулись с проблемой, которую не смогли решить с помощью этой статьи - напишите нам комментарий с описанием проблемы и мы постараемся вам помочь!

rss