menu

Поисковое продвижение сайта - профессиональные советы экспертов

Вопрос: А почему нет фидбека на Спам-Репорты? В смысле, когда Google сообщаешь, что какой-нибудь сайт использует поисковый спам, то сразу получаешь ответ, что "ваше сообщение принято". Но никогда не сообщается, чем и когда закончилось рассмотрение жалобы, наказали сайт, или нет.

Ответ Google: Обычно мы достаточно быстро рассматриваем жалобы. Вообще, подумываем о том, чтобы расширить ассортимент уведомлений пользователям.
Ответ Фишкина: На то, чтобы принять меры по жалобе на спам, у Google может уйти от одного дня до двух лет. Обычно если нарушение вебмастерской лицензии не является крайне грубым или если его не освещают какие-то СМИ, Google предпочитает не налагать санкции на сайт, а попытаться доработать поисковый алгоритм. Они получают вашу жалобу, сопоставляют с коллекцией жалоб на аналогичные нарушения и пытаются доработать поисковую технологию так, чтобы никто не мог воспользоваться разработанной конкретными спамерами тактикой. Некоторые жалобы годичной и более давности на клоакинг, перенасыщение ключевыми словами и ссылочные манипуляции до сих пор не повлекли никаких санкций для сайтов. В качестве доказательства этих соображений см. пост Сьюзан Москвы из Google на блоге Google для вебмастеров.


Вопрос: А как вы определяете дублированный контент? Подпадает ли под это определение синдикация?

Ответ Google: мы как раз недавно написали по этому вопросу пост в блоге Google для вебмастеров.

Ответ Фишкина: к сожалению, они и синдикацию считают дублированным контентом. К счастью, за дублированный контент не всегда наказывают. В том самом посте, о котором говорит представитель Google (https://googlewebmastercentral.blogspot.com/2008/06/duplicate-content-due-to-srcapers.html), написано, что на сайт за скопированную информацию санкции не налагаются. Просто страницы с ней исключаются из выдачи.

Если вы отдаете контент в синдикацию, то, подписывая договор о контентом сотрудничестве, вы должны защищать собственные интересы. Если вы хотите, чтобы трафик с экспортированного контента шёл к вам на сайт, пропишите в договоре требование обратных ссылок на все материалы, а также по возможности использование мета-тэгов " noindex " и "nofollow" на страницах с вашими материалами, чтобы поисковик не склеил их с оригиналами. С другой стороны, если вы себе берете чужой контент, поинтересуйтесь, на скольких сайтах он уже есть, ставили ли они обратные ссылки, были ли проиндексированы страницы. Фишкин рекомендует почитать на SeoMoz статью (https://www.seomoz.org/blog/when-duplicate-content-really-hurts) про то, в каких случаях наличие на сайте дублированного контента может ему повредить.

Вопрос: а кроме контента, какие основные три фактора ранжирования сайта в Google?

Ответ Google: - ссылка (https://www.google.com/support/webmasters/bin/answer.py?answer=40349)

Ответ Фишкина: Не очень понимаю, что страница по ссылке может поведать о ключевых метриках поискового алгоритма.Hаверняка знать ничего нельзя, и Google поисковые алгоритмы раскрывать не станет. Если вам интересно мое мнение - на 90% ранжирование в Google зависит от 4 факторов:
  • Использование ключевых слов и релевантность контента. Я не верю в плотность ключевых слов. Их надо располагать так, чтобы страница была максимально релевантна запросу. Я использую следующую схему расположения ключевых слов: в заголовке одно или два, если это не портит звучание и смысл тайтла; в тэге h1 - один раз; как минимум три раза - в тексте в body (или больше, если текст длинный), как минимум один раз - жирным шрифтом, в альте картинки, в URL, один или два раза - в мета-тэге desrciption.
  • Ссылочный вес. Его можно набрать за счёт внутренней перелинковки и ссылок с других сайтов с высоким PR. Качественные ссылки могут поднять даже не сильно релевантную страницу в Google и Yahoо! (MSN и Ask.com более сфокусированы на контенте).
  • Вес текста ссылки (анкора). Большое количество ссылок с одинаковым анкором может перевесить все остальные уже упомянутые факторы. Не стоит забывать, что учитываются тексты как внешних, так и внутренних ссылок.
  • Авторитетность домена. Это наиболее комплексный фактор из всех упомянутых. Доверие поисковиков к домену основывается на ряде разнообразных факторов: насколько давно домен известен поисковой системе, насколько много людей ищут этот домен и переходят на него, как много сайтов ссылаются на него, ссылается ли сам домен на респектабельные сайты, насколько быстро растет его ссылочная популярность и что записано в регистрационной информации. Чтобы домен был авторитетным, надо просто долгое время вести постоянную работу над сайтом.



Вопрос: Что сделать, чтобы правильно работал геотаргетинг сайта? Прописывание региона в Webmaster Tools 3-4 месяца назад не помогло, а в национальной доменной зоне соответствующее имя было недоступно.

Ответ Google: Сейчас мы вроде бы наладили настройку геотаргетинга при помощи Webmaster Tools.

Ответ Фишкина: Помимо настройки геопринадлежности сайта в Webmaster Tools, есть ряд других факторов. Во-первых, использовать национальный домен (ccTLD). Если то доменное имя, которое вы хотели, в национальной зоне недоступно, обдумайте варианты. Я бы также порекомендовал брать хостинг и на IP той страны, к которой вы хотите быть привязаны геотаргетингом. Сайт должен быть на соответствующем языке, и на него должны ссылаться сайты с нужным геотаргетингом. Напишите на страницах сайта адреса, принадлежащие требуемой стране, отметьте его на Google Maps в этой стране, зарегистрируйтесь в местных каталогах. Прежде, чем Google обратит внимание на то, что вы там указали в Webmaster Tools, он учтёт широкий набор других факторов - это показали наши эксперименты.


Вопрос: может ли негативно влиять на индексирование скрытие элементов навигации на отдельных страницах/в директориях при помощи CSS?

Ответ Google: делая что-либо со своим сайтом, вы должны рассуждать так: "будет ли это хорошо для пользователей?" и "сделал бы я это с сайтом, если бы поисковиков не существовало?"

Ответ Фишкина: не нравится мне фраза "сделали бы вы это, если бы поисковиков не существовало". Если бы их не существовало, мы бы не регистрировались в Webmaster Tools, не закрывали бы в noindex копированный контент и в nofollow - покупные ссылки, мы бы не использовали мета-тэги, да и некоторые из просто тэгов, например title, мы бы не делали sitemaps, не создавали бы html-дубликаты флешовых сайтов, использовали бы как хотели CSS и Ajax. В наше время вообще бессмысленно говорить о вебстроительстве без учёта поисковиков.

Так что если вы скрываете какие-то мелкие элементы, по сравнению с общим количеством контента на странице, и не портите этим пользователю удобство навигации по сайту, всё будет в порядке. Наш собственный сайт, seomoz.org, как-то попал под санкцию Google за то, что страница с большим количеством контента была со стилем display:none, хоть там всё было по правилам и user-friendly. Главное - всегда думать о том, не поймут ли поисковики ваши действия как-нибудь превратно. Скрывать контент надо очень-очень осторожно и по минимуму.


Вопрос: допустим, сайт занимает первое место в поиске по анкорам, по тайтлу, по тексту страницы. А непосредственно по ключевой фразе сайт на второй странице. Есть какие-нибудь советы?

Ответ Google: Главное - чтобы ваш контент был полезен пользователям

Ответ Фишкина: Меня этот ответ просто бесит. Он и с вопросом не особенно вяжется.
Случается такое нередко - Google по-разному ранжирует результаты в обычном поиске и при поиске со специальными операторами. Интуиция и опыт подсказывают мне, что в подобных поисках некоторые траст-факторы и авторитетность домена не влияют так сильно на ранжирование, как в обычных. В вашем случае вы скорее всего близки к топу по ключевой фразе, просто надо получить побольше трастовых ссылок с высококачественных сайтов. Еще такое бывает, если сайт попал в "песочницу" - тогда однажды он наконец "взлетит". В общем, хорошие новости - вы пока всё делаете правильно, а плохие новости - вам нужно побольше "жирных" ссылок, или время - чтобы выйти из "песочницы".
Вопрос: У меня есть несколько партнерок Амазона. Контент там такой же, как и на самом Амазоне. Google видит дублированный контент и не индексирует нормально мои сайты. Как решить эту проблему?

Ответ Google: Пока ваши магазины представляют ценность для пользователей, вам не о чем беспокоиться.

Ответ Фишкина: боюсь, что Google таким ответом вводит людей в заблуждение. Волноваться есть о чем, даже если магазины у него полезные. Во-первых, неиндексирование страниц может быть как следствием дублированности контента, так и происходить из-за недостатка ссылок. У Google есть пороговый PageRank, которого должен достичь сайт прежде, чем попасть в основной индекс. Если на ваши магазины есть хорошие внешние ссылки, проверьте внутреннюю перелинковку - то, как ссылочный вес распределяется по сайту.
Насчёт дублированного контента - естественно в сомнительных ситуациях предпочтения поисковых машин на стороне Amazon. Единственный выход - закрывать от индексации как можно больше копированных текстов. Ну и собственно копировать их слишком много и один в один, без изменений, нельзя - у Google есть представления о минимальном обязательном количестве уникального контента на странице для того, чтобы страница могла нормально индексироваться и ранжироваться.


Вопрос: Снова про геотаргетинг. У меня есть мультинациональный сайт с поддержкой 12 языков. Геотаргетинг мы применяем для автоматического перенаправления пользователя на страницу на его языке. Не накажет ли Google нас за это?

Ответ Google: Мы рекомендуем не производить редирект пользователя на основе его геоположения. Это - плохое юзабилити. Лучше позвольте пользователю самостоятельно выбрать языковую версию.

Ответ Фишкина: Какое откровенное лицемерие! Google применяет геотаргетинг в отображении поисковых результатов, собственной главной страницы, множества других сервисов - но всем остальным этого делать нельзя! Я советую вот что: прежде, чем редиректить пользователя, делайте проверку, поддерживает ли его браузер cookie. Если поддерживает - отправляйте его редиректом куда запланировано и потом анализируйте статистику, фидбек и другие параметры на тему того, насколько хорошо это оказалось для пользователя и юзабилити. Если cookie не поддерживаются - пусть идет на мультиязыковую входную страницу и там выбирает сам - туда же будут ходить поисковые боты, у которых нет cookie и которые могут только по ссылке с такой страницы попасть на все остальные разноязыковые разделы.


Вопрос: предпочитает ли Google документы .html например документам .php, или для вас все урлы равны?

Ответ Google: URL есть URL. До тех пор, пока по этому адресу находится контент, который мы способны распознавать, гуглоботу без разницы, какое расширение у страницы.

Ответ Фишкина: вообще-то недавно мы тут доказали, что например страницы .exe, .tgz, and .tar не индексируются.


Вопрос: Инструменты Google помогают в ранжировании сайта?

Ответ Google: Фокусироваться стоит на качестве сайта и контента, который вы предлагаете пользователям.

Ответ Фишкина: неприятно видеть столь бесполезную фразу вместо ответа. Я думаю, она скрывает тот факт, что Google не знает точного ответа на вопрос. Мой ответ был бы - "возможно да". Мне кажется, если собрать статистику по всем сайтам, которые зарегистрированы в Google Webmaster, и сравнить с теми, что не зарегистрированы, среди первых будет гораздо меньше поискового спама. Так что вполне возможно, что для Google регистрация там - это один из поводов к доверию сайту, если даже она и не влияет на ранжирование напрямую.

В качестве заметки на полях - я думаю, представители Google выглядели бы гораздо достойнее, если бы честно говорили: "мы не можем ответить на этот вопрос, так как он затрагивает наши механизмы ранжирования, которые мы должны держать в секрете, чтобы не разводить спамеров". Такой ответ вызвал бы гораздо больше уважения, так как демонстрировал бы отношение к вебмастерам , задающим вопросы, как ко взрослым людям и профессионалам, чем ответы в стиле "делайте хорошие сайты, и будет вам счастье".



Эта информация оказалась полезной? thumb_up thumb_down









Пожалуйста, войдите, чтобы получить доступ к дополнительным инструментам SEO.

EN