Может ли одна хорошая ссылка улучшить поисковые позиции сайта?


На WebmasterWorld один вебмастер рассказал о том, что недавно он заполучил очень хорошую ссылку (PageRank 7) со всемогущего сайта Apple.com. Несмотря на большой рост трафика, поисковые позиции его ресурса так и не улучшились. Он интересуется, сколько времени нужно ждать, чтобы ранкинг его сайта увеличился хотя бы на 10%?

На то, что ранкинг его ресурса не увеличился в течение одной недели, может быть несколько причин: 

 

  • Google еще не проиндексировал ссылку
  • Ссылка содержит параметр NoFollow или каким-то образом блокирует передачу ссылочного веса
  • Прошло еще слишком мало времени

 

Стоит ли редиректить все старые страницы сайта на его главную страницу? 

Распространенный вопрос, который возникает при глобальной реструктуризации сайта, это «Что делать со старыми URL-адресами?». Зачастую вебмастера просто устанавливают 301-ую переадресацию со старых URL-адресов на главную страницу сайта. Например, если раньше существовала страница про синие стулья, но ее не будет в новой версии сайта, то вместо того, чтобы присвоить странице 404-ую ошибку, можно просто средиректить ее на домашнюю страницу сайта. Но вот в чем вопрос – главная страница сайта вовсе не посвящена синим стульям, стоит ли тогда вообще устанавливать такую переадресацию? 

Если рассуждать логически, то ответ – нет, не стоит! Однако некоторые оптимизаторы считают, что любая страница с 404-ой ошибкой это страница «насмарку». Возможно это и так, но с другой стороны, если для каждой, уже не существующей страницы устанавливать 301-ый редирект на домашнюю страницу сайта, то что мы в итоге получим? По мнению администратора WebmasterWorld, последствия могут быть самыми непредсказуемыми и даже печальными. 

 

 

Google и ключевые слова в доменном имени

В августе 2009 года, рассказывая о ключевых словах в URL-адресах, мы провели опрос на эту тему. Результаты показали, что большинство вебмастеров считает, что Google стал больше уделять внимания ключевым словам в URL-адресах. 

Прошел год и, похоже, ничего с тех пор не изменилось. Оптимизаторы на WebmasterWorld также полагают, что такие домены и URL-адреса по-прежнему находятся «в любимчиках» у Google. 

 

 

В SEO лучше использовать абсолютные URL-адреса? 

На WebmasterWorld появилась дискуссия на тему того, что лучше использовать в SEO: абсолютные URL-адреса или относительные? Напомним, что абсолютный URL-адрес это полный адрес страницы (http://www.mysite.com/page), когда как относительный не содержит один или несколько компонентов (/picture, который подразумевает адрес http://www.mysite.com/page/picture). 

SEO-оптимизаторы рекомендуют использовать абсолютные URL-адреса, поскольку если ваш контент кто-то сворует, есть вероятность, что этот кто-то забудет поменять ссылки, и тогда у вас появится дополнительная ссылка на ваш материал. 

 


Google не может определить сайт-первоисточник? 

С тех пор, как в мае 2010 Google обновил свой поисковый алгоритм, а в июне запустил Caffeine, от вебмастеров стало появляться все больше и больше жалоб о том, что теперь сайты-первоисточники ранжируются хуже, чем сайты, скопировавшие их контент. Если раньше Google справлялся с этим вопросом весьма неплохо, то сейчас определение первоисточника, похоже, стало для него проблемой. 

Участники форумов WebmasterWorld и DigitalPoint Forums полагают, что это связано либо с Google Caffeine, который быстрее сканирует контент со скрепер-сайтов (scrapers) и поэтому дает им больше бонусов. Другая причина это майское изменение алгоритма Google, который теперь уделяет больше внимания другим параметрам, нежели «фактору первоисточника». 

На Google Webmaster Help на вопрос о том, что нужно делать вебмастерам для того, чтобы их сайты-первоисточники занимали более высокие поисковые позиции в Google, чем сайты-скреперы, гуглер ДжонМу посоветовал создавать уникальный контент. Порой бывает достаточным добавить всего одно или два предложения. Также не стоит забывать и об использовании ключевых слов, но здесь важно иметь чувство меры. 

 

SEO-миф: засчитываются ли обратные ссылки конкурентов? 

Порой интересно наблюдать, как на глазах рождаются мифы и слухи на самые различные темы. Вот, например, в августе на WebmasterWorld некто выдвинул предположение, что если у вас и вашего конкурента есть одна и та же ссылка, то Google засчитает ее только у того, кто добавил ее первым. 

Безусловно, это неправда! Ссылка не засчитывается только тогда, когда у нее прописан атрибут NoFollow или она вовсе не передает ссылочный вес. Любая ссылка это просто ссылка; и если у вас и вашего конкурента есть линк на одну и ту же страницу, то Google, конечно же, посчитает обе. 
 

 

 

Действительно ли Google может выявлять платные ссылки? 

Многие вебмастера и оптимизаторы спорят о том, может ли Google сделать процесс выявления платных ссылок автоматизированным. В отдельных случаях достаточно легко вручную определить такие ссылки, но что делать, если подобных сайтов огромное количество? 

На Google Webmaster Help гуглер ДжонМу (JohnMu) намекнул одному вебмастеру, почему у его ресурса резко снизился ранкинг после долгих лет высоких позиций в онлайн-поиске: 

«Взглянув на ваш сайт и на то, как он связан с другими интернет-ресурсами, скорее всего, его обратные ссылки «засчитываются» не так, как это было раньше. Ведь для Google важно, чтобы ссылками не только обменивались, их покупали или продавали и еще каким-то образом использовали для повышения ранкинга, главное – чтобы они были качественными, релевантными и полезными сурферам. Подробнее можно почитать в разделе Google «Схемы построения ссылок». Если вы сами знаете, что ваши действия по продвижению сайта нарушают требования руководства для вебмастеров Google, то лучше всего самим внести необходимые изменения и затем отправить запрос на пересмотр сайта. »


Очевидно, что ДжонМу явно говорит о наличии у этого сайта платных ссылок и о том, что Google смог их выявить и «обезвредить». 

P.S.  Напомню, что согласно  одному из выведенных SEOПравил Новикова  –  платные ссылки навредить сайту не могут

 

 

 

Google: об использовании Google Translate и о тэге Rel=Alternate

Как-то на Google Webmaster Help гуглер ДжонМу обмолвился о том, что в некоторых случаях использование Google Translate для перевода контента на нужный язык может быть воспринято как «создание автоматически сгенерированного контента», что является нарушением руководства Google. Пока неясно, это касается только тех случаев, когда используется чужой контент, который переводится на другой язык и размещается на своем сайте, либо всех текстов. 

Дословно ДжонМу говорит следующее: 

«Использование сервисов и программ по переводу контента на другой язык для вашего сайта может быть воспринято как создание автоматически сгенерированного материала, который нарушает руководство для вебмастеров Google. Прежде чем размещать онлайн результаты сервиса Google Translate, я бы настоятельно порекомендовал вручную отредактировать эти тексты. Во-первых, вы проявите большее уважение к посетителям вашего сайта, а, во-вторых, ваш новоиспеченный контент уже не будет нарушать требования Google, так как был дополнительно вами отредактирован.»


Однако некоторое время спустя Google опубликовал сообщение о том, как именно надо обращаться с таким «автоматически сгенерированным» контентом

 

 

 


 

By Ruslan Novikov

Интернет-предприниматель. Фулстек разработчик. Маркетолог. Наставник.