Как настроить и ускорить постоянную индексацию сайта в google и Яндекс

Индексирование сайта

Содержание

Что такое работа над сайтом и в чем весь процесс улучшения качества и быстроты индексирования вашего ресурса? В предыдущем посте я рассказал о наиболее эффективных методах быстрой индексации вашего ресурса, но это скорее полезно для совсем новых проектов или как разовая помощь. Как быть, когда ваш сайт регулярно наполняется свежим контентом и вы не хотите постоянно в ручном режиме добавлять страницы в индекс поисковых машин.

Я расскажу и покажу, как проделать основные шаги по настройке автоматической и правильной индексации вашего сайта. Проделав это вы получите максимальный эффект от посещения роботов вашего ресурса и избавитесь раз и на всегда от ручной работы.

Шаг №1 – настройка robots.txt для сайта

Robots.txt

Давайте разберемся, что за документ такой robots.txt и почему он обязательно должен быть на вашем сайте. Данный документ является прямой инструкцией для роботов поисковых систем, которые приходят на ваш сайт с целью просмотреть документы и добавить их в свою базу индекса.

В robots содержатся запрещающие и разрешающие конструкции для всех роботов или для какого-то конкретного. К примеру вот такие записи в документе будут говорить о следующем:

  • User-agent: * – данная строка говорит, что все последующие правила обязательны для всех роботов
  • Allow: /wp-content/themes/*.jpg – разрешены для просмотра все картинки формата .jpg в текущей теме WordPress
  • Allow: /wp-content/themes/*.png – разрешены для просмотра все картинки формата .png в текущей теме WordPress
  • Disallow: /? – запрещено индексировать все документы, которые содержат в себе символ ? (документы поиска и фильтры)
  • Disallow: /*? – запрещено индексировать все документы, которые содержат в себе символ ? (документы поиска и фильтры)
  • User-agent: Yandex – эта строка, говорит, что эти правила только для роботов Яндекс

Более подробно прочесть о документе robots.txt и правильно его настроить поможет справка Яндекс и справка Google. Также помните этот документ размещается в корневой папке www вашего сайта.

При составлении документа robots.txt следует помнить о следующих вещах:

  • Все файлы вашей темы/шаблона должны быть открыты для индексирования
  • Папка с изображениями товара или изображений со страниц сайта, также открыта для роботов
  • Страницы поиска, фильтров (если они на Аякс), страницы пагинации все это закрываем
  • В конце указываем основное зеркало сайта и карту сайта (Host: http://seo-book.pro, Sitemap: http://seo-book.pro/sitemap.xml)
  • По завершению проверяем документ в валидаторе вебмастер Гугл и Яндекс, если все ок радуемся успеху!

Шаг №2 – быстрый и надежный хостинг или сервер, скорость загрузки страниц!

Быстрый хостинг

Роботы поисковых систем предпочитают высокую скорость обработки и анализа данных и ненавидят медленные действия и ограничения, которые могуд задавать провайдер вашего хостинга.

Каждый заход робота ограничен временем и ресурсами, и если вы будете тормозить или ограничивать его действия на сайте, то иемеете все шансы утратить интерес с их стороны к вашему сайту. Скажите вам это нужно, думаю, что нет! Ваш сайт должен работать стабильно 24 часа в сутки и 7 дней в неделю, если ваш провайдер не может это гарантировать и бывают частые сбои и недоступность, пришло время подумать о более надежном поставщике услуг!

В наше время, скорость обработки данных на любом сайте должна не превышать 3-5 секунд, все что грузится дольше может быть добавлено в черный список вашими потребителями. Согласно последним исследованиям, более половины пользователей интернета ожидают скорость загрузки до 5 секунд, а потом просто покидают страницу. Гугл разработал свой сервис оценки скорости и качества загрузки ваших страниц, рекомендую ознакомиться с ним.

Шаг №3 – динамические url адреса

ЧПУ url

Довольно частой проблемой для различного рода сайтов на основе баз данных являются страницы имеющие вид URL, как этот: www.weddinggift.com/?item=32554~~dobj, думаю и так понятно, что понять что-либо по такому адресу нет возможности.

Проблема в том, что ни человек ни даже робот поисковой системы не может сказать, что за продукт или услуга может быть найдена по текущему URL, разве только после полного открытия самой страницы в окне браузера.

Чтобы понять разницу между динамическими и статическим URL я приведу вам для сравнения два типа:

  • seo-book.pro/?p=353&preview=true – это динамический url и здесь не понятно, какой контент по ссылке скрывается
  • seo-book.pro/kak-uskorit-indeksaciyu-sayta/ – а здесь сразу понятно, что ожидает пользователя на странице

Надеюсь вы понимаете разницу между хорошо и плохо в примере выше. Но что же делать, если сайт не новый и несколько лет у него структура была на динамических url? У меня есть ответ на этот вопрос. Вам предстоит сделать совершенно новую, правильную и логическую структуру, и все старые адреса страниц перенаправить на новую структуру посредством 301 редиректа. Если у вас нет опыта и вы не знаете как проделать данную задачу, обратитесь к специалистам, но не стоит откладывать на потом.

Шаг №4 – удобная навигация по сайту

Навигация по сайту

Предоставьте себе ситуацию, когда попадаете в неизвестный ранее город и вам предстоит найти в нем нужный адрес, без знания местности и карты для навигации ваши шансы ничтожно малы для успешного поиска. Но имея в руках карту или gps навигатор вы становитесь очень близки к успеху.

Когда робот поисковых систем приходит к вам на сайт он индексирует главную страницу вашего ресурса, и уже по навигации углубляется внутрь сайта, что же произойдет, если этой навигации нет или она не логичная, думаю ответ очевиден.

Категории и рубрикатор на сайте

Намного раньше я разбирал тему со сбором семантики и ее кластеризации, так вот некоторые кластеры это уже и есть часть вашей будущей структуры категорий или разделов сайта, в некоторых случаях это фильтры товара в интернет-магазине.

Для примера предлагаю остановиться на интернет-магазине мебели, как вы думаете какие категории товаров будут уместны для данного вида продукции? Я думаю, что примерно таковы:

  • Мягкая мебель
  • Кровати
  • Кухни
  • Детская мебель
  • Гостинные
  • Комоды, тумбы

Ну и в таком роде, я не буду расписывать все, главное, чтобы вы поняли, каждый сайт нуждается в логической структуре, и чем проще и удобнее будет эта структура, тем больше шансов вы имеете на удобное пользование ресурса вашими посетителями.

Пути поиска целевой страницы на сайте

Подумайте какие пути поиска товара, услуги или чего-либо вы предоставляете пользователю на вашем ресурсе. Давайте я приведу примеры наиболее часто используемых способов навигации для посетителей:

  1. Навигационное меню в шапке сайта
  2. Дополнительное меню в правом или левом сайдбаре сайта
  3. Фильтры для быстрой сортировки
  4. Поле поиск на сайте
  5. Баннеры и слайдеры для спец предложений
  6. Хлебные крошки на каждой странице
  7. Карта сайта в html формате для посетителей

При создании контента продумывайте другие полезные материалы и создавайте дополнительные ссылки между страницами, повышая их взаимосвязь и давая возможность пользователям получить максимально полезной информации на вашем сайте. Также это любят поисковые машины, правильная структура сайта и связь (перелинковка) ваших документов повышает авторитет и значимость вашего ресурса.

Шаг №5 – использование текстовых ссылок вместо графических

Текстовые ссылки

Поисковики еще не научились досконально понимать изображения, которые используются вместо текста ссылки. И нужно всегда понимать, что делая красивую ссылку изображением вы жертвуете пониманием со стороны поисковых машин, но я не советую вам это делать. В наше время с развитием css3 и javascript вполне возможно сделать красивую и удобную навигацию со всеми визуальными эффектами, которые только придут вам в голову.

Так что старайтесь избегать ссылок на изображениях и заменить их обычными текстовыми ссылками, особенно там, где дизайн сайта это позволяет. Помните роботам намного проще понять и перейти по ссылке в виде текста, чем по ссылке в виде изображения. Также нажимая на текстовую ссылку, пользователи усиливают значимость и вес страницы на которую вы ссылаетесь.

Шаг №6 – Flash, JavaScript и frames

Flash, JavaScript and frames

Давайте разберемся, что такого опасного таится в этих трех словах Flash, JavaScript, frames. Это те вещи, которые могут сделать очень яркий и многофункциональный дизайн вашей страницы, но и в тоже время нанести ощутимый вред для поисковых систем от невозможности просканировать контент и ссылки, до медленной загрузки все из-за тех же дополнительных скриптов.

Для робота поисковых машин javascript, flash и frames это как указатели на дороге, но написанные на древнегреческом языке, они есть, но помощи от них никакой.
В данное время только Google умеет читать JavaScript, Flash или Frames на вашем сайте и только тогда, когда они открыты для индексирования в robots.txt, что касается остальных поисковых систем, в том числе и Яндекс, то они еще далеки от этого. Возможно когда нибудь настанет время, когда все они без труда смогут распознавать такие документы и индексировать их, но пока это время еще не настало!

Что такое frames?

Каждый новый фрейм — это отдельный веб-документ подключаемый при помощи специальных атрибутов, размеры которого указывает сам разработчик. При правильном подключении, в этом самом окне будет показываться всё содержимое другого документа на указанной странице.

Использование большого количества фреймов на странице нарушает логику при создании понимания роботов о чем собственно страница написана. Для примера я возьму такой случай, предположим вы сделали сайт с просчетом пластиковых окон, сам функционал просчета выводится во фрейме. При анализе вашего сайта поисковику будет проблемно понять, что фрейм является частью целой экосистемы сайта, соответственно он получит меньший приоритет перед сайтом, который не использует фрейм, а имеет внутри встроенный фильтр.

Что такое flash?

Я думаю вы знаете что такое флеш, все визуальные баннеры содержащие анимацию и эффект наведения курсора до 2015 года были сделаны на этой технологии. и только с приходом анимационных баннеров html5 и css3 флеш стал отходить на второй план.

Если flash используется в элементах навигации вашего сайта, он причиняет очень много вреда вашему сайту. Если вам интересно увидеть, как работает сайт на флеш посмотрите этот ресурс www.saizenmedia.com/2013/

Вы можете сделать великолепные эффекты при помощи технологии флеш на вашем сайте, но все это ни даст ровным счетом ничего для поисковых систем, они не прочтут ваш текст на сайте и не поймут о чем ваши картинки говорят, хотя Гугл утверждает обратное, но опыт показывает, что в ТОП 30 нет сайтов, которые используют flash, я думаю это серьезный аргумент.

Что такое javascript?

Я думаю сейчас в эру процветания javascript, как языка программирования трудно представить себе сайт не использующий эти технологии. Даже статичные страницы (лендинги) и те используют его для привлекательных эффектов и дополнительного функционала.

Как узнать используется ли скрипт на вашем сайте, довольно просто, нажимаем сочетание клавиш Ctrl+U и после попадания на страницу с исходным кодом еще одну комбинацию Ctrl+F, что позволит вызвать поле поиска по странице с исходным кодом, в это поле вводим <script и смотрим на результат. Я более чем уверен, что вы найдете его применяемым на своем сайте, спешу вас заверить это не критично и даже не плохо. Главное, чтобы он был применен там, где действительно нужен и по максимуму оптимизирован для быстрой работы сайта.

Смотрите, чтобы javascript не использовался в элементах навигации страницы, такие вещи не индексируются поисковыми системами, а если в этом есть большая необходимость, как скажем те же фильтры по товарам, тогда сделайте второй вариант навигации, который будет текстовый и рассчитан на поисковых роботов.

Шаг №7 – удаление неработающих, битых ссылок

404 страница ошики

Что такое не работающие ссылки на вашем сайте? Если вы еще не знаете, я приведу вам пример: перейдем по этому адресу http://seo-book.pro/priehali, конечно вы не получите ничего, только сообщение о том, что страница не работает и контент не найден.

Какие последствия принесет вашему сайту отсутствие нужной страницы? Давайте попытаю привести самые плачевные последствия:

  • Нарушение структуры и логики внутренней перелинковки сайта
  • Люди будут попадать с поиска на битую ссылку и скорее всего сразу уходить с сайта
  • Количество битых ссылок влияет на ранжирование сайта
  • Вы теряете трафик с поиска, так как некоторые запросы, по которым была страница — пропадут  с выдачи

Как проверить сайт на битые ссылки?

Существует огромное количество, как платных так и бесплатных сервисов и программ, которые проверяют структуру вашего сайта и показывают количество битых ссылок, я использую следующие:

  • ScreamingFrogSEOSpider
  • WebSite Auditor
  • Searche Console Google

Ошибки 404

Давайте расскажу, как смотреть битые ссылки в консоль вебмастер Гугла. Переходим в консоль и во вкладке «сканирование» смотрим «ошибки сканировани», там и будут ваши битые 404 ссылки, если таковы есть, срочно примите меры по их устранению.

Шаг №8 – поиск и устранение дублей страниц, rel = «canonical»

Дубликаты страниц

Процесс поиска и устранения ошибок связанных с дублированием контента весьма интересен и в некоторой мере сложен. Иногда для устранения дубликатов придется прибегать к помощи веб-мастера или программиста, но так или иначе это нужно делать, ибо дубли это низкосортность вашего сайта и их не должно быть вовсе на ресурсе.

Что такое дублированный контент?

Есть несколько типов дублирования контента: полное дублирование страниц и частичное дублирование отдельных участков страницы. Также есть еще такое понимание, как дублирование чужого ресурса, но это немного другой разговор и мы о нем поговорим в других постах.

Поисковые машины вкладывают огромное количество ресурсов для возможности беспрерывно индексировать и искать новый контент по всемирной паутине. Не удивительно, что каждая система старается искать и индексировать только полезный и нужный контент, в связи с этим у Google появился так называемый «дополнительный» индекс, страницы, которые находятся в нем, являются второсортными и не участвуют в основном поиске.

Помимо всего прочего, если у вас есть контент, который дублируется, то в таком случае Google может ранжировать (показывать) ту страницу, которая более авторитетна по его алгоритмам, но менее авторитетна для нашего сайта. Такие случаи бывают и получается так, что мы вкладываем силы и ресурсы в те страницы, которые поисковая система уже определила, как не основные.

Как искать и диагностировать дублирующийся контент?

Наверное не лишним будет напомнить, что профилактика всегда лучше, чем уже лечение имеющегося диагноза. Поэтому первоочерёдно при создании нового сайта, обязательно поговорите с вашим web-мастером о системе, которая автоматически будет избегать дублирования контента. Большие компании специализирующиеся на разработке и программировании сайтов знают про основные SEO требования, но вот частные фрилансеры очень часто далеки от этих понятий, а иногда попросту игнорируют их, так как заказчик промолчал в ТЗ.

Существует масса инструментов для выявления дублей контента, это программы о которых я упоминал выше, так и различные веб сервисы, но я покажу абсолютно бесплатный инструмент, и это конечно Google.

Дублирование контента

Переходим в Search Console Google во вкладку «вид в поиске» и там смотрим «оптимизацию html» собственно вы и получите все варианты дублирования контента на вашем сайте. Если повторяются title посмотрите, скорее всего это идет полное дублирование страниц сайта, детали уже уточняете посредством сравнения двух адресов указанных в консоле.

Использование оператора site для поиска дублей

Я уже затрагивал тему по использованию этого оператора, можете ознакомиться, если вдруг вы ее пропустили «что знают о вашем сайте поисковые системы, оператор site«.

Поиск дублей через site:

В примере выше я ввел в поисковой строке Google оператор site далее домен сайта по которому собираюсь проводить поиск контента и через пробел в кавычках искомый кусок предложения. Система выдала мне 27 документов, которые содержат это упоминание, это не значит, что эти документы дублируются, я просто показал, что если у вас есть подозрения о дублировании контента вы можете проделать тоже самое, только использовать фразы для поиска, которые заведомо должны быть только на одном документе.

Еще хочу дать ссылки на парочку бесплатных инструментов для сканирования вашего сайта на дубликаты и не только:

  • www.siteliner.com – 250 страниц бесплатно
  • Xenu Link Sleuth  — одна из популярных программ среди оптимизаторов, которая помогает проводить технический аудит сайта
  • WebSite Auditor – 30% данных бесплатно показываются для всех

Как бороться с дублированием контента?

Теперь, после того как вы уже знаете, как обнаружить проблему, вам будет интересно, как же ее решить. Ниже приведены наиболее популярные причины дублированного контента и способы его устранения. Давайте разберемся с этим!

Дублирование контента связанное с одинаковым содержимым на различных сайтах в сети.

Решение:

а) Если вам необходимо предоставить описание вашего сайта, не копируйте его из своей страницы. Вместо этого, потратьте пару минут и напишите уникальное описание.

б) Если у вас есть несколько доменов с одинаковым содержимым, вы можете создать междоменный канонический тег. (Подробное описание можно найти на сайте https://support.google.com/webmasters/answer/139066?hl=ru). В принципе, вам нужно выбрать, какой URL будет источником, и перенаправить к всех к нему.

в) Если не вы  владелец доменов, то вам нужно общаться с веб-мастерами, чтобы решить проблему, просить ваших дочерних филиалов упомянуть ваш сайт, как первоисточник, если вы решили дублировать часть содержимого на остальных сайтах.

Дубликаты созданные внутри сайта

Внутренние дубликаты сайта зачастую вызваны неправильной настройкой системы управляющей этим сайтом или же неправильным его наполнением. Давайте рассмотрим наиболее распространенные ошибки из-за которых дублируется контент.

  1. Различные URL ведут на одну и ту же страницу
    Исправление: Если вам по функционалу нужно, чтобы несколько url вело на одну страницу, можно второстепенные перенаправить тегом rel=»canonical» на основную, тем самым сохранив структуру сайта и не нарушив правила поисковых систем.
  2. Использование фильтров и поиска по сайту, которые на закрыты в robots.txt
    Исправление: В большинстве случаев, такое лучше не индексировать, путем добавления мета-тег NoIndex на страницы с сомнительными параметрами. Еще как вариант вычислить общий параметр фильтров и запретить их индексировать в robots.txt
  3. Страницы с различными партнерскими ссылками
    Исправление: Достаточно странице, на которую ссылаются по реферальным ссылкам прописать rel=»canonical» с самой на себя и все входящие будут автоматом ссылаться на ее, как на основную.

Я надеюсь вы поняли, как важно избегать дублирования контента на вашем сайте, если есть вопросы или что-то недопоняли, пишите мне и я с радостью дам поясняющие ответы.

Шаг №9 – валидная верстка HTML и CSS

Ошибки верстки

100% правильная верстка не даст роста вашему сайту в рейтинге поисковых систем, но отсутствие качественной верстки может привести к плачевным показателям, когда неправильно написанные теги могут попросту свести на нет все усилия в оптимизации сайта.

Давайте приведу вам два примера, что произойдет, если вместо тега title написать tilte? Или вместо descriotion написано deskription? В первом случае наша страница не получит один из самых важных инструментов ранжирования страницы, а именно title, во втором вместо нашего описания поисковые машины выведут, то что сами посчитают правильным.

Чтобы понять в каком состоянии ваша верстка находится достаточно пройти по ссылке на бесплатный валидатор и проверить ваш сайт. При переходе вы получите поле для ввода адреса сайта, вводим и нажимаем на проверку, через время получаем ответ и если у вас есть ошибки вы их все увидите ниже по странице. Исправьте сами или отдайте вебмастеру, чтобы привести в порядок ваш сайт.

Шаг №10 – создание карты сайта

Карта сайта

Проще говоря, карта сайта представляет собой список страниц Вашего сайта. И на данный момент есть два типа Sitemaps.

  • HTML карта сайта сделана в основном для пользователей, чтобы помочь им легко найти необходимую информацию.
  • XML Sitemap (это обычно называется Sitemap, с большой буквы S) является важной только для поисковых систем.

Карта сайта для людей:

html карта сайта

Карта сайта для поисковых систем:

Карта сайта для поисковых систем

Вариант карты сайта для людей полезен в основном для быстрой навигации посетителей по сайту, а вот карта сайта в формате .xml больше полезна для роботов поисковых систем. Помимо самого наличия карта сайта должна иметь ряд параметров, которые указывают как часто стоит роботу посещать те или иные разделы сайта.

Чтобы больше понять и разобраться в составлении правильно настроенной карты сайта, я рекомендую вам ознакомиться с этим ресурсом www.sitemaps.org, где очень подробно описано для чего нужна карта сайта и как ее правильно составить! Также не забудьте заглянуть на страницу Гугл, где есть материал о sitemap.

После создания карты сайта на вашем сайте, ее нужно добавить в панели вебмастера приоритетной поисковой системы, как это сделать я опишу ниже.

Добавление карты сайта в Google

Добавление карты сайта в Гугл

Переходим в Search Console —> Сканирование —> Файлы Sitemap и добавляем вашу карту сайта. Через некоторое время робот обойдет ваш сайт и часть страниц будет добавлено в индекс системы. Думаю у вас получится, ничего сложного в этом нет!

И да еще скажу, что есть очень много плагинов и модулей под различные известные cms позволяющие на автомате генерировать карту сайта из всех ново созданных страниц и разделов сайта. Если вы используете такие системы поищите в интернете готовые решения!

Добавление карты сайта в Яндекс

Добавление sitemap Yandex

Переходим в панель вебмастер Яндекс —> Настройка индексирования —> Файлы sitemap —> Добавить. Аналогично с поисковой системой Google через некоторое время ваш сайт обойдет робот Яндекса и сделает соответственные пометки в свою базу данных, а через время, если ваш сайт для людей и правильно оптимизирован вы начнете появляться в выдаче этих поисковых систем.

На этом наша глава закончена, я надеюсь вы ничего не упустите с этих 10 шагов, которые все так или иначе влияют на скорость и качество индексации вашего сайта.

Поделись с друзьями:

25 thoughts on “Как настроить и ускорить постоянную индексацию сайта в google и Яндекс

  1. Действительно, есть над чем поработать, хотя для меня очень сложно. Главное, что нашла ответ на вопрос, который задавала в соседнем топике — как ускорить постоянную индексацию.
    Получается, что только «Google умеет читать JavaScript, Flash или Frames», а у меня к каждому рецепту до десяти фотографий спрятано в скрипт. Их яндекс не видит совсем? Или видит те, которые в заметке к рецепту?

    1. А вы зайдите в Яндекс поиск по изображениям и введите такой запрос site:seo-book.pro, где после оператора site: укажите ваш домен. И посмотрите на сколько полно он сканирует ваши изображения.

  2. У меня вопрос по 404 ошибке. Нужна ли она? В движке моего сайта есть модуль включая который при попадании на битую страницу вместо 404 ошибки вас перенаправляет на карту сайта. С одной стороны это удобно, но начинают ругаться гугл и яндекс вебмастера, что не настроена 404 ошибка. Как быть.

    1. 404 должна быть и это правильно. А чтобы и Гуглу с Яндексом угодить и людей привлечь вы можете на страницу 404 повесить карту сайта! Главное, чтобы ответ был не 200, а 404 с сервера

    1. А что вы делаете при добавлении изображения?

      1. Уникальное изображение
      2. Атрибуты alt и title
  3. Воспользуюсь вашей информацией по поиску дублей) давно об этом знаю, но все никак не займусь. И еще, я конечно, полный чайник, и не понимаю, где у меня стоят JavaScript, Flash или Frames. Но, я поняла, что нужно будет полазить и почитать, чтобы хотя бы ориентировочно знать, что это, и как это выглядит 🙂

  4. Слава богу, я все то, о чем вы написали в этой статье вроде проделал. Что касается индексации, страницы конечно отображаются в яндекс вебмастер, но вот выдача оставляет желать лучшего. Такой вопрос: влияет ли ТИЦ на выдачу или это уже не важно в плане выдачи.

  5. По поводу дублирующегося контента — существует ли в природе какая-то сборка CMS, которая уже заранее лишена всех этих проблем ? И почему создатели CMS сразу не решают эти проблемы ? Слышал что-то о сео сборках WP, DLE и т.д. но где гарантия что они не нашпигованы вредоносным кодом ? Если знаете подобную надежную сборку от проверенного человека — поделитесь ссылочкой ))))

    1. Скажу так, ни одна сборка известных мне cms не спасет от дублирования, человека, который не понимает как этого избежать. А так все сборки дружественны к SEO, одни на 100%, другие около этого.

  6. С дублями страниц вечная беда. Изначально закрыла дубли в robots.txt, знаю, что в некоторых случаях лучше применять тег rel = “canonical”, но опять что-то переправлять совсем не хочется. Лучшее — враг хорошего, поэтому пока оставляю все как есть.

    1. Анастасия, закрытие дублей в роботс это не выход. Нужно их закрывать именно средствами системы управления контентом. Здесь важно понять причину, за счет чего дубли возникают и устранить их. А если причина непонятна, то тогда остается сделать редирект в .htaccess

  7. Т.е. robots настроен, то каждую новую статью в вебмастер и сканирование урлов загонять не надо? Я делаю. Сейчас прочитала и почувствовала себя нерадивой школьницей. Столько всего сделать надо, а я откладываю. Битые ссылки не проверяю, дубли — аналогично. Единственно, ссылки все текстовые.

  8. По поводу шага № 3. Я не знаю какие URL лучше: динамические или статические. Настроил человеко-понятные урлы и забыл. А вот с дублями страниц действительно проблема…

  9. Какая статья полезная, только времени надо на прочтение где то взять:)
    Действительно соглашусь со многими — дубли страниц настоящая беда. И еще дубли тайтлов и дескрипшн. Ну вот не знаю как правильно сделать, чтобы поисковики не считали их повторяющимися! Печатные версии страниц тоже закрывал от индексации, но они все равно все время появляются в ошибках. Короче, еще исправлять и исправлять…

  10. У меня просто руки опускаются, когда я вижу сколько надо делать чтобы сайт более менее нормально функционировал. А чтобы отдать на аутсорс надо чтобы было чем этот аутсорс оплачивать. Четсно говоря мечтаю, когда смогу поручить это все кому-то другому, когда я заводила блог, совсем не праниловала разбираться в сео.

  11. На предыдущей версии CMS только и были проблемы с дублями товаров. Сейчас обновился и проблемы полностью исчезли, что и всем советую. Конечно самое главное это правильно настроить robots и конечно же внутренняя оптимизация.

  12. Без этого никуда. Грамотная внутренняя перелинковка может не только ускорить индексацию сайта, но и улучшить его позиции в выдаче поисковых систем. Иногда лишь ее достаточно, чтобы занять топовые места в выдаче по низкоконкурентным запросам.

  13. Довольно таки интересная статья! Я вот все голову ломаю как на WordPress увеличить скорость загрузки сайта (http://developers.google.com/)! Как вы сделали это или может планируете?

  14. Что мне нравиться на вашем сайте так это последовательность материала. Все четко, по делу, без «воды», разложено по полкам. В одной странице по индексации — вся биография начинающего сеошника, годы поисков и метаний:) Большое спасибо за Ваш труд, с интересом буду ждать новые статьи.

  15. Ускорить индексацию страниц сайта в Яндекс сложнее, чем в Гугл, так как этом поисковике нет специальных инструментов индексации. Сделать это можно только путем технической настройки сайта и постоянной работы над ним.

  16. Ускорить индексацию страниц сайта в Яндекс сложнее, чем в Гугл, так как этом поисковике нет специальных инструментов индексации. Сделать это можно только путем технической настройки сайта и постоянной работы над ним.

  17. Ускорить индексацию страниц сайта в Яндекс сложнее, чем в Гугл, так как этом поисковике нет специальных инструментов индексации. Сделать это можно только путем технической настройки сайта и постоянной работы над ним.

  18. Грамотная внутренняя перелинковка очень важна для ускорения индексации сайта. Все страницы должны иметь 2-3 ссылки на главную. Продублируйте меню. Например, если у вас горизонтальное меню в верхней части сайта, то продублируйте его в нижней части. Сделайте дополнительные ссылки на основные разделы меню на всех страницах сайта. спасибо за статью. отличная информация для новичков. А вот скажите Alexa Rank как то влияет на популярность сайта? если да, то может вставите ссылку на регистрацию.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *