Долго. Дорого. Шикарно.
В этом выпуске вы узнаете, что такое дубли, для чего нужно проверять дубли, как найти дубли и на что надо обращать внимание при проверке дублей.
Присоединяйтесь к нам:
► Наш Youtube канал: youtube.com
► Наша группа в VK: vk.com
► Наш сайт: webprodazhi.ru
===========================
Содержание видео:
Как найти дубли? Как найти повторяющиеся страницы (информацию) на сайте?
Что такое дубли? Это копии страниц, доступные на разных url адресах.
Зачем убирать дубли? Поисковые системы тратят свои ресурсы и проделывают бесполезную работу, обрабатывая копии страниц сайта. В результате могут возникнуть проблемы с индексированием и ранжированием Вашего сайта.
Как найти дубли? Есть несколько способов. Рассмотрим их по порядку.
Рассмотрим Яндекс Вебмастер. Все ссылки будут в описании. Заходим и выбираем сайт. Переходим в раздел Индексирование -> Страницы в поиске. Нажимаем кнопку Исключенные. Под графиком ищем надпись Дубль. Здесь будет список всех дублей. В нашем случае Яндекс Вебмастер дублей не нашел.
Рассмотрим Гугл Вебмастер. Заходим и выбираем сайт. Переходим в раздел Вид в поиске -> Оптимизация HTML. Обращаем внимание на разделы «Повторяющееся метаописание» и на «Повторяющиеся заголовки (теги title)». Переходим и видим список всех дублей.
Рассмотрим онлайн сервисы. Здесь важно правильно выбрать сервис. Для меня идеальный сервис – это рабочий, без регистрации, бесплатный, понятный, а также желательно русскоязычный и без рекламы. К сожалению, таких не нашел. Если вы знаете такой онлайн сервис – напишите в комментариях. Для примера рассмотрим сервис siteliner.com. Заходим на него, вводим ссылку на сайт и жмем на кнопку Go. Через некоторое время увидим список битых ссылок в разделе Duplicate Content.
Рассмотрим Программы для ПК. Здесь важно правильно выбрать программу.Для меня идеальная программа – это рабочая, без регистрации, легко скачиваемая, бесплатная, понятная, а также желательно русскоязычная. К сожалению, таких не нашел. Если вы знаете такую программу – напишите в комментарии. На просторах интернета можно найти такие программы: Screaming Frog Seo Spider, Netpeak Spider, Xenu Link и т.д. У каждой из них есть свои плюсы и минусы, выберете любую удобную для себя программу. Рассмотрим последнюю из списка. Скачиваем ей, запускаем, жмем файл, далее чек уреэл, вбиваем сайт и жмем кнопку Ок. Получаем список всех ссылок сайта. Сортируем все страницы по полю Title и находим одинаковые. С кодировкой тут проблемы, но это не мешает нам найти дубли. Аналогично можно сделать и с полем Description.
Рассмотрим Мониторинг поисковой выдачи посредством оператора «site:». Заходим в поисковую систему гугл. Вбиваем в поиск вот такую команду. (site:mysurvival-kit.ru -site:mysurvival-kit.ru/&) Что она означает? Первая часть показывает страницы сайта, находящиеся в индексе Google (другими словами – это общий индекс). Из нее мы вычитаем вторую часть, которая показывает страницы сайта, участвующие в поиске (другими словами – это основной индекс). В итоге мы получает малоинформативные страницы и дубли.
Вы уже обратили внимание, что разные способы поиска дублей – дают разные результаты для одного и того же сайта. Поэтому важно собрать максимально полный список всех дублей.
Как убрать дубли? Полученный список надо изучить и выбрать для каждого дубля свой способ устранения. Нужно либо удалить ненужные страницы, либо донастроить систему управления сайтов, либо доработать информационное наполнение страницы. Рекомендуем обратиться к опытному специалисту, который поможет решить все эти проблемы.
===========================
Ссылки из видео:
Вебмастера:
https://www.google.com/webmasters/tools/
https://webmaster.yandex.ru/sites/
Онлайн сервисы:
http://validator.w3.org/
http://www.indiabook.com/webmaster/link.html
и многие другие
Программы для ПК:
Netpeaksoftware
Semonitor
Xenu’s Link Sleuth
SiteMap Generator
и многие другие