
Основным видом деятельности сайта moscowregi.ru является регистрация интеллектуальной собственности.
Для раскрутки сайта в сети интернет потребовалось проведение seo-анализа, а том числе устранение дублирования страниц на сайте.
Чтобы найти дубликаты страниц на сайте moscowregi.ru, можно использовать несколько методов. Рассмотрим основные из них.
Проверка через панели вебмастеров
- Яндекс.Вебмастер:
- Перейти в раздел «Индексирование» → «Страницы в поиске».
- Выбрать вкладку «Исключённые страницы» и отфильтруйте их по статусу «Дубль».
- Можно скачать таблицу с результатами в формате XLS или CSV, где дубли будут обозначены как «DUPLICATE».
- Google Search Console:
- Открыть раздел «Индексирование» → «Страницы».
- Прокрутить вниз до таблицы «Почему эти страницы не индексируются».
- Найди строку «Страница является копией». Если она есть, нажать на адрес из списка и выберите «Проверить URL», чтобы узнать каноническую страницу.
Использование специализированных программ
- Screaming Frog SEO Spider:
- Настроить проверку дубликатов с точностью, например, 90%.
- Запустить парсинг сайта и перейдите в раздел «Контент» → «Near Duplicates», чтобы увидеть страницы с совпадающим контентом.
- Xenu’s Link Sleuth:
- Бесплатная программа для поиска битых ссылок, которая также помогает выявить дубликаты заголовков и контента.
- BatchUniqueChecker:
- Программа для пакетной проверки уникальности контента. Она сравнивает страницы по алгоритму шинглов и выявляет как полные, так и частичные дубли.
Ручной поиск с помощью поисковых операторов
- Использовать оператор
site:moscowregi.ruв Яндексе или Google, чтобы найти страницы с определённым текстом или заголовком. Например,site:moscowregi.ru title:"название страницы"поможет выявить дубли с одинаковыми заголовками. - Для поиска по части URL можно использовать
site:moscowregi.ru inurl:часть_адреса.
Проверка через карту сайта (sitemap.xml)
- Открыть файл sitemap.xml (обычно находится по адресу
moscowregi.ru/sitemap.xml). - Просмотреть список URL — повторяющиеся или похожие адреса могут указывать на дубли.
Дополнительные рекомендации
- Проверить GET-параметры: страницы с разными параметрами (например,
?sort=,?page=) могут считаться дублями. Использовать директивуClean-paramв robots.txt для Яндекса или настройте 301-редиректы. - Уникализировать мета-теги и заголовки: дубликаты в тегах
titleиdescriptionмогут привести к исключению страниц из индекса. - Использовать атрибут
rel="canonical": для этого указать основную страницу для групп дублей, чтобы поисковые системы знали, какую версию индексировать.