Как правильно написать Robots.txt для блога на CMS WP >>> [ссылки видны только авторизованным пользователям] <<< Продвинутые оптимизаторы пишут, что в ВордПресе появляется много дублей текстов и потом занижается выдача поисковиками.
Что вы можете сказать по этому поводу. Если не сложно напишите Robots.txt для вышеуказанного блога.
Вам правильно советуют поставить плагин, автоматически закрывающий разделы-дубли и имеющий возможность формирования внятный тайтлов. Но! Учтите, что приведя урлы к нормальному виду - транслиту названий статей, Вам нужно будет сделать 301 редирект со страниц со старым, неоптимизированным адресом, если те уже успели занять какие-то важные позиции в поиске.
Если позиций особых нет, то можно не переживать - они сами со временем переклеятся, но редирект поможет ускорить их индексацию. И вообще, структура сайта ужасна, категории дублируют отдельные записи, тут же внизу открытые ссылки на архивы, да еще и теги где-то под ногами мельтешат и всю выдачу засоряют. Неужели за 3 года Вам никто этого не сказал? Или Вы без оптимизатора живете?
Публикация комментариев и создание новых тем на форуме Адвего для текущего аккаунта ограничено. Подробная информация и связь с администрацией: https://advego.com/v2/support/ban/forum/1186