1) Добавьте сайт в яндекс/гугл вебмастер, залейте туда сайтмэп. (если еще не сделали) 2) Убейте дубли страниц и поставьте основное зеркало после индексации сайта нормальной (гугл в помощь как и что это). Дубли почти у всех новичков есть. 3) Не спамьте одинаковыми анкорами в ссылках, гугл тошнит от этого 4) Гугл не любит ссылки на морду (зато яндекс обожает)
RSS я не использую, для меня это архаизм уже, нечего про него сказать.
И кстати, совет на будущее: не воспринимайте ответы чужие или чужой сео опыт как эталон. Сайты все индивидуальны, если мне с чем-то повезло, то ваш сайт это может угробить, и наоборот.
Sabina , спасибо за полезные советы , по поводу sitemap - как часто его нужно обновлять ?
2) Убейте дубли страниц и поставьте основное зеркало после индексации сайта нормальной (гугл в помощь как и что это). Дубли почти у всех новичков есть. и вот этот пункт можно пояснить словами простого пользователя ?)
Сайтмэп поисковики сами обновлять и перезагружать будут время от времени. Зеркало = www.site.ru или site.ru (без www). Дубль страницы = 1 страница доступна по разным урлам. Очень часто такие мусорные урлы создают плагины для CMS, иногда и сами CMS. Например, мы Joomla .htaccess'ом лечили проблему с www или без него: Options +FollowSymLinks RewriteEngine On RewriteCond %{HTTP_HOST} ^www.site.ru RewriteRule ^(.*)$ [ссылки видны только авторизованным пользователям] [R=permanent,L]
Хотя вряд ли вы поняли последнее) Если у вас джумла, можете использовать написанное мной в .htaccess (вместо site.ru везде свой домен вставить необходимо).
отчего же ) я все понимаю ибо программист по профессии , просто с СЕО никогда не сталкивался ) а сайт у меня на Wordpress и зеркало по идее склеено . А вот дубли буду проверять если это можно сделать .
Не травмируйте меня словом программист:) Я одного хочу убить (тянул проект 7 месяцев и в итоге заявил, что не знает, как его написать), сижу сама пытаюсь что-то сделать :)) Проверить дубли можно примитивным методом: в гугле и яндексе вводите запрос site:gameronduty.com, увидите, сколько проиндексировано страниц (на данный момент их нет вроде), количество должно примерно совпадать. Есть туча сайтов, у которых в Яндексе 3000 страниц, в гугле - 5500. Смотрите, что именно проиндексировали поисковики (какие урлы), видите ерунду, ищите, откуда такой урл мог взяться.
В Robots.txt запретите все ненужное индексировать через disallow (только не перепутайте, а то нужное прекратит индексировать))
У меня на данный момент есть менюшка JS'овая, которая упорно не хочет сохранять выбор пользователя. Там 4 категории меню, юзер кликает на 2, выбирает там что-то, как только урл нажимает, в менюшке отображается 1 категория. смотрит что-то в 3 категории, нажимает на любой урл, опять менюшка отображает подразделы 1 категории. А вот как сделать так, чтобы менюшка не переключалась обратно - не знаю. Чтобы если юзер смотрит 3 категорию, то и подкатегории показывались третьей категории постоянно, а не путали его и ему не надо было бы опять нажимать на категорию меню. Конечно, с таким объяснением ничего не ясно)))
Публикация комментариев и создание новых тем на форуме Адвего для текущего аккаунта ограничено. Подробная информация и связь с администрацией: https://advego.com/v2/support/ban/forum/1186