Это хорошо?
Google / % страниц не под фильтрами - 16,600 / 0 %
Pillott (23.01.2012/10:14)
hooligan, с помощью .htaccess RewriteEngine On
RewriteCond %{HTTP_HOST} ^www\.site\.ru$ [NC]
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]
это если основной сайт без www
А ещё можно в
site.ru
нужно изменять на свой ?? или оставить так ??
Книга "Л. Гроховский - Руководство по внутренним факторам" Эта книга кардинально отличается от аналогичных изданий: она написана оптимизаторами для оптимизаторов и является первым изданием по теме внутренних факторов в SEO. Авторы соединили свои разноплановые познания в области внутренней оптимизации и смогли простым языком изложить сложный материал. Теперь вы можете воспользоваться актуальной информацией и применить новые знания в своей практике, наиболее полно задействовав потенциал собственного сайта и улучшив его позиции в выдаче поисковых систем. Книга написана в соавторстве с лучшими аналитиками нашей профессии – Станиславом Ставским, Михаилом Сливинским и Алексеем Чекушиным. — Леонид Гроховский, руководитель проекта «ТопЭксперт.РФ»
http://spaces.ru/files/?sid=78 ... 85666
Выяснил экспериментальным путем, что яндекс умеет отличать не только зеркала сайтов и сбрасывать по сути их в утиль, но он так же умеет отличать дубли страниц. Например одна и та же страница
/download/ и
/download/index.php доступна по разным адресам и это очень плохо в плане оптимизации. Так вот, яша эти дубли тоже в утиль пускает, он определяет один какой-то адрес и индексирует его, а дубли просто не попадают в индекс, при наборе дублей в поиске выдает "по вашему запросу ничего не найдено". Чего нельзя сказать к сожалению про другие поисковики. Гугл на один и тот же файл может выдать два или три адреса и все это в индексе
Kip-OK, Что нормально, дубли страниц? Это не хорошо.
то что яша дубли выкидывает. ибо действительно по запросу одну ссылку на каждый сайт лучше чем 10 на один
Kip-OK, а ну да, я про то же самое. Это хорошо что создатели яндекс-робота научили его разбираться в таких вещах как зеркала сайтов и дубли страниц и печально что до этого пока не дошли другие разработчики поисковиков.
гугл показал: Результатов: примерно 53 000 (0,10 сек.)
Это хорошо или как?