Fublin, я как-то смотрел выступление одного менеджера гугла, так он рассказывал почему они не собираются учить робота полностью исключать дубликаты страниц. Там очень много факторов которые могут отрицательно повлиять на индекацию в целом и к тому же это будет отличный подарок черным оптимизаторам, которые сумеют вытеснить, например своими методами, оригинальный сайт с оригинальным контентом.
Pillott, Почему будет дубликат? адрес статьи останется прежним.
Pillott, Но в итоге то всё равно они исключаются ?
И если значить сначала сайт получает пр, то в итоге через какое то время он "упадёт", затем снова поднимится и т.д ?
Жаль убирать просто
Leo, если выводить полную статью, то один и тот же текст будет на двух страницах, на главной и в библиотеке. Нужно как-то сообщать роботу что один текст индексировать обязательно, а второй нельзя.
Pillott (28.04.2012/16:25)
Leo, если выводить полную статью, то один и тот же текст будет на двух страницах, на главной и в библиотеке. Нужно как-то сообщать роботу что один текст индексировать обязательно, а второй нельзя.
Там не статья, там даже нет названия статьи, просто ссылка. А вот адресс рандомно в цикле уже.
Вот вроде и просто всё, а вот плохо это или хорошо не пойму
Fublin (28.04.2012/16:35)
Вчера сделал вывод случайной статьи из библы.
Fublin [Off] [о] [ц] (Сегодня, 19:35)
Там не статья, там даже нет названия статьи, просто ссылка. А вот адресс рандомно в цикле уже.
Вот вроде и
Ну так ты обьясняй нормально что ты делал - вывод случайной статьи или вывод случайной ссылки на статью. Это разные вещи
Если просто случайная ссылка на статью, то всё нормально там будет.