Индексация форума

960
.
Sergafan (27.11.2010/14:44)
Установил карту форума на главную, через 2 дня весь форум проиндексировало... и сайт улетел в сопли гугла.
Ну а что ты хотел?
вот примерно попало у тебя 5000 страниц в индекс за год существования , поставил ты карту и за 2 дня в индекс еще 50000 попадает, ну в google не дураки же, от куда такая активность на сайте, явно что то не чистое? вот и упал твой сайт. по-этому карту ставить лучше на новые сайт.
.
нy a здecь пoчeмy тoгдa нopм вce пpoшлo?
.
dakilla, Потому что этому сайту уже 4 года если не ошибаюсь, у него пр 2 вроде, да и тута круглосуточное обновление идет, то есть постоянно на форуме пишут.
И гугл это понимает.
.
RuTrek, нeт нy здecь пpocтo вышe ckaзaли чтo kapтy нaдo cтaвить нa нoвыe caйты, нo этoт жe cтapый и тyт вcё нopм пpoшлo
.
╭∩╮ (`-`) ╭∩╮
RuTrek (02.12.2010/13:58)
dakilla, Потому что этому сайту уже 4 года если не ошибаюсь, у него пр 2 вроде
Не, PR 4
.
AlkatraZ
╭∩╮ (`-`) ╭∩╮
Дело абсолютно не в том, КОГДА вы поставите карту и поставите ли ее вообще?
К примеру, летом у нас был казус, PR вообще упал до 0.
Мы в админке совещались по этому поводу.
Потом, я запретил продавать прямые ссылки в рекламе и при следующем апдейте (гугловском), PR опять восстановился до 4.
---
Хотя, честно говоря я не уверен, что это было из-за внешних ссылок. да. когда их много, поисковики могут пустить в пессимизацию, но у нас их было мало...
Хотя, ХЗ... Может поисковики проводят сравнение, общее к-во текста / число внешних ссылок и если процент последних выше какого-то порога, банят.
На ВАП сайтах обычно страницы небольшие и посему, число внешних ссылок может явно сказаться на пузомерках.
З.Ы.
Даже в Сапе рекомендуют продавать не более 2-х ссылок со страницы, иначе могут быть санкции со стороны поисковиков.
.
dakilla (02.12.2010/12:07)
нy a здecь пoчeмy тoгдa нopм вce пpoшлo?
Кто тебе об этом сказал? Данный сайт тоже в соплях. В дополнительнов индексе аж более 60000 тысяч страниц, а в основном всего 250
Вот фильтры под которые сайт может попасть. (пункт 13 почитай. Как раз к данному моменту относится)
1. "Песочница". Обычно применяется к новым сайтам, появившимся в течении последнего года. Благодаря этому фильтру страницы не попадают в результаты поиска по высококонкурентным фразам, хотя по редким фразам сайт может присутствовать в выдаче. Гугль использует систему называемую "степень доверия", в основе которой авторитетность сайтов, ссылающихся на ваш новый сайт. Для того, чтобы поскорее выбраться из песочницы необходимо заиметь побольше таких авторитетных ссылок. Это нелегко, а иногда и практически невозможно. Тогда можно попробовать расширить контент сайта, чтобы взять не качеством а количеством на редких фразах.
2. "-30". Этот фильтр применяется гуглем к сайтам, которые используют черные методы, такие как дорвеи и редиректы при помощи javascript. Когда гугль обнаруживает такое на вашем сайте, то ваш сайт понижается на 30 позиций. Чтобы обойти этот фильтр, как правило, достаточно убрать редирект.
3. "Bombing". Применяется к сайтам, которые имеют большое количество входящих ссылок с одним и тем же текстом. Гугль справедливо полагает, что это неестественно, что везде текст ссылки один и тот же. Если гугль уже применил этот фильтр, то наверное лучше всего будет написать запрос на повторное включение сайта. Если вы опасаетесь, что этот фильтр вот-вот будет применен к вашему сайту, то можно попросить людей изменить ссылки на вас или купить несколько ссылок с разнообразным текстом.
4. "Дублирующийся контент". Фильтр применяется к сайтам, которые используют заимствованный контент, который уже публиковался на других сайтах. В случае применения этого фильтра к сайту, сайт обесценивается и если он не имеет достаточное количество весомых входящих ссылок, то ваш сайт попадает в "опущенные результаты", которые выдаются пользователю только если он нажмет на одноименную ссылку на последней странице. Главные действия по преодолению этого фильтра должны быть направлены на удаление дублирующегося контента. Напишите письма тем, кто воспользовался вашим контентом, с требованием убрать ваш контент, напишите их хостерам, пожалуйтесь гуглю в конце концов.
5. "Дополнительные результаты". Гугль может проиндексировать ваши страницы и поместить их в под-индекс. Страницы помещенные туда не считаются гуглем достойными, но они используются в случаях, когда у гугля недостаточно хороших страниц для запроса. Чтобы избежать этого фильтра обычно достаточно нескольких входящих ссылок.
6. "Возраст домена". Этот фильтр тесно связан с "песочницей". В его основе лежит предположение, что более старые домены имеют больше доверия, чем только что появившиеся. Повлиять тут на что либо трудно, поправить ситуацию могут ссылки с авторитетных сайтов. Можно еще перекупать старые домены.
7. "Опущенные результаты". Страницы вашего сайта могут попадать в опущенные результаты поиска и будут показаны только если пользователь долистает до последней страницы и нажмет одноименную ссылку, что крайне маловероятно, т.е. фактически ваши страницы выпадают из поиска. Причины попадания туда - недостаток входящих ссылок, дублирующийся контент, дублирующиеся заголовки страниц и метатеги, а также слабая внутренняя перелинковка страниц. Чтобы исправить ситуацию измените метатеги и заголовки страниц, исправьте дублирующийся контент и добавьте внешних ссылок.
8. "Степень доверия". Подобно PR(PageRank) степень доверия (Google Trust Rank) имеет множество влияющих факторов. Из известных факторов можно отметить возраст сайта, количество авторитетных входящих ссылок, количество исходящих ссылок, качество внутренней перелинковки. Все сайты проходят через этот фильтр и если ваш Trust Rank низкий, то это неативно повляет на ваши позиции в результатах поиска. Как новый так и старый сайт могут иметь одинаково высокий или низкий Trust Rank. Для того чтобы его повысить оптимизируйте остальные известные факторы, влияющие на степень доверия.
9. "links.htm". Этот фильтр наказывает сайты, которые были замечены во взаимном обмене ссылками. Обмен ссылками - эта старый способ повысить позицию в гугле, который не поощряется гуглем. Вместо использования links попробуйте назвать страницу по-другому, например coolsites. Взаимный обмен ссылками теперь не так эффективен как когда-то, возможно стоит и вообще отказаться от этой практики.
10. "Ссылочные фермы". Ссылочные фермы - это сайты (или страницы), которые содержат огромное количество ссылок, как правило совершенно различной тематики, перелинкованные между собой беспорядочно. Участие в подобной ферме может сильно понизить позиции сайта или вообще сайт может быть забанен. Способ борьбы с этим явлением только один - не участвовать в таких махинациях.
11. "Социтирование". Этот фильтр анализирует структуру внешних ссылок на ваш сайт. Если рядом со ссылками на ваш сайт находятся ссылки на порно и онлайновые казино, то гугль посчитает, что ваш сайт тоже связан с порно и казино. Это может повредить действительной теме сайта и он будет понижен по релевантным этой теме фразам. Для того чтобы этого не произошло нужно тщательно проверять места, где вы покупаете ссылки.
12. "Много ссылок сразу". Этот фильтр блокирует сайт когда у него слишком быстро растет число внешних ссылок. Это может привести к полному бану сайта всеми поисковиками. Чтобы этого не произошло следует осторожно покупать ссылки и не использовать ссылочный спам.
13. "Много страниц сразу". Суть фильтра в том, что нормальный сайт не может разрастаться слишком быстро и если у какого-то сайта число страниц увеличивается крайне быстро, то это скорее всего искусственно сгенерированный контент не достойный внимания поисковика. Некоторые считают что 5000 страниц в месяц - это предел, однако многие полагают, что эта цифра может зависеть от различных факторов. Результатом работы этого фильтра может быть помещение страницы в "опущенные результаты", а иногда в особо тяжелых случая к полному бану сайта. Если ваш сайт берет контент из открытых источников или динамически формарует страницы следите за тем, чтобы число новых страниц не превышало 5000 в месяц чтобы не попасть под действие этого фильтра. В зависимости от того насколько большой и известный у вас сайт эта цифра может варьироваться, но в любом случае стоит помнить об этом фильтре и не увлекаться созданием новых урлов.
14. "Битые ссылки". Битые внутренние ссылки приводят к тому что поисковый бот не может получить содержимое страницы, и соответственно закешировать ее и поместить в индекс. Если ваша главная страница не имеет ссылок со всех других страниц вашего сайта это может плохо сказаться на результатах поиска и на общих показателях качества вашего сайта наподобие PR. Это не только плохо с точки зрения SEO и с точки зрения дизайна сайта. Это также плохо для ваших посетителей, что может привести к снижению трафика и плохим позициям в поисковиках. Убедитесь, что у вашего сайта правильный нижний колонтитул, что карта сайта содержит все ваши страницы и проверьте свой сайт на наличие битых ссылок.
15. "Время загрузки". Этот фильтр очень прост. Если поисковый бот гугля не дождется страницы в течение определенного времени, он ее попросту пропустит. Это приведет к тому, что страница не будет кеширована и не попадет в индекс. Такие страницы никогда не попадут в результаты поиска Google. Поэтому убедитесь, что ваши страницы не слишком огромные и грузятся достаточно быстро.
16. "Чрезмерная оптимизация". Под действие этого фильтра могут попасть сайты напичканные ключевыми фразами, со слишком высокой плотностью ключевиков, со слишком близким расположением ключевых слов, с перегруженными мета-тегами. Рекомендация лишь одна - не переборщите с оптимизацией своего сайта.
.
3. "Bombing". Применяется к сайтам, которые имеют большое количество входящих ссылок с одним и тем же текстом. Гугль справедливо полагает, что это неестественно, что везде текст ссылки один и тот же. Если гугль уже применил этот фильтр, то наверное лучше всего будет написать запрос на повторное включение сайта. Если вы опасаетесь, что этот фильтр вот-вот будет применен к вашему сайту, то можно попросить людей изменить ссылки на вас или купить несколько ссылок с разнообразным текстом.

тогда получается что копирайт этого сайта который стоит на многих сайтах с одинаковым текстом, не повышает ему тиц и пр, а наоборот топит его в позициях выдачи?
.
dakilla (03.12.2010/10:37)
тогда получается что копирайт этого сайта который стоит на многих сайтах с одинаковым текстом, не повышает ему тиц и пр, а наоборот топит его в позициях выдачи?
Нет! просто вес таких ссылок гораздо ниже, чем с разными названиями. либо поисковик может их вообще склеить и считать за одну.
.
Krite, всё равно это хуже наверное чем если бы они имели разное название
Всего: 52