если бы это все работало на 100%, то мне не пришлось бы вообще об этом думать, то есть у меня даже повода не было бы.
однако, оно работает не идеально. про проверять емейлы, я не говорил вручную, я просто создаю черный список доменов.
на счет пустых юзерагентов ты ошибаешься, от 5 до 50 в сутки система лочит у меня, а это всего 1 сайт, с довольно скромной посещалкой.
т.е. я на бога то надеюсь, но свою голову предпочитаю все таки включать.
если плохой запрос не пробьется на сайт - хорошо. если пробьется - ему еще придется через мой фильтр пройти.
при этом не используется каких то сложных и ресурсоемких операций, так что сайт от этого не страдает.
а я не страдаю от чистки логов, каких то сбоев, или еще чего.
что бы было понятнее, мой сайт раз в 10 тяжелее джона, почти все динамическое, постоянно запросы к серверу, бд, и т.д. я конечно кеширую и в целом скорость до 0.02с меня устраивает вполне, тем не менее, я расчитываю что сайт будет расти, и нагрузка будет возрастать, по этому сразу отсеиваю то что может мешать этому.
например, залочен запрос к админке вп. он ни как не угрожает сайту, он просто потребляет ресурсы как и любой другой запрос на который надо сгенерировать страницу.
зачем? если я могу просто парой строк отсеять этот мусорный трафик?
это не критично, но мне не сложно, а результат он есть. по сути экономия небольшая, но это же только часть комплекса.
точно такая же, как твое желание кешировать запросы к бд, я по возможности стараюсь избавить бд от запросов вообще, если они не нужны (боты)
а ботов много, поверь. просмотри логи доступа. достаточно отфильтровать по запросам