#1
|
|||
|
|||
поисковые роботы сильно стали нагружать сайт. что делать?
Хостер говорит, что сайт начал создавать черезмерную нагрузку на сервер. Анализ IP выявил, что львиная часть запросов идет от гугла и яндекса. В связи с чем создали robots.txt и добавил туда:
User-agent: * Disallow: Crawl-delay: 10 Несколько дней было все в норме, сейчас опять нагрузка выросла с тех же IP. Что делать? 1. Оптимизировать работу скриптов, но как понять, есть ли сильнонагружающие и если есть, то как их искать? 2. Хостер предлагает взять более дорогой тариф или просто заблокировать заходы с IP поисковиков. Не хочется ни того, ни другого. 3. Может быть можно как-то еще тюнинговать robots.txt? |
#2
|
|||
|
|||
1. запустить копию сайта у себя на компьютере и запустить профайлинг под нагрузкой
2. это правильно 3. зависит от вашего сайта |