Сообщение # 1 | 15:31:34
В последнее время значительно увеличилось число загруженных страниц на всех сайта (связываю это с обновлением формата файла Robots.txt). Например, на одном из сайтов 5426 загруженных и 1328 в поиске. „Излишки“ исключены поисковым роботом, так как они запрещены в файле Robots.txt. 99,9% исключенных страниц – это /search/ , формируемые при переходе по тегу.

Как это повлияет на позиции сайта и надо ли что-то делать, чтобы исправить ситуацию?

P.S. В Google всё нормально!