»  Главная страница »  Новости web-строительства и SEO » 


Новости WEB-строительства и SEO

17.08.2007

Внесены изменения в работу инструмента анализирующего файла robots.txt

Google Webmaster Central Blog сообщает о внесении изменений в работу инструмента анализирующего файлы robots.txt. Благодаря обновлению функционала, теперь распознаются все форматы карт сайта и соответствующие URL`ы. Инструмент будет проверять состояние URL`а карты сайта и представлять данные о соответствующих URL`ах.

В дополнении, появилась функция, которая позволяет запретить индексацию картинок сайта, бот проиндексит весь сайт кроме папки с изображениями. Помимо этого Google расширил предоставляемую отчетность, теперь она включает данные о всех случавшихся проблемах, а не о первой как было раньше. 

Напомним, некоторое время назад Google внес изменения в стандарте REP (Robots Exclusion Protocol), протоколе исключения роботов, используемый файлами Robots.txt для googlebot. Были представлены новые META-теги роботов: unavailable_after и X-Robots-Tag, сообщается в официальном блоге компании.



Все новости за 17.08.2007 »




Текст авторов может не совпадать с нашим мнением и публикуется как есть.

Календарь новостей

 
Пн Вт Ср Чт Пт Сб Вс
29 30 1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31 1 2
все новости »   



Новости интернет в сфере web-дизайна, SEO (оптимизации и продвижения сайтов), аналитика, анонсы статей, новости IT-компаний.


Платное размещение