Robots.txt 1.1

Robots.txt 1.1 является качественным редактором для стандартных файлов по управлению пауками поисковиков. Редактор Robots.txt представляет собой программу по контролю над тем, каким образом поисковые агенты-пауки осуществляют просмотр вашего веб-сайта, а также добавляют о нем информацию в базу данных поисковых систем. Данный редактор оснащён всем необходимым для управления и контроля визитов пауков поисковиков, которые осуществляют индексацию вашего веб-сайта. Отличием от аналогичных программ является встроенный редактор для стандартизированных файлов по контролю пауков поисковиков.

Возможности Robots.txt:

  • возможность визуальной генерации файлов;
  • возможность проводить идентификацию нежелательных роботов, а также устанавливать им запрет на доступ к сайту;
  • возможность направления поисковых роботов к конкретным страницам многоязычных сайтов;
  • возможность использования файлов созданных программой для удобного управления doorway-страницами.

Преимущества:

  • возможность не допустить роботов к системным областям сайта;
  • возможность загрузить правильно отформатированный файл программы прямо на FTP-сервер из редактора robots.txt;
  • возможность отслеживания посещения роботов;
  • возможность создания отчетов в форматах XML, HTML или Microsoft Excel CSV, касающихся посещений роботов.

Смотрите также программы:
Page Promoter Platinum
Site-Auditor
WebDirector
MagicLinkManager
SiteSputnik

Robots.txt
Официальный источник http://net-promoter.com/
Для ОС Windows Vista, XP
Размер дистрибутива 2,8 Мб
Язык интерфейса Русский
Программа Условно-бесплатная | $99.00
Обновлено 2012/02/24
Последняя версия 1.1