- 07, Aug 2017
- #1
У нас вы можете скачать бесплатно Netpeak Spider 1.0.13.2 .
Данный материал предоставлен исключительно в ознакомительных целях. Администрация не несет ответственности за его содержимое.
Netpeak Spider 1.0.13.2 предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота.
В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.
Гибкие настройки сканирования позволяют включать/отключать: учёт параметризованных и якорных ссылок, изображений и js-файлов, использование файла robots.txt при сканировании, добавление в таблицу страниц на поддоменах сканируемого сайта.
Список параметров, анализируемых программой
- URL – адрес страницы.
- Глубина – уровень расположения страницы относительно главной.
- LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
- Ответ – код состояния https в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
- Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
- Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
- Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
- robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
- MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
- Редиректы – количество перенаправлений со страницы.
- Заголовки (H1) – количество заголовков первого уровня.
- Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
- Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
- Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
- Внешние ссылки – количество ссылок с данной страницы на другие сайты.
- PR – расчёт внутреннего показателя PageRank текущей страницы.
- PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
- Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
- Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
- Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".
https://netpeaksoftware.com/ru/spider
Данный материал предоставлен исключительно в ознакомительных целях. Администрация не несет ответственности за его содержимое.
Netpeak Spider 1.0.13.2 предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота.
В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.
Гибкие настройки сканирования позволяют включать/отключать: учёт параметризованных и якорных ссылок, изображений и js-файлов, использование файла robots.txt при сканировании, добавление в таблицу страниц на поддоменах сканируемого сайта.
Список параметров, анализируемых программой
- URL – адрес страницы.
- Глубина – уровень расположения страницы относительно главной.
- LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
- Ответ – код состояния https в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
- Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
- Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
- Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
- robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
- MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
- Редиректы – количество перенаправлений со страницы.
- Заголовки (H1) – количество заголовков первого уровня.
- Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
- Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
- Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
- Внешние ссылки – количество ссылок с данной страницы на другие сайты.
- PR – расчёт внутреннего показателя PageRank текущей страницы.
- PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
- Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
- Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
- Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".
https://netpeaksoftware.com/ru/spider