Netpeak Spider

  • Автор темы ViNand
  • 595
  • Обновлено
  • 13, Apr 2019
  • #1


Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.
  • сканирование сайтов и выгрузка основных SEO-параметров страниц с помощью собственного робота;
  • поиск ошибок, битых ссылок, неправильных редиректов, дубликатов title, description, keywords и т.д.;
  • анализ входящих и исходящих внутренних ссылок для каждой страницы сайта;
  • расчёт внутреннего PageRank;
  • гибкие настройки сканирования и экспорт данных в формате Excel;
  • всё это бесплатно!


Цитата Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота.

В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel. Гибкие настройки сканирования позволяют включать/отключать:
  • учёт параметризованных и якорных ссылок, изображений и js-файлов;
  • использование файла robots.txt при сканировании;
  • добавление в таблицу страниц на поддоменах сканируемого сайта.


Список параметров страниц, анализируемых программой «Netpeak Spider»:

URL – адрес страницы.

Глубина – уровень расположения страницы относительно главной.

LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.

Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).

Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.

Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.

Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.

robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.

MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.

Редиректы – количество перенаправлений со страницы.

Заголовки (H1) – количество заголовков первого уровня.

Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.

Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.

Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.

Внешние ссылки – количество ссылок с данной страницы на другие сайты.

PR – расчёт внутреннего показателя PageRank текущей страницы.

PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.

Дубли по Title – определяются группы страниц с дублирующимся тегом "title".

Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".

Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".

Скачать:

Скрытая информация :: Авторизуйтесь для просмотра »

ViNand


Рег
29 Apr, 2012

Тем
11013

Постов
15292

Баллов
125422
  • 20, Apr 2023
  • #2

Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.

  • сканирование сайтов и выгрузка основных SEO-параметров страниц с помощью собственного робота;
  • поиск ошибок, битых ссылок, неправильных редиректов, дубликатов title, description, keywords и т.д.;
  • анализ входящих и исходящих внутренних ссылок для каждой страницы сайта;
  • расчёт внутреннего PageRank;
  • гибкие настройки сканирования и экспорт данных в формате Excel;
  • всё это бесплатно!


Цитата

Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота. В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.

Гибкие настройки сканирования позволяют включать/отключать:

  • учёт параметризованных и якорных ссылок, изображений и js-файлов;
  • использование файла robots.txt при сканировании;
  • добавление в таблицу страниц на поддоменах сканируемого сайта.


Список параметров страниц, анализируемых программой «Netpeak Spider»:

URL – адрес страницы.
Глубина – уровень расположения страницы относительно главной.
LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
Редиректы – количество перенаправлений со страницы.
Заголовки (H1) – количество заголовков первого уровня.
Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
Внешние ссылки – количество ссылок с данной страницы на другие сайты.
PR – расчёт внутреннего показателя PageRank текущей страницы.
PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".

Скачать:

 

49gennady1


Рег
28 Nov, 2019

Тем
0

Постов
1

Баллов
1
Тем
49554
Комментарии
57426
Опыт
552966

Интересно