Webparser - Автоматический Парсер Контента

  • Автор темы mapleonline
  • 11
  • Обновлено
  • 02, Apr 2023
  • #1
Доброго времени суток! Как обычно: Если было на форуме - удалите Не тот раздел - перенесите Краткое описание: Создан для сбора статей, текстов, любого контента со сторонних сайтов, источников.

Встроенный уникализатор текста, повышает индексность поисковыми системами.

Для работы скрипта требуется только адрес(url) cайта, желаемый раздел или разделы и все, остальное делает скрипт, автоматически определяет контент и вытаскивает его, отделяя его от мусора.

Результат работы скрипта - готовые статьи для ваших сайтов, также возможен экспорт полученных статей в форматы: TXT, HTML, PHP

Не тратьте время на ручной сбор контента!

Скачать: Скрытая информация :: Авторизуйтесь для просмотра »
Скрытая информация :: Авторизуйтесь для просмотра »
Основной принцип:1. Вводите в скрипт url сайта со статьями. 2. Скрипт заходит на все страницы сайта и грузит оттуда статьи. 3. Скрипт сам отбрасывает мусор со страницы, оставляя только статью. Вы можете: 1. Указать с каких разделов сайта нужно парсить статьи.

2. Указать какие слова текст должен содержать (например, окна).

3. Указать минимальную длину текста.

4. Использовать автоопределение статьи (скрипт сам определит статью на странице), либо можете указать шаблон для парсинга (указываете между какими кусками кода страницы, должна находиться статья).

редактировать полученные статьи, как вручную, так и автоматически.

5. Использовать синонимайзер (база 308 000).

6. Исользовать экспорт полученных статей в txt, html, php.

7. Указывать максимальное количество статей

Настройка: В конфиг прописывается доступ к базе данных, а доступ в админку по умолчанию такой:
логин - admin
пароль - admin

mapleonline


Рег
10 Apr, 2020

Тем
1

Постов
1

Баллов
11
  • 08, Apr 2023
  • #2
Создан для сбора статей, текстов, любого контента со сторонних сайтов, источников.

Встроенный уникализатор текста, повышает индексность поисковыми системами.

Для работы скрипта требуется только адрес(url) cайта, желаемый раздел или разделы и все, остальное делает скрипт, автоматически определяет контент и вытаскивает его, отделяя его от мусора.

Результат работы скрипта - готовые статьи для ваших сайтов, также возможен экспорт полученных статей в форматы: TXT, HTML, PHP

Не тратьте время на ручной сбор контента!

Основной принцип:1. Вводите в скрипт url сайта со статьями. 2. Скрипт заходит на все страницы сайта и грузит оттуда статьи. 3. Скрипт сам отбрасывает мусор со страницы, оставляя только статью. Вы можете: 1. Указать с каких разделов сайта нужно парсить статьи.

2. Указать какие слова текст должен содержать (например, окна).

3. Указать минимальную длину текста.

4. Использовать автоопределение статьи (скрипт сам определит статью на странице), либо можете указать шаблон для парсинга (указываете между какими кусками кода страницы, должна находиться статья).

редактировать полученные статьи, как вручную, так и автоматически.

5. Использовать синонимайзер (база 308 000).

6. Исользовать экспорт полученных статей в txt, html, php.

7. Указывать максимальное количество статей

Вы можете экспортировать выбранные статьи: 1. ТХТ – в текстовый формат. Можете экспортировать в один текстовый файл или в несколько, по шаблону. 2. HTML – вы можете указать шаблон для экспорта, на выходе получите архив со страницами. 3. PHP – скрипт экспортирует все статьи в отдельные php страницы Работает локально на компьютере на денвере и на хостинге(сервере). В конфиг прописывается доступ к базе данных, а доступ в админку по умолчанию такой: логин - admin пароль - admin Скрытая информация :: Авторизуйтесь для просмотра »
 

Anyken


Рег
11 Apr, 2006

Тем
0

Постов
1

Баллов
1
Тем
49554
Комментарии
57426
Опыт
552966

Интересно