Вернуться   SEO форум - оптимизация и продвижение сайтов > SEO инструменты > Софт оптимизатора, SEO утилиты

Важная информация
Софт оптимизатора, SEO утилиты - Программы - создание, оптимизация, раскрутка и продвижение сайта. Софт для вКонтакте, Twitter, Facebook...

Ответ
 
Опции темы Оценить тему Опции просмотра
Старый 10.01.2018, 16:53   #1
 
Аватар для A-Parser Support
 
Сообщений: 13
FR (активность): 769

Доп. информация
По умолчанию Автор темы A-Parser - многопоточный парсер поисковых систем

A-Parser - многопоточный парсер поисковых систем, сервисов оценки сайтов, ключевых слов, контента(текст, ссылки, email, телефоны, произвольные данные) и других различных сервисов(youtube, картинки, переводчик...), всего A-Parser содержит более 70 парсеров

На сегодняшний день A-Parser развился в невероятный SEO комбаин, позволяющий покрыть огромное число задач для SEO-специалистов и вебмастеров любого уровня подготовки:
  • Используйте встроенные парсеры чтобы с легкостью получать и анализировать любые данные
  • Воспользуйтесь нашим каталогом парсеров и пресетов для расширения возможностей A-Parser и решения нестандартных задач
  • Если вы продвинутый пользователь - создавайте свои собственные парсеры на основе регулярных выражений или XPath
  • Владеете JavaScript? Тогда A-Parser предлагает вам беспрецедентную возможность программировать свои собственные парсеры, используя всю мощь возможностей A-Parser!
  • Для автоматизации мы предлагаем API позволяющий легко встроить A-Parser в ваши бизнес процессы, а также для создания сервисов любого уровня сложности на базе нашего парсера


Кроме этого мы предоставляем услуги по составлению заданий и написанию парсеров под ваши задачи, в кратчайшие сроки и по демократичной цене. Хотите спарсить целиком интернет магазин(Ozon, Amazon, AliExpress)? Проверить 100 миллионов сайтов по вашим признакам? Получить данные с любого сайта в структурированном виде(CSV, JSON, XML, SQL)? В решении этих задач поможет наша дополнительная платная поддержка

A-Parser полностью решает рутинные задачи по получению, обработки и систематизации данных, необходимых для работы в следующих областях:
  • SEO-оптимизация сайтов и Web-аналитика
    • Сбор баз ссылок для XRumer, A-Poster, AllSubmitter, ZennoPoster...
    • Оценка сайтов и доменов по множеству параметров
    • Мониторинг позиции любых сайтов в поисковых системах
    • Сбор контента(текст, картинки, ролики) для генерации сайтов(дорвеев)
    • Отслеживание обратных ссылок
    • Сбор произвольной информации с любых сайтов(например телефоны/e-mails, сообщения с форумов, объявления...)
    • Сбор и оценка ключевых слов
    • Сбор списка обратных ссылок
    • И многое другое
  • Web-безопасность
    • Сбор и фильтрация баз ссылок по признакам
    • Определение CMS сайтов
    • Формирование произвольных GET, POST запросов с одновременной фильтрацией ответа
  • Сетевое администрирование
    • Работа с DNS службой - резолвинг доменов в IP адреса
    • Работа с Whois - дата регистрации и окончания регистрации доменов, name-cервера

A-Parser обладает следующими преимуществами:
  • Колоссальная производительность
    • Многопоточность - парсер способен распараллеливать сетевые операции до 5000-10000 потоков в зависимости от конфигурации компьютера и решаемой задачи
    • Продуманная внутренняя архитектура, в которую заложена производительность и расширяемость
    • Множественные оптимизации сложных операций
    • Парсер не требователен к ресурсам, может работать как на компьютере, так и на VDS или сервере, на операционных системах Windows, Linux или FreeBSD
  • Промышленные масштабы
    • Парсер разрабатывался с учетом работы с неограниченным размером данных
    • Способен обрабатывать сотни миллионов и миллиардов запросов
    • Размеры файлов запросов и результатов ничем не ограничены и могут достигать терабайтных значений
  • Автономность
    • A-Parser рассчитан на бесперебойную и беспрерывную работу без участия пользователя
    • Очередь заданий позволяет нагрузить парсер работой на недели и месяцы вперед
    • Одновременное выполнение нескольких разных задач для скорейшего получения результатов
  • Поддержка более 70 парсеров
  • Создание собственных пресетов
    • Использование регулярных выражений
    • Поддержка XPath
    • Поддержка многостраничного парсинга
    • Проверка контента и наличия следующей страницы
  • Создание собственных парсеров
    • Быстрая разработка на JavaScript
    • Многопоточность и работу с прокси обеспечивает A-Parser
  • Распознавание каптчи
    • Поддержка множества сервисов: антигейт, cheap-captcha.com, rucaptcha.com и любых других на основе AntiGate API
    • Поддержка CapMonster и XEvil
  • Мощные инструменты для формирования запросов и результатов
    • Конструктор запросов и результатов - позволяет видоизменять данные(поиск и замена, выделение домена из ссылки, преобразования по регулярным выражениям...)
    • Подстановки для запросов: из файла; перебор слов, символов и цифр
    • Фильтрация результатов - по вхождению подстроки, равенству, больше\меньше
    • Уникализация результатов - по строке, по домену, по главному домену(A-Parser знает все домены верхнего уровня, в т.ч. такие как co.uk, msk.ru)
    • Мощный шаблонизатор результатов на основе Template Toolkit - позволяет выводить результаты в любом удобном виде(текстом, csv, html, xml, json, sql, произвольный формат)
  • Гибкость настроек
    • В парсере используется система пресетов - для каждого парсера можно создать множество предустановленных настроек для различных ситуаций
    • Настроить можно все - никаких рамок и ограничений
    • Экспорт и импорт настроек позволяет легко обмениваться опытом с другими пользователями
  • Сетевые возможности
    • Поддержка HTTP/1.1, HTTP/2 и HTTPS(TLS)
    • Поддержка HTTP и SOCKS5 прокси, в т.ч. с авторизацией
    • Полностью асинхронная работа с сетью, включая работу с DNS
  • API
    • Возможность интегрировать и управлять парсером из своих программ и скриптов
    • Полная автоматизация бизнес-процессов
    • Клиенты для PHP, Perl, Python и NodeJS
  • Постоянные улучшения и исправления
    • Разработка парсера началась в 2011 году, а первый релиз вышел зимой 2012 года
    • С тех пор было выпущено более 100 новых версий, включающих множество улучшений и исправлений
    • A-Parser не останавливается в развитии, идет активная разработка, будет реализовано множество новых функций, в т.ч. по запросам от пользователей
  • Техническая поддержка
    • Мы прилагаем все усилия по поддержке пользователей и ответам на все возникающие вопросы
    • Создана подробная документация по A-Parser'у, открыт форум для пользователей
    • Специалист технической поддержки готов ответить любым удобным способом: ICQ, Skype, Jabber, GoogleTalk, e-mail и через форму онлайн связи на сайте
    • Разработчики A-Parser'а готовы ответить на любые сложные и технические вопросы, также открыт к обсуждению улучшений и дополнений для парсера
Более подробно ознакомится с возможностями парсера можно в полноценной документации

A-Parser предоставляется в трех версиях, сравнительная таблица и стоимость лицензий:



Мы принимаем к оплате в автоматическом режиме все популярные платежные системы, такие как Bitcoin, WebMoney, PayPal, Visa, MasterCard, Paxum, Яндекс.Деньги, QIWI, PerfectMoney, банковские переводы, терминалы оплаты и многое другое.
Для приобретения лицензии необходимо зарегистрироваться на сайте https://a-parser.com и перейти на страницу оплаты.
Если у вас возникли вопросы - обращайтесь по любым контактам в техническую поддержку

Сообщение добавлено 24.01.2018 в 11:02

1.2.78 - поддержка сессий в JS парсерах, улучшение SE::Google::Modern, правки в интерфейсе



Улучшения
  • Добавлена поддержка сессий в JavaScript парсерах
  • В SE::Google::Modern добавлена поддержка сессий и улучшена производительность за счет уменьшения частоты появления каптч/рекаптч
  • Добавлена переменная $query.prev - показывает запрос, который использовался на предыдущем уровне
  • Для JS парсеров добавлен метод this.logger.putHTML, который позволяет вывести в лог HTML код
  • В Lite версию добавленSE::Google::Modern и Util::ReCaptcha2
  • В x86 версиях добавлено предложение перейти на x64
  • Добавлена возможность переименовывания пресетов
  • В окне выбора пресета для папок реализована "память на сворачивание"
  • Изменены иконки для JS парсеров
  • Исправлены ошибки с переводом в интерфейсе
  • Исправлено отображение HTML тегов в логах
  • Исправлен баг при импорте с вложенным парсером
  • Исправлен баг с прокруткой при сохранении JS парсеров и пресетов
  • Доработан Конструктор регулярных выражений
  • Другие мелкие правки в интерфейсе, направленные на улучшение общей работы

Исправления в связи с изменениями в выдаче
  • В SE::Google::Modern исправлен парсинг сниппетов и рекламы, а также мобильной выдачи
  • В SE::Google::Suggest исправлен парсинг подсказок, а также добавлена опция Remove HTML tags, позволяющая получать подсказки с или без html тегов
  • Исправлен парсинг анкоров и сниппетов в SE :: DuckDuckGo
  • SE::Ask, SE :: Dogpile, Rank::Mustat

Исправления
  • Исправлен баг с перемещением заданий в очереди
  • В SE::Google::Modern исправлен баг с кодировкой
  • Исправлена работа параметров Request delay и Extra query string во всех JS парсерах
  • Исправлен выбор файлов запросов
  • Исправлено отображение иконок для JS парсеров


Сообщение добавлено 03.02.2018 в 18:29

Видео урок: Создание JS парсеров. Получение результатов от стандартного парсера

Это видео начинает цикл уроков по созданию JavaScript парсеров. Здесь рассказано о том, как начать писать собственные парсеры, используя функционал JS парсеров в А-Парсере.


В уроке рассмотрено:
  • Создание кастомного JS парсера
  • Использование встроенного парсера внутри JS парсера
  • Парсинг выдачи поисковой системы с фильтрацией результатов по заданному условию
Полезные ссылки:
  • https://learn.javascript.ru/generator
  • https://developer.mozilla.org/ru/doc...and_Generators
  • https://developer.mozilla.org/ru/doc...perators/yield
Статья и готовый парсер: https://a-parser.com/resources/254/

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 14.02.2018 в 10:38

Видео урок: Создание JS парсеров. Парсинг сайта с проходом по страницах

Второе видео в цикле уроков по созданию JavaScript парсеров. Здесь рассказано о том, как написать несложный парсер сайта, который будет "листать" страницы, используя функционал JS парсеров в А-Парсере.


В уроке рассмотрено:
  • Создание кастомного JavaScript парсера без использования встроенных парсеров
  • Парсинг контента сайта постранично с использованием регулярных выражений
  • Реализация прохода по страницам ("пагинации") в JS парсере
Статья и готовый парсер: https://a-parser.com/resources/255/

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 23.02.2018 в 14:17

1.2.138 - поддержка Node.js модулей, обработка ReCaptcha2 во всех парсерах Google, парсер AliExpress



В A-Parser 1.2.138 добавлена эмуляция node версии 8.9.x с поддержкой загрузки модулей и частичной реализацией fs и net модулей. Это дает возможность обращаться из JavaScript парсеров напрямую к файловой системе, а также использовать подключение по TCP из модулей к другим сервисам(например mysql, redis, chrome...).

Все это позволило загружать и использовать node модули из каталога npm, в котором собраны множество полезных библиотек для обработки данных, коннекторы к базам данных и множество других интересных вещей. На данный момент протестированы следующие модули: md5, async-redis, jsdom, puppeter.

Улучшения
  • Добавлена поддержка Node.js модулей в JavaScript парсерах
  • SE::Google:osition, SE::Google::Compromised и SE::Google::TrustCheck полностью переписаны, добавлена поддержка ReCaptcha2
  • Улучшена работы SE::Google::Modern в целом
  • В SE::Youtube добавлен выбор языка, а также реализована возможность включать/отключать Безопасный режим
  • Добавлен Shop::AliExpress
  • Улучшена проверка создаваемых переменных в пресетах
  • Улучшена работа сессий
  • Исправлено отображение имени файла запроса на карточке задания
  • Улучшена работа скрола в Тестовом парсинге
  • Добавлено удаление переносов из сниппетов в SE::Google::Modern
  • Картинка каптчи в парсере SE::Yandex::Register теперь скачивается через прокси
  • Множество мелких улучшений в интерфейсе
Исправления в связи с изменениями в выдаче
  • Исправлена работа SE::Youtube при переопределении опции Result type
  • Исправлен многостраничный парсинг в SE::Bing
  • Полностью переписан SE::Yandex::Register, добавлена возможность выводить ответ на секретный вопрос
  • Исправлена проверка следующей страницы в SE::Seznam
  • Устранена ситуация, когда в SE::Yandex:osition парсилась неполная ссылка
  • Исправлен подсчет неудачных запросов в SE::Google::TrustCheck и SE::Google::Compromised
  • SE::Yandex::Direct, Shop::Yandex::Market
Исправления
  • Исправлена работа Конструктора регулярных выражений
  • Исправлена работа с кодировками в парсерах переводчиков и JS парсерах
  • Исправлена работа SE::Google:osition
  • Исправлен выбор региона в SE::Yandex::Direct
  • Исправлена работа опции Location в SE::Google::Modern
  • Исправлена работа сессий в SE::Google::Modern при переопределенном домене
  • Исправлена ошибка при совместном использовании опций Перезаписи файла, Начального и Конечного текстов
  • Исправлено отображение вкладок в Тесте задания
  • Исправлено отображение списка пресетов в поле Запустить по завершению
  • Исправлена работа this.proxy.set в JS парсерах
  • Исправлена передача дополнительных параметров в JS парсерах
  • Исправлена ошибка, из-за которой через API нельзя было указать Начальный и Конечный тексты
  • Исправлен экспорт пресетов


Сообщение добавлено 23.02.2018 в 14:19

1.2.138 - поддержка Node.js модулей, обработка ReCaptcha2 во всех парсерах Google, парсер AliExpress



В A-Parser 1.2.138 добавлена эмуляция node версии 8.9.x с поддержкой загрузки модулей и частичной реализацией fs и net модулей. Это дает возможность обращаться из JavaScript парсеров напрямую к файловой системе, а также использовать подключение по TCP из модулей к другим сервисам(например mysql, redis, chrome...).

Все это позволило загружать и использовать node модули из каталога npm, в котором собраны множество полезных библиотек для обработки данных, коннекторы к базам данных и множество других интересных вещей. На данный момент протестированы следующие модули: md5, async-redis, jsdom, puppeter.

Улучшения
  • Добавлена поддержка Node.js модулей в JavaScript парсерах
  • SE::Google:osition, SE::Google::Compromised и SE::Google::TrustCheck полностью переписаны, добавлена поддержка ReCaptcha2
  • Улучшена работы SE::Google::Modern в целом
  • В SE::Youtube добавлен выбор языка, а также реализована возможность включать/отключать Безопасный режим
  • Добавлен Shop::AliExpress
  • Улучшена проверка создаваемых переменных в пресетах
  • Улучшена работа сессий
  • Исправлено отображение имени файла запроса на карточке задания
  • Улучшена работа скрола в Тестовом парсинге
  • Добавлено удаление переносов из сниппетов в SE::Google::Modern
  • Картинка каптчи в парсере SE::Yandex::Register теперь скачивается через прокси
  • Множество мелких улучшений в интерфейсе
Исправления в связи с изменениями в выдаче
  • Исправлена работа SE::Youtube при переопределении опции Result type
  • Исправлен многостраничный парсинг в SE::Bing
  • Полностью переписан SE::Yandex::Register, добавлена возможность выводить ответ на секретный вопрос
  • Исправлена проверка следующей страницы в SE::Seznam
  • Устранена ситуация, когда в SE::Yandex:osition парсилась неполная ссылка
  • Исправлен подсчет неудачных запросов в SE::Google::TrustCheck и SE::Google::Compromised
  • SE::Yandex::Direct, Shop::Yandex::Market
Исправления
  • Исправлена работа Конструктора регулярных выражений
  • Исправлена работа с кодировками в парсерах переводчиков и JS парсерах
  • Исправлена работа SE::Google:osition
  • Исправлен выбор региона в SE::Yandex::Direct
  • Исправлена работа опции Location в SE::Google::Modern
  • Исправлена работа сессий в SE::Google::Modern при переопределенном домене
  • Исправлена ошибка при совместном использовании опций Перезаписи файла, Начального и Конечного текстов
  • Исправлено отображение вкладок в Тесте задания
  • Исправлено отображение списка пресетов в поле Запустить по завершению
  • Исправлена работа this.proxy.set в JS парсерах
  • Исправлена передача дополнительных параметров в JS парсерах
  • Исправлена ошибка, из-за которой через API нельзя было указать Начальный и Конечный тексты
  • Исправлен экспорт пресетов


Сообщение добавлено 06.03.2018 в 10:30

Использование Xevil совместно A-Parser для разгадывания ReCaptcha2



Как известно, сейчас Google при парсинге очень часто выдает рекаптчу, что значительно усложняет и замедляет сбор данных.
В A-Parser есть возможность обходить данную проблему, разгадывая рекаптчу с помощью сторонних сервисов. Поддерживаются различные онлайн сервисы, а также программные решения.

Одним из таких решений есть XEvil. Его использование дает хороший прирост в скорости, а также значительно удешевляет парсинг, ведь здесь нету оплаты за количество разгаданных каптч/рекаптч, как в онлайн сервисах. Кроме этого, XEvil умеет разгадывать практически любые обычные каптчи (в виде картинки) и данная возможность также поддерживается в A-Parser.



На данный момент использовать разгадывание рекаптчи с помощью XEvil можно в таких парсерах:
  • SE::Google::Modern
  • SE::Google:osition
  • SE::Google::TrustCheck
  • SE::Google::Compromised
  • Rank::MegaIndex
  • а также любые кастомные JavaScript парсеры

В видео показано:
  • подключение Xevil к A-Parser для работы с ReCaptcha2
  • проверка работы и демонстрация работы в SE::Google::Modern

Ознакомиться более детально с возможностями XEvil можно по ссылкам:
  • http://www.botmasterlabs.net/
  • http://xevil.net/ru/

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 16.03.2018 в 10:34

Сборник рецептов #21: уведомления в Telegram из A-Parser, мультифильтр и парсинг IMDb

21-й сборник рецептов. В нем мы научимся отправлять сообщения в Telegram прямо из A-Parser, изучим работу с модулями Node.js в JS парсерах на примере решения задачи фильтрации по множеству признаков, а также спарсим весь IMDb. Поехали!

Уведомления в Telegram из A-Parser

Telegram является одним из самых популярных мессенджеров благодаря своей простоте, и в то же время большому функционалу. Среди прочего, в Телеграме можно создавать ботов, с помощью которых можно делать чаты более интерактивными. Взаимодействие с ботом на на стороне сервера происходит через Telegram Bot API. Используя эти возможности, можно легко и буквально за несколько минут настроить уведомления себе в Telegram прямо из парсера. О том, как это сделать, а также несколько реальных примеров - по ссылке выше.




Фильтрация по множеству признаков

Как известно, для фильтрации в А-Парсере используется встроенный функционал фильтров. Но бывают ситуации, когда список признаков, наличие которых нужно проверять, очень большой и его сложно вписать в строку стандартного фильтра.
Начиная с версии 1.2.127 в A-Parser добавлена поддержка модулей Node.js. Благодаря этому появилась возможность читать список признаков из файла и использовать его для проверки страниц. О том, как это сделать, а также готовый парсер с мультифильтром - по ссылке выше.



Парсинг рекомендаций фильмов из IMDb

Пример решения задачи по сбору данных о фильмах и их рекомендаций на IMDb. Данная статья показывает, как можно решать задачи, которые на первый взгляд требуют много времени и ресурсов, буквально за несколько часов. Узнать о том, как спарсить весь IMDb за 1,5 часа, а также посмотреть пресет и забрать готовую базу можно по ссылке выше.



Еще больше различных рецептов в нашем обновленном Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.
  • Сборник рецептов #1: Определяем CMS, оцениваем частотность ключевых слов и парсим Вконтакте
  • Сборник рецептов #2: собираем форумы для XRumer, парсим email со страниц контактов
  • Сборник рецептов #3: мобильные сайты, несколько парсеров, позиции ключевых слов
  • Сборник рецептов #4: поиск в выдаче, парсинг интернет-магазина и скачиваем файлы
  • Сборник рецептов #5: ссылки из JS, паблик прокси и карта сайта
  • Сборник рецептов #6: парсим базу номеров телефонов и сохраняем результаты красиво
  • Сборник рецептов #7: парсим RSS, качаем картинки и фильтруем результат по заголовкам
  • Сборник рецептов #8: парсим 2GIS, Google translate и подсказки Youtube
  • Сборник рецептов #9: проверяем сезонность ключевых слов и их полезность
  • Сборник рецептов #10: пишем кастомный парсер поисковика и парсим дерево категорий
  • Сборник рецептов #11: парсим Авито, работаем с JavaScript, анализируем тексты и участвуем в акции!
  • Сборник рецептов #12: парсим Instagram, собираем статистику и делаем свои парсеры подсказок
  • Сборник рецептов #13: сохраняем результат в файл дампа SQL и знакомимся с $tools.query
  • Сборник рецептов #14: используем XPath, анализируем сайты и создаем комбинированные пресеты
  • Сборник рецептов #15: анализируем скорость и юзабилити сайтов, парсим Яндекс.Картинки и Baidu
  • Сборник рецептов #16: парсинг OpenSiteExplorer с авторизацией, Яндекс.Каталога и Яндекс.Новостей
  • Сборник рецептов #17: картинки из Flickr, язык ключевых слов, список лайков в ВК
  • Сборник рецептов #18: скриншоты сайтов, lite выдача Яндекса и проверка сайтов
  • Сборник рецептов #19: публикация сообщений в Wordpress, парсинг Chrome Webstore и AliExpress
  • Сборник рецептов #20: автообновление цен в ИМ, анализ текстов и регистрация аккаунтов

Сборники статей:
  • Сборник статей #1: A-Parser для маркетологов, SEO-специалистов и реальный опыт работы
  • Сборник статей #2: цикл статей-уроков по созданию JS парсеров


Сообщение добавлено 27.03.2018 в 10:41

1.2.160 - поддержка SQLite, проверка доменов на клей, Parse all results в SE::Yahoo


Улучшения
  • Добавлена поддержка SQLite в JavaScript парсерах и шаблонизаторе, пример использования здесь
  • Добавлена защита от случайного закрытия окна парсера
  • В SE::Yahoo добавлены Parse all results и Parse related to level
  • SE::Yandex::TIC полностью переписан, добавлена возможность проверять домены на клей
  • В Rank::MegaIndex добавлена поддержка ReCaptcha2
  • Улучшен парсинг сниппетов в SE:: DuckDuckGo
  • Улучшен сбор почт в HTML::EmailExtractor
Исправления в связи с изменениями в выдаче
  • Обновлен алгоритм Bypass Cloudflare
  • SE::Bing::Translator почти полностью переписан в связи с изменением логики работы переводчика Bing
  • Исправлена работа SE::Seznam с некоторыми видами запросов
  • Исправлен парсинг related keywords, а также мобильной выдачи в SE::Google::Modern
  • Исправлен парсинг related keywords в SE::Bing
  • Исправлена работа SE::IxQuick при работе с русскоязычными запросами
  • SE::Yandex:: Direct, SE::Google::ByImage, SE::Yandex::WordStat
Исправления
  • Исправлена работа SE::Google::Modern на IPv6 прокси
  • Исправлена ошибка, из-за которой SE::Google::Modern собирал ссылки с пометкой опасных сайтов в общий массив ссылок
  • Исправлена работа с оператором поиска + в SE::Bing
  • Исправлен парсинг запросов со спецсимволами в SE:: DuckDuckGo
  • Исправлена работа Rank::MajesticSEO
  • Исправлен баг с overrideOpts в JS парсерах
  • Исправлена работа с переменными при их создании в Parse custom results, а также при использовании нижнего подчеркивания в именах в Конструкторе результатов
  • Исправлена работа tools.js, баг появился в одной из предыдущих версий
  • Исправлен баг, из-за которого А-Парсер падал на некоторых ОС, появился в одной из предыдущих версий


A-Parser - парсер для профессионалов SEO
SpySerp.com - бесплатный сервис отслеживания позиций
A-Parser Support вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 06.04.2018, 10:34   #2
 
Аватар для A-Parser Support
 
Сообщений: 13
FR (активность): 769

Доп. информация
По умолчанию Автор темы

Видео урок: Создание JS парсеров. Работа с CAPTCHA
Третье видео в цикле уроков по созданию JavaScript парсеров. Здесь рассказано о том, как написать JS парсер, в котором будет поддержка антигейта для разгадывания каптч на страницах.


В уроке рассмотрено:
  • Создание JS-парсера для разгадывания капчи
  • Работа с объектом this.captcha внутри JavaScript кода
  • Описание процесса разгадывания каптчи, реализованного в A-Parser

Статья и готовый парсер: https://a-parser.com/resources/257/

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 17.04.2018 в 10:42

22-й сборник рецептов. В нем мы разберемся, как проверять индексацию всех страниц сайта одновременно в нескольких поисковиках, научимся парсить данные по ссылкам из выдачи одним заданием и будем искать сабдомены на сайтах. Поехали!

Получение страниц сайта и проверка индексации в Google и Яндекс

Данный пресет позволяет спарсить ссылки на все страницы сайта и одновременно проверить их на предмет индексации поисковиками (в примере Google и Яндекс, можно по аналогии добавить другие ПС). Готовый пресет и описание по ссылке выше.


Парсим title и description для TOP10 поисковой выдачи по ключевому слову

Пример использования tools.query.add в JavaScript парсерах. Данный парсер получает ссылки из выдачи, после чего собирает из каждой страницы title и description. И все это одним заданием с максимальной производительностью, благодаря многопоточному парсингу. Парсер с описанием доступны по ссылке выше.


Поиск сабдоменов сайта

Небольшой пример, который демонстрирует, как собрать поддомены одного или нескольких сайтов. Используется HTML::LinkExtractor и Parse to level для прохода вглубь по страницам сайта. При этом Конструктором результатов извлекаются из внутренних ссылок домены и выводятся с уникализацией по строке. Готовый пресет - по ссылке выше.


Кроме этого:
  • Работа с SQLite из JavaScript парсеров - показаны все базовые возможности нового функционала по работе с SQLite
Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники рецептов:
  • Сборник рецептов #1: Определяем CMS, оцениваем частотность ключевых слов и парсим Вконтакте
  • Сборник рецептов #2: собираем форумы для XRumer, парсим email со страниц контактов
  • Сборник рецептов #3: мобильные сайты, несколько парсеров, позиции ключевых слов
  • Сборник рецептов #4: поиск в выдаче, парсинг интернет-магазина и скачиваем файлы
  • Сборник рецептов #5: ссылки из JS, паблик прокси и карта сайта
  • Сборник рецептов #6: парсим базу номеров телефонов и сохраняем результаты красиво
  • Сборник рецептов #7: парсим RSS, качаем картинки и фильтруем результат по заголовкам
  • Сборник рецептов #8: парсим 2GIS, Google translate и подсказки Youtube
  • Сборник рецептов #9: проверяем сезонность ключевых слов и их полезность
  • Сборник рецептов #10: пишем кастомный парсер поисковика и парсим дерево категорий
  • Сборник рецептов #11: парсим Авито, работаем с JavaScript, анализируем тексты и участвуем в акции!
  • Сборник рецептов #12: парсим Instagram, собираем статистику и делаем свои парсеры подсказок
  • Сборник рецептов #13: сохраняем результат в файл дампа SQL и знакомимся с $tools.query
  • Сборник рецептов #14: используем XPath, анализируем сайты и создаем комбинированные пресеты
  • Сборник рецептов #15: анализируем скорость и юзабилити сайтов, парсим Яндекс.Картинки и Baidu
  • Сборник рецептов #16: парсинг OpenSiteExplorer с авторизацией, Яндекс.Каталога и Яндекс.Новостей
  • Сборник рецептов #17: картинки из Flickr, язык ключевых слов, список лайков в ВК
  • Сборник рецептов #18: скриншоты сайтов, lite выдача Яндекса и проверка сайтов
  • Сборник рецептов #19: публикация сообщений в Wordpress, парсинг Chrome Webstore и AliExpress
  • Сборник рецептов #20: автообновление цен в ИМ, анализ текстов и регистрация аккаунтов
  • Сборник рецептов #21: уведомления в Telegram из A-Parser, мультифильтр и парсинг IMDb


Сообщение добавлено 27.04.2018 в 10:44

Сборник статей #3: пагинация, переменные и БД SQLite

В этом сборнике статей мы рассмотрим все возможные варианты решения задачи прохода по пагинации на сайтах, очень детально изучим работу с переменными в JavaScript парсерах, а также попробуем работать с базами данных SQLite на примере парсера курсов валют. Поехали!

Обзор вариантов прохода по пагинации

В A-Parser существует несколько способов, с помощью которых можно реализовать проход по пагинации. В связи с их разнообразием, становится актуальным вопрос выбора нужного алгоритма, который позволит максимально эффективно переходить по страницам в процессе парсинга. В этой статье мы постараемся разобраться с каждым из способов максимально подробно. Также будут показаны реальные примеры и даны рекомендации по оптимизации многостраничного парсинга. Статья - по ссылке выше.


Переменные в парсерах JavaScript

JS парсеры в А-Парсере появились уже около года назад. Благодаря им стало возможным решать очень сложные задачи по парсингу, реализовывая практически любую логику. В этой статье мы максимально подробно изучим работу с разными типами переменных, а также узнаем, как можно оптимизировать работу сложных парсеров. Все это - в статье по ссылке выше.


Разработка JS парсера с сохранением результата в SQLite

Начиная с версии 1.2.152 в A-Parser появилась возможность работать с БД SQLite.
В данной статье мы рассмотрим разработку JavaScript парсера, который будет парсить курсы валют из сайта finance.i.ua и сохранять их в БД. В результате получится парсер, в котором продемонстрированы основные операции с базами данных. Подробности, а также готовый парсер - по ссылке выше.



Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники статей
  • Сборник статей #1: A-Parser для маркетологов, SEO-специалистов и реальный опыт работы
  • Сборник статей #2: цикл статей-уроков по созданию JS парсеров


Сообщение добавлено 08.05.2018 в 10:20

1.2.185 - увеличение скорости в SE::Google::Modern, новые возможности Net:: DNS, множество улучшений


Улучшения
  • SE::Google::Modern - многократно увеличена скорость парсинга
  • Множество улучшений в Net:: DNS:
    • Возможность указать несколько DNS и задать метод выбора
    • Бан нерабочих/плохих DNS по специальному эвристическому алгоритму
    • Возможность вывести в результат использованный DNS сервер при удачном запросе
  • В SE::Google::Modern добавлена опция Use sessions
  • В SE::Yandex::WordStat добавлена настройка пресета антигейта для логина
  • Также в SE::Yandex::WordStat удалены настройки Use logins/Use sessions, теперь они включены всегда
  • Добавлена возможность автоматического удаления задания из Завершенных
  • В макросе подстановок {num} добавлена поддержка обратного отсчета
  • В JavaScript парсерах добавлена возможность сохранения произвольных данных в сессии
  • В JavaScript парсерах добавлена возможность прямого сохранения в файл
  • В API методе oneRequest/bulkRequest добавлена возможность указать configPreset
  • В связи с неактуальностью удалены парсеры SE::Google::Mobile и SE::Yandex::Catalog
Исправления в связи с изменениями в выдаче
  • Исправлен парсинг сниппетов в SE::Yandex
  • В SE::Google::Modern исправлена пагинация в мобильной версии, а также парсинг сниппетов и рекламы в некоторых случаях
  • Исправлен парсинг цен в GooglePlay::Apps
  • Исправлена работа функции Remove bad accounts в парсерах Wordstat
  • Rank::MegaIndex, Rank::OpenSiteExplorer, Rank::OpenSiteExplorer::Extended, SE:: DuckDuckGo, SE::IxQuick
Исправления
  • Количество неудачных больше не обнуляется при постановке на паузу
  • Исправлена проблема с подключением Node.js модулей на Linux
  • Исправлено падение парсера в редких ситуациях при использовании JS парсеров
  • Решена проблема с подключением Node.js модулей lodash, sequelize
  • Исправлена ошибка итератора при равных границах в макросе {num}


Сообщение добавлено 08.05.2018 в 10:20

1.2.185 - увеличение скорости в SE::Google::Modern, новые возможности Net:: DNS, множество улучшений



Улучшения
  • SE::Google::Modern - многократно увеличена скорость парсинга
  • Множество улучшений в Net:: DNS:
    • Возможность указать несколько DNS и задать метод выбора
    • Бан нерабочих/плохих DNS по специальному эвристическому алгоритму
    • Возможность вывести в результат использованный DNS сервер при удачном запросе
  • В SE::Google::Modern добавлена опция Use sessions
  • В SE::Yandex::WordStat добавлена настройка пресета антигейта для логина
  • Также в SE::Yandex::WordStat удалены настройки Use logins/Use sessions, теперь они включены всегда
  • Добавлена возможность автоматического удаления задания из Завершенных
  • В макросе подстановок {num} добавлена поддержка обратного отсчета
  • В JavaScript парсерах добавлена возможность сохранения произвольных данных в сессии
  • В JavaScript парсерах добавлена возможность прямого сохранения в файл
  • В API методе oneRequest/bulkRequest добавлена возможность указать configPreset
  • В связи с неактуальностью удалены парсеры SE::Google::Mobile и SE::Yandex::Catalog
Исправления в связи с изменениями в выдаче
  • Исправлен парсинг сниппетов в SE::Yandex
  • В SE::Google::Modern исправлена пагинация в мобильной версии, а также парсинг сниппетов и рекламы в некоторых случаях
  • Исправлен парсинг цен в GooglePlay::Apps
  • Исправлена работа функции Remove bad accounts в парсерах Wordstat
  • Rank::MegaIndex, Rank::OpenSiteExplorer, Rank::OpenSiteExplorer::Extended, SE:: DuckDuckGo, SE::IxQuick
Исправления
  • Количество неудачных больше не обнуляется при постановке на паузу
  • Исправлена проблема с подключением Node.js модулей на Linux
  • Исправлено падение парсера в редких ситуациях при использовании JS парсеров
  • Решена проблема с подключением Node.js модулей lodash, sequelize
  • Исправлена ошибка итератора при равных границах в макросе {num}


Сообщение добавлено 18.05.2018 в 10:42

Видео урок: Создание JS парсеров. Работа с ReCaptcha2


Очередное видео в цикле уроков по созданию JavaScript парсеров. Здесь показано, как реализовать разгадывание рекаптч в JS парсере.




В уроке рассмотрено:
  • Описание и настройка парсера Util::ReCaptcha2
  • Описание принципа работы ReCaptcha2
  • Создание кастомного JavaScript парсера с поддержкой разгадывания рекаптч

Ссылки:
  • Тестирование работы ReCaptcha2: http://http.myjino.ru/recaptcha/test-get.php
  • Статья и готовый парсер: https://a-parser.com/resources/259/

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 29.05.2018 в 10:48

Сборник рецептов #23: категории сайтов, парсинг в YML и преобразование дат

23-й сборник рецептов. В нем мы будем парсить категории сайтов из Google, научимся формировать файлы YML, а также разберемся, как парсить даты и преобразовывать их в единый формат. Поехали!

Получение категорий сайтов из Google

Категоризация сайтов - довольно актуальная задача, но существует немного сервисов, которые могут ее решить. Поэтому, по ссылке выше можно взять небольшой парсер, который позволяет получать категории сайтов из Google.


Выгрузка товаров в формате YML

YML - это стандарт, разработанный Яндексом для работы с Маркетом. По своей сути, это файлы, схожие с XML, в которых содержится информация о товарах в интернет-магазине. Данный формат обеспечивает регулярное автоматическое обновление каталога на Яндекс.Маркет и позволяет отражать все актуальные изменения (наличие, цена, появление новых товаров). Пример парсинга интернет-магазина и сохранения собранных данных в YML можно посмотреть по ссылке выше.


Парсим Google новости с датой и преобразуем ее

В поисковой выдаче Google возле новостей публикуется дата. Как правило, это могут быть метки "10 ч. назад" или "26 мая 2018 г.". Иногда может возникнуть задача спарсить все даты и привести их к единому виду. Как именно это сделать, можно узнать по ссылке выше.


Кроме этого:
  • Сохранение произвольных данных в сессиях - новый функционал по работе с сессиями
  • Сохранение больших файлов напрямую на диск - возможность сохранять файлы в JS парсерах напрямую, минуя шаблонизатор
Еще больше различных рецептов в нашем Каталоге!

Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники рецептов:
  • Сборник рецептов #1: Определяем CMS, оцениваем частотность ключевых слов и парсим Вконтакте
  • Сборник рецептов #2: собираем форумы для XRumer, парсим email со страниц контактов
  • Сборник рецептов #3: мобильные сайты, несколько парсеров, позиции ключевых слов
  • Сборник рецептов #4: поиск в выдаче, парсинг интернет-магазина и скачиваем файлы
  • Сборник рецептов #5: ссылки из JS, паблик прокси и карта сайта
  • Сборник рецептов #6: парсим базу номеров телефонов и сохраняем результаты красиво
  • Сборник рецептов #7: парсим RSS, качаем картинки и фильтруем результат по заголовкам
  • Сборник рецептов #8: парсим 2GIS, Google translate и подсказки Youtube
  • Сборник рецептов #9: проверяем сезонность ключевых слов и их полезность
  • Сборник рецептов #10: пишем кастомный парсер поисковика и парсим дерево категорий
  • Сборник рецептов #11: парсим Авито, работаем с JavaScript, анализируем тексты и участвуем в акции!
  • Сборник рецептов #12: парсим Instagram, собираем статистику и делаем свои парсеры подсказок
  • Сборник рецептов #13: сохраняем результат в файл дампа SQL и знакомимся с $tools.query
  • Сборник рецептов #14: используем XPath, анализируем сайты и создаем комбинированные пресеты
  • Сборник рецептов #15: анализируем скорость и юзабилити сайтов, парсим Яндекс.Картинки и Baidu
  • Сборник рецептов #16: парсинг OpenSiteExplorer с авторизацией, Яндекс.Каталога и Яндекс.Новостей
  • Сборник рецептов #17: картинки из Flickr, язык ключевых слов, список лайков в ВК
  • Сборник рецептов #18: скриншоты сайтов, lite выдача Яндекса и проверка сайтов
  • Сборник рецептов #19: публикация сообщений в Wordpress, парсинг Chrome Webstore и AliExpress
  • Сборник рецептов #20: автообновление цен в ИМ, анализ текстов и регистрация аккаунтов
  • Сборник рецептов #21: уведомления в Telegram из A-Parser, мультифильтр и парсинг IMDb
  • Сборник рецептов #22: проверка индексации в нескольких ПС, многоуровневый парсинг и поиск сабдоменов


Сообщение добавлено 12.06.2018 в 10:25

1.2.216 - улучшения в SE::Google::Modern и JS парсерах, а также множество других



Улучшения
  • Зависимая задача в Цепочке заданий теперь запускается только когда файл результатов не пустой
  • Добавлен повтор без смены прокси при неудачной отправке рекаптчи в SE::Google::Modern
  • Добавлен бан прокси при получении 403 кода ответа в SE::Google::Modern
  • Процент неудачных запросов теперь отображается относительно числа выполненных запросов
  • Добавлена возможность вызвать URL после выполнения задания
  • Улучшен обзор каталогов при выборе файлов запросов
  • Добавлена поддержка setInterval в JavaScript парсерах
  • Уменьшено Wait between get status и улучшено логгирование в Util::ReCaptcha2
  • Улучшена обработка редиректов
  • Добавлена защита от бесконечного выполнения в JavaScript парсерах
  • Значительно увеличены возможности check_content в JS парсерах
  • В ответе API метода info добавлены параметры workingTasks, activeThreads, activeProxyCheckerThreads
Исправления в связи с изменениями в выдаче
  • Исправлен парсинг рекламы в мобильной версии SE::Google::Modern
  • Исправлен парсинг количества результатов в SE::Baidu
  • Rank::MajesticSEO, SE::Google::Modern, SE::Google::Trends
Исправления
  • Исправлено ведение лога при нескольких паузах задания
  • Исправлена ошибка, из-за которой запрос считался неудачным при пустой выдаче в SE::Google::Modern
  • Исправлена работа с url, содержащими фрагмент # в Net::HTTP
  • Исправлен парсинг ссылок в HTML::LinkExtractor
  • Исправлена работа опции Pages count в SE::Yandex
  • Исправлен выбор файлов запросов на Windows 10
  • Исправлена ошибка, из-за которой иногда нельзя было удалить файл с запросами
  • Исправлено отображение проксичекера в конфиге потоков
  • Исправлена кодировка некоторых результатов в SE::Google::Suggest
  • Исправлена ситуация, когда не читались настройки из config.txt


Сообщение добавлено 22.06.2018 в 10:31

Сборник рецептов #24: уведомление в Telegram об экспайре доменов, чекер РКН и работа с SQLite

24-й сборник рецептов. В нем мы научимся мониторить окончание срока регистрации доменов с уведомлением в Телеграм, сделаем альтернативный чекер сайтов в базе РКН, а также на простом примере парсера курсов валют изучим работу с базами данных. Поехали!

Получаем уведомления в Telegram об окончании срока регистрации доменов

Мониторинг сроков регистрации доменов - это довольно распространенная задача. A-Parser позволяет легко автоматизировать этот процесс. Более того, можно настроить получение прямо в Телеграм уведомлений о доменах, срок регистрации которых скоро закончится. Готовое решение для автоматической проверки с уведомлением - по ссылке выше.


Проверка блокировки РосКомНадзора через GitHub

В А-Парсере есть стандартный парсер Check::RosKomNadzor, который позволяет проверять наличие сайтов в базе РКН. Данные получаются напрямую из официального сервиса, для работы обязательно нужно подключать антигейт. Кроме того, официальный сервис РКН часто подвергается атакам, в связи с чем может быть недоступен. Но существуют альтернативные источники данных, доступность которых значительно выше и к тому же не требующие проверки в виде каптчи. Парсинг одного из таких источников и реализован в пресете по ссылке выше.


Простой парсер обменника с записью в БД SQLite

Как известно, в A-Parser есть возможность чтения/записи данных в БД SQLite. В этом рецепте показано использование этого функционала на примере парсинга курсов валют. Готовый парсер доступен по ссылке выше.


Еще больше различных рецептов в нашем Каталоге!

Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники рецептов:
  • Сборник рецептов #1: Определяем CMS, оцениваем частотность ключевых слов и парсим Вконтакте
  • Сборник рецептов #2: собираем форумы для XRumer, парсим email со страниц контактов
  • Сборник рецептов #3: мобильные сайты, несколько парсеров, позиции ключевых слов
  • Сборник рецептов #4: поиск в выдаче, парсинг интернет-магазина и скачиваем файлы
  • Сборник рецептов #5: ссылки из JS, паблик прокси и карта сайта
  • Сборник рецептов #6: парсим базу номеров телефонов и сохраняем результаты красиво
  • Сборник рецептов #7: парсим RSS, качаем картинки и фильтруем результат по заголовкам
  • Сборник рецептов #8: парсим 2GIS, Google translate и подсказки Youtube
  • Сборник рецептов #9: проверяем сезонность ключевых слов и их полезность
  • Сборник рецептов #10: пишем кастомный парсер поисковика и парсим дерево категорий
  • Сборник рецептов #11: парсим Авито, работаем с JavaScript, анализируем тексты и участвуем в акции!
  • Сборник рецептов #12: парсим Instagram, собираем статистику и делаем свои парсеры подсказок
  • Сборник рецептов #13: сохраняем результат в файл дампа SQL и знакомимся с $tools.query
  • Сборник рецептов #14: используем XPath, анализируем сайты и создаем комбинированные пресеты
  • Сборник рецептов #15: анализируем скорость и юзабилити сайтов, парсим Яндекс.Картинки и Baidu
  • Сборник рецептов #16: парсинг OpenSiteExplorer с авторизацией, Яндекс.Каталога и Яндекс.Новостей
  • Сборник рецептов #17: картинки из Flickr, язык ключевых слов, список лайков в ВК
  • Сборник рецептов #18: скриншоты сайтов, lite выдача Яндекса и проверка сайтов
  • Сборник рецептов #19: публикация сообщений в Wordpress, парсинг Chrome Webstore и AliExpress
  • Сборник рецептов #20: автообновление цен в ИМ, анализ текстов и регистрация аккаунтов
  • Сборник рецептов #21: уведомления в Telegram из A-Parser, мультифильтр и парсинг IMDb
  • Сборник рецептов #22: проверка индексации в нескольких ПС, многоуровневый парсинг и поиск сабдоменов
  • Сборник рецептов #23: категории сайтов, парсинг в YML и преобразование дат


A-Parser - парсер для профессионалов SEO
SpySerp.com - бесплатный сервис отслеживания позиций
A-Parser Support вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 03.07.2018, 10:25   #3
 
Аватар для A-Parser Support
 
Сообщений: 13
FR (активность): 769

Доп. информация
По умолчанию Автор темы

1.2.246 - обновление базы Rank::CMS и новые функции в парсерах Baidu и MajesticSEO


Улучшения
  • В Rank::CMS обновлена база определяемых движков, теперь поддерживается одновременно старый и новый формат apps.json (при обновлении рекомендуется также обновить apps.json)
  • SE::Baidu полностью переписан:
    • добавлен парсинг related keywords
    • убран $cachedate из $serp, т.к. его похоже больше нет в выдаче
    • добавлена опция Get full link, преобразующая обрезанные ссылки в полные
    • исправлены некоторые регулярные выражения и баг с двойным http в ссылках
  • Изменения в Rank::MajesticSEO:
    • Добавлен параметр Check type, позволяет выбрать тип проверки: Root Domain/Subdomin/URL
    • Убран параметр Extract domain
    • Исправлена работа в некоторых случаях
  • Улучшена отзывчивость в редакторе JavaScript парсеров
  • Улучшена работа HTML::EmailExtractor, устранены зависания, которые возникали на определенных страницах
  • Обновлен список регионов в парсерах Яндекс
  • Пустой результат в SE::Google::Trends больше не считается неудачным запросом
  • Улучшена работа с сессиями в SE::Yandex::WordStat
Исправления в связи с изменениями в выдаче
  • Исправлен парсинг рекламы в SE::Yandex
  • Исправлена работа, а также улучшен алгоритм парсинга в SE:: DuckDuckGo
  • Исправлено указание региона в парсерах Яндекс
  • Исправлен парсинг $ads.$i.visiblelink в SE::Google::Modern
  • Исправлен парсинг $totalcount в SE::Yandex:: Direct
Исправления
  • Исправлена ошибка, из-за которой процент обработанных запросов мог быть больше 100
  • Исправлены ошибки, из-за которых парсинг мог зависать при снятии с паузы, а также сбивался перебор в макросах подстановок
  • Исправлено отображение кириллицы в $headers в Net::HTTP
  • Исправлена ошибка в Конструкторе результатов, из-за которой в редких случаях парсер мог падать
  • Устранена проблема с кодировкой при работе с SQLite
  • Исправлена ошибка со сменой прокси в JavaScript парсерах


Сообщение добавлено 13.07.2018 в 10:26

Сборник статей #4: добавление товаров в OpenCart и парсинг JSON

В 4-м сборнике статей будет рассмотрено добавление товаров в OpenCart, а также описано создание универсального парсера JSON. В каждой статье приложены готовые JS парсеры, используя которые, можно на реальных примерах изучить описанные методы и поэксперементировать с ними. Поехали!

Работаем с OpenCart. Часть 1. Вступление.

Данная статья начинает цикл об одной из наиболее часто запрашиваемых возможностей - заливке товаров в интернет-магазин. A-Parser - это универсальный инструмент, который кроме прочего может решать и такие задачи. Для тестов выбран движок OpenCart, в 1-й статье будет рассмотрена авторизация, получение списка товаров и добавление товара. Подробности, а также пример парсера - по ссылке выше.



Парсинг JSON ответов и работа с их содержимым

JSON - это довольно популярный способ предоставления данных, который, например, часто используется при работе с API различных сервисов. В А-Парсере есть встроенные инструменты для работы с ним, но не всегда их применение может быть простым, иногда требуется дополнительно писать сложные шаблоны, используя шаблонизатор. Поэтому в статье по ссылке выше будет рассказано, как написать простой универсальный парсер JSON.



Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники статей
  • Сборник статей #1: A-Parser для маркетологов, SEO-специалистов и реальный опыт работы
  • Сборник статей #2: цикл статей-уроков по созданию JS парсеров
  • Сборник статей #3: пагинация, переменные и БД SQLite


Сообщение добавлено 24.07.2018 в 10:26

Видео урок: Создание JS парсеров. Работа с SQLite

Продолжение цикла уроков по созданию JavaScript парсеров. В этом видео показано, как работать с базой данных SQLite в JS парсере.


В этом уроке рассмотрены:
- Знакомство с языком запросов SQL
- Создание простейшей базы данных SQLite при работе с JS-парсером
- Получение и запись данных в базу SQLite при работе с JS-парсером

Ссылки:
- http://www.sql-tutorial.ru/ru/content.html - учебник по SQL
- http://samoychiteli.ru/document29118.html - тоже учебник по SQL
- https://finance.i.ua/converter/ - сайт, который использовался в качестве примера
- https://a-parser.com/resources/276/ - статья и готовый парсер

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 03.08.2018 в 10:17

1.2.270 - новый парсер Rank::Curlie, множество доработок в Node.js функционале



Улучшения
  • Добавлен новый парсер Rank::Curlie
  • В HTML::LinkExtractor улучшена обработка портов по умолчанию, теперь ссылки с портом приводятся к каноническому виду
  • Оптимизирована работа SE::Yandex::WordStat
  • Улучшена работа с сессиями в SE::Yandex
  • Улучшена обработка некорректных ответов в SE::Yandex SE::Google::Suggest
Исправления в связи с изменениями в выдаче
  • Исправлены SE::Bing, SE::DuckDuckGo и Rank::MajesticSEO
Исправления
  • Исправлена проблема с запуском на некоторых linux дистрибутивах
  • Исправлена загрузка node.js модулей в редких случаях на Windows
  • JS парсеры: добавлена поддержка dns.lookup и улучшена совместимость с модулем mysql2
  • JS парсеры: исправлен util.promisify
  • Исправлена работа некоторых Node.js модулей
  • В SE::Google::Modern и SE::Bing $totalcount при 0 результатов теперь возвращает 0
  • Исправлено логгирование в режиме foreground


Сообщение добавлено 14.08.2018 в 08:02

25-й сборник рецептов
25-й сборник рецептов. В нем будет показан способ периодического парсинга с дозаписью результатов в таблицу, рассмотрен парсинг с помощью Node.js модуля Cheerio без использования регулярных выражений, а также показан парсер первой мобильной поисковой системы в Китае - Shenma. Поехали!

Периодическая проверка обратных ссылок с дозаписью результатов в таблицу
Пример решения одной из наиболее запрашиваемых задач - дозапись периодически получаемых результатов в одну и ту же таблицу. В качестве хранилища данных используется SQLite, при каждом запуске данные добавляются и выводятся в таблицу. Готовый пресет с комментариями - по ссылке выше.


Парсер поисковой системы Haosou
Как известно, в основе почти любого парсера используются регулярные выражения, реже - XPath. Работа с этими методами требует определенных знаний, что в свою очередь может вызывать некоторые сложности. Поэтому существуют и другие методы. Использование одного из них на примере парсинга популярного в Китае поисковика Haosou, показано по ссылке выше.


Парсер китайского поисковика Shenma
Еще один китайский поисковик в этом сборнике - Shenma. Это первая мобильная поисковая система в Китае, ориентирована в первую очередь на мобильные сайты. Пресет - по ссылке выше.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники рецептов:
  • Сборник рецептов #1: Определяем CMS, оцениваем частотность ключевых слов и парсим Вконтакте
  • Сборник рецептов #2: собираем форумы для XRumer, парсим email со страниц контактов
  • Сборник рецептов #3: мобильные сайты, несколько парсеров, позиции ключевых слов
  • Сборник рецептов #4: поиск в выдаче, парсинг интернет-магазина и скачиваем файлы
  • Сборник рецептов #5: ссылки из JS, паблик прокси и карта сайта
  • Сборник рецептов #6: парсим базу номеров телефонов и сохраняем результаты красиво
  • Сборник рецептов #7: парсим RSS, качаем картинки и фильтруем результат по заголовкам
  • Сборник рецептов #8: парсим 2GIS, Google translate и подсказки Youtube
  • Сборник рецептов #9: проверяем сезонность ключевых слов и их полезность
  • Сборник рецептов #10: пишем кастомный парсер поисковика и парсим дерево категорий
  • Сборник рецептов #11: парсим Авито, работаем с JavaScript, анализируем тексты и участвуем в акции!
  • Сборник рецептов #12: парсим Instagram, собираем статистику и делаем свои парсеры подсказок
  • Сборник рецептов #13: сохраняем результат в файл дампа SQL и знакомимся с $tools.query
  • Сборник рецептов #14: используем XPath, анализируем сайты и создаем комбинированные пресеты
  • Сборник рецептов #15: анализируем скорость и юзабилити сайтов, парсим Яндекс.Картинки и Baidu
  • Сборник рецептов #16: парсинг OpenSiteExplorer с авторизацией, Яндекс.Каталога и Яндекс.Новостей
  • Сборник рецептов #17: картинки из Flickr, язык ключевых слов, список лайков в ВК
  • Сборник рецептов #18: скриншоты сайтов, lite выдача Яндекса и проверка сайтов
  • Сборник рецептов #19: публикация сообщений в Wordpress, парсинг Chrome Webstore и AliExpress
  • Сборник рецептов #20: автообновление цен в ИМ, анализ текстов и регистрация аккаунтов
  • Сборник рецептов #21: уведомления в Telegram из A-Parser, мультифильтр и парсинг IMDb
  • Сборник рецептов #22: проверка индексации в нескольких ПС, многоуровневый парсинг и поиск сабдоменов
  • Сборник рецептов #23: категории сайтов, парсинг в YML и преобразование дат
  • Сборник рецептов #24: уведомление в Telegram об экспайре доменов, чекер РКН и работа с SQLite


Сообщение добавлено 24.08.2018 в 12:14

Видео урок: Создание JS парсеров. Реализация подстановки запросов и их многопоточной обработки.
Продолжение цикла уроков по созданию JavaScript парсеров. В этом видео будет показано, как "на лету" добавлять запросы в задание и многопоточно их обрабатывать.

В одной из наших статей мы рассмотрели способ разработки парсера, который собирает ТОП 10 из выдачи поисковика, а затем по очереди парсит нужные данные по полученным ссылкам. Вроде все неплохо, но если у вас не 10 запросов, несколько тысяч? Задание будет выполняться очень долго, а время это самый драгоценный и не восполняемый ресурс.
К счастью в A-Parser есть такая замечательная вещь, как многоуровневый парсинг, который позволяет многократно увеличить скорость парсинга, и в этом видео мы рассмотрим как этой возможностью пользоваться.

В этом уроке рассмотрено:
  • Реализация раздельных процедур парсинга в зависимости от внешних условий, а именно - уровня парсинга
  • Подстановка запросов в задание "на лету"
  • Использование стандартных парсеров в кастомных JavaScript парсерах
Ссылки:
  • Документация по JS парсерам
  • Описание метода для подстановки запросов
  • Статья и готовый парсер
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 04.09.2018 в 15:21

1.2.292 - новый парсер Яндекс ИКС, улучшения в работе с кодировками, оптимизации встроенных парсеров

Улучшения
  • Добавлен парсер SE::Yandex::SQI - парсер Индекса качества сайта (Яндекс ИКС)
  • Оптимизирована работа Очереди заданий
  • Добавлена поддержка множества экзотических кодировок китайского языка
  • Добавлена опция Save as UTF-8 with BOM, которая решает проблему определения кодировки при открытии сформированного CSV в Excel
  • SE::Youtube полностью переписан с использованием современного юзерагента
  • SE::AOL::Suggest оптимизирован и переписан на JavaScript
  • Улучшена работа SE::Google,SE::Google::Modern, Rank::MajesticSEO,SE::Bing,Shop::Amazon
Исправления в связи с изменениями в выдаче
  • Исправлен парсинг мобильной выдачи в SE::Google::Modern
  • Исправлено определение опечаток в SE::Google и SE::Google::Modern
  • Исправлена ситуация, при которой в SE::Google::Modern в сниппеты могли попадать ненужные ссылки
  • Исправлен парсинг рекламы в SE::Yandex
  • Исправлен парсинг количества результатов в SE::Youtube
  • Удален SE::Yandex::TIC, т.к. больше не актуален
  • Исправлен Shop::Yandex::Market,SE::DuckDuckGo,SE::AOL::Suggest
Исправления
  • Исправлена работа Net::Whois для некоторых доменных зон
  • Исправлена ошибка, при которой не импортировался пресет, если не установлены модули, используемые в нем
  • Исправлена кодировка при использовании fs.readdirSync в JS парсерах


Сообщение добавлено 14.09.2018 в 12:23

Сборник статей #5: собственный канал в Telegram и массовое добавление товаров в OpenCart
В 5-м сборнике статей на реальном примере будет показано, как создать свой канал в Телеграме и полностью автоматизировать его наполнение контентом. Также мы продолжаем цикл статей по работе с OpenCart и во 2-й части будет рассмотрен вопрос массового добавления товаров. Как обычно, в каждой статье приложены готовые JS парсеры, используя которые, можно на реальных примерах изучить описанные методы и поэксперементировать с ними. Поехали!

Полноценный Telegram канал на базе A-Parser
В этой статье будет описан способ создания полноценного канала в Telegram c автоматизированным сбором контента и постингом сообщений через заданные интервалы. И конечно, все это на базе A-Parser. Все подробности, а также готовые пресеты - по ссылке выше.


Работаем с OpenCart. Часть 2. Массовое добавление товаров
Мы продолжаем цикл статей о заливке товаров в интернет-магазин на базе OpenCart. Во второй части будет рассмотрено массовое добавление товара. Подробности, а также пример готового парсера - по ссылке выше.


Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники статей
  • Сборник статей #1: A-Parser для маркетологов, SEO-специалистов и реальный опыт работы
  • Сборник статей #2: цикл статей-уроков по созданию JS парсеров
  • Сборник статей #3: пагинация, переменные и БД SQLite
  • Сборник статей #4: добавление товаров в OpenCart и парсинг JSON


Сообщение добавлено 25.09.2018 в 13:42

Видео урок: Массовое добавление товаров в OpenCart
Данный парсер является примером для разработки парсера работающего с OpenCart. Решение демонстрирует возможность сбора данных о товарах из стороннего сайта и заливку их на собственный сайт на базе OpenCart через API.

В этом уроке рассмотрены:
  • парсинг товаров из интернет-магазина
  • авторизация в OpenCart
  • работа с API OpenCart для публикации товаров

Статья и готовый пресет опубликованы в нашем Каталоге: https://a-parser.com/resources/302/

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!


A-Parser - парсер для профессионалов SEO
SpySerp.com - бесплатный сервис отслеживания позиций
A-Parser Support вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 05.10.2018, 17:29   #4
 
Аватар для A-Parser Support
 
Сообщений: 13
FR (активность): 769

Доп. информация
По умолчанию Автор темы

1.2.319 - новый парсер подсказок Youtube, поддержка модуля MySQL2, множество улучшений и оптимизаций

Улучшения
  • Добавлен новый парсер SE::Youtube::Suggest
  • Добавлена совместимость с модулем mysql2 в JavaScript парсерах
  • В Util::ReCaptcha2 добавлена поддержка сервиса R.I.P.captcha
  • В SE::Bing::Suggest добавлена возможность выбора страны
  • Уменьшено потребление оперативной памяти, а также оптимизирована начальная загрузка, интерфейс теперь открывается быстрее
  • База регионов в SE::Yandex обновлена и значительно увеличена
  • Для всех стандартных парсеров, кроме тех, которые работают на основе Net::HTTP, из настроек убраны Max body size и Use gzip
  • Улучшен Shop::Amazon
Исправления в связи с изменениями в выдаче
  • Исправлен парсинг рекламы в SE::Google::Modern
  • Исправлен парсинг в SE::Yandex для регионов, отличных от российских
  • Полностью обновлен Rank::SEMrush
  • Исправлена проблема с загрузкой каптчи в SE::Yandex, SE::Yandex::Wordstat
  • Исправлен парсинг количества результатов в SE::Yahoo
  • SE::Dogpile, SE::DuckDuckGo
Исправления
  • Исправлена работа с прокси при получении каптчи в SE::Yandex::Register
  • В очень редких случаях в SE::Yandex могла возникать ошибка Content mismatch
  • Исправлен Net::Whois при работе с .eu доменами


Сообщение добавлено 16.10.2018 в 12:27

Видео урок: Полноценный Telegram канал на базе A-Parser
Это видео демонстрирует возможность создания полноценного Telegram канала на базе A-Parser. Парсер периодически и без вмешательства пользователя будет собирать контент и публиковать его на канале.

В уроке рассмотрены:
  • Регистрация и настройка канала в Телеграм.
  • Последовательное выполнение нескольких заданий.
  • Сохранение промежуточных данных в базу SQLite с последующим чтением.
  • Настройка пресета для постинга сообщений в Telegram-канал.
Статья с подробным описанием процесса создания: https://a-parser.com/resources/300/
Ссылки на готовые пресеты:
https://a-parser.com/resources/38/
https://a-parser.com/resources/298/
https://a-parser.com/resources/299/
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 26.10.2018 в 12:59

Сборник рецептов #26: мобильные версии сайтов, список регионов Яндекса и упоминания домена в индексе
26-й сборник рецептов. В нем будут показаны: проверка наличия мобильной версии сайта через Bing, парсинг полного списка регионов Яндекса и способ поиска упоминаний домена в индексе поисковой системы. Также показан пример работы с Node.js модулем mysql2, который позволяет работать с MySQL базами данных. Поехали!

Проверка наличия мобильной версии через Bing
На сегодняшний день наличие мобильной версии является одним из важнейших критериев качества сайта. По данным различных организаций доля мобильного трафика уже давно превышает десктопный. Именно поэтому мобильная версия сайта позволяет увеличить посещаемость сайта, ведь большинство крупных поисковиков отдают предпочтение в выдаче сайтам, имеющим полноценную мобильную версию. Проверить наличие и соответствие стандартам можно с помощью небольшого пресета по ссылке выше.


Получение полного списка регионов Яндекса
Яндекс не публикует в открытом виде полного списка всех регионов, используемых в поиске. И как оказалось, найти полную и актуальную базу в интернете практически невозможно. Поэтому мы исправляем это и по ссылке выше публикуем JavaScript парсер, который позволяет собрать свежую и максимально полную базу регионов Яндекса.


Проверка упоминаний домена в индексе Гугла
Иногда возникает задача по поиску упоминаний домена в индексе поисковой системы. Именно с такой задачей к нам обратился один из пользователей A-Parser. Поэтому по ссылке выше мы публикуем пресет, решающий данную задачу.


Кроме этого:
  • Пример работы с модулем mysql2
Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Сообщение добавлено 06.11.2018 в 12:50

1.2.335 - новые парсеры картинок, оптимизации в JS парсерах, общие улучшения работы

Улучшения
  • Добавлено 2 новых парсера:
    • SE::DuckDuckGo::Images - парсер картинок из DuckDuckGo
    • SE::Dogpile::Images - парсер картинок из Dogpile
  • Полностью переписаны 2 парсера:
    • SE::Google::Images - добавлены региональные настройки, поддержка рекаптчи, возможность задавать различные фильтры поиска и сбор анкоров, ссылок на страницу, ссылок на превью, а также типов изображений
    • SE::Yandex::Images - добавлен сбор ссылок на превью
  • Улучшена работа SE::AOL, а также увеличено максимальное количество страниц в настройках
  • Улучшена работа SE::Ask, а также добавлена возможность парсить связанные ключевые слова
  • JS парсеры: оптимизирован вызов конструктора и init()
  • JS парсеры: добавлена поддержка async init()
Исправления в связи с изменениями в выдаче
  • Исправлен парсинг анкоров в SE::Google::Modern
  • Исправлено указание региона в SE::Yandex
  • В Shop::AliExpress исправлен проход по страницам
  • SE::Bing::Images, SE::Dogpile, SE::DuckDuckGo, SE::Google::ByImage
Исправления
  • Исправлена утечка памяти при большом количестве попыток
  • Исправлена ошибка, при которой в Тестовом парсинге при работе с некоторыми ссылками не завершался запрос
  • Исправлен парсинг различных параметров в Net::Whois
  • Исправлено отображение русского языка (проблема появилась в предыдущей версии)
  • Исправлено зависание при работе SE::Yandex::Images с антигейтом
  • JS парсеры: исправлена работа check_content
  • JS парсеры: исправлена работа с сессиями (проблема появилась в одной из предыдущих версий)


Сообщение добавлено 16.11.2018 в 14:53

Видео урок: Массовое добавление товаров в OpenCart, часть 2

Это вторая часть из цикла видео уроков о парсинге товаров из стороннего сайта и заливке их на собственный сайт на базе OpenCart через API.

В этом уроке показано:
  • краткое содержание предыдущей части
  • запуск созданного пресета
  • демонстрация результатов работы
Первая часть: https://a-parser.com/threads/4798/
Статья и готовый пресет опубликованы в нашем Каталоге: https://a-parser.com/resources/302/
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 23.11.2018 в 11:39



Сообщение добавлено 04.12.2018 в 07:26

Сборник рецептов #27: парсинг HH, сбор списка user-agent и парсинг Авито с записью в MySQL
27-й сборник рецептов. В нем собраны рецепты для парсинга списка соискателей на hh.ru, сбора списка юзерагентов и парсинга Авито с записью результатов в MySQL базу данных. Также показан пример отправки файлов в POST запросе. Поехали!

Сбор списка соискателей на HeadHunter
HeadHunter - это один из самых популярных ресурсов для поиска работы. Соответственно, сбор списка соискателей может быть интересен рекрутерам для более эффективного анализа потенциальных кандидатов. Готовое решение для парсинга доступно по ссылке выше.


Получение списка user-agent
Сейчас существует много различных браузеров, которые работают на разных платформах. Многие сайты ограничивают работу со старыми браузерами, а некоторые не отдают контент даже при запросе с юзерагентом относительно нового браузера. В A-Parser можно задавать user-agent для запросов, также существует специальный инструмент, который позволяет при каждом запросе выбирать рандомный из заранее подготовленного списка. Пресет для парсинга таких списков, с возможностью фильтрации по различным параметрам, доступен по ссылке выше.


Парсер Avito с записью в MySQL
Предыдущий пресет для парсинга Авито пользуется большой популярностью. Также наши пользователи часто спрашивают о возможности записи собранных результатов напрямую в базу данных. Поэтому мы подготовили JS парсер, который решает эту задачу. Как обычно, он доступен по ссылке выше.


Кроме этого:
  • Отправка файлов в POST запросе - пример решения задачи по отправке файлов в POST запросах.

Еще больше различных рецептов в нашем Каталоге!

Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Сообщение добавлено 14.12.2018 в 14:37

Видео урок: Разбираем методы для работы с API используя Postman
В данном видео будет сделан краткий обзор некоторых методов API.
В этом уроке рассмотрены:
  • обзор методов
  • составление JSON для методов ping,info и oneRequest
  • работа с API используя Postman
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 26.12.2018 в 14:47

1.2.360 - поддержка https/tls в Node.js модулях, парсинг мобильной выдачи Яндекса, 2 новых парсера

В уходящем году одним из приоритетных направлений стало развитие JavaScript парсеров и функционала по работе с Node.js. Одним из финальных этапов стал данный релиз, в котором была реализована долгожданная поддержка https/tls в Node.js модулях. Также усилия были сосредоточены на повышении стабильности и производительности. В результате этого было сделано множество наработок, которые уже в первой половине 2019 года планируется выпустить в виде нового A-Parser 2.0, где будет много новых и крутых возможностей.
Команда A-Parser поздравляет всех с Новым годом и Рождеством! Мы желаем вам успехов в делах, прибыльных проектов и ярких идей. Пускай Новый 2019 год будет годом новых возможностей, все задуманное сбывается, а работа приносит удовольствие!
Спасибо что Вы с нами!!!
В новогоднем релизе, кроме снеговика, было сделано следующее:
Улучшения
  • Добавлена поддержка https/tls в Node.js модулях, что позволяет использовать все модули, которые работают с API по https, а также по TLSSocket (smtp и т.п.)
  • Полностью переписан и обновлен SE::Yandex, добавлена возможность парсить мобильную выдачу, а также значительно увеличена производительность
  • Добавлен парсер позиций в Bing: SE::Bing:osition
  • Добавлен парсер Util::YandexRecognize, позволяющий разгадывать каптчи без использования сторонних сервисов
  • Улучшен сбор почт в HTML::EmailExtractor
  • Улучшена работа опции Dynamic threads limit
  • В SE::Yandex использование прокси для загрузки картинки каптчи теперь определяется параметром Use proxy парсера Яндекса
  • В связи с неактуальностью удалены SE::Bing::AddURL, Rank::OpenSiteExplorer и Rank::OpenSiteExplorer::Extended
Исправления в связи с изменениями в выдаче
  • В SE::Google::Modern исправлено определение опечатки в запросе
  • ВGooglePlay::Apps исправлен проход по страницам
  • SE:: Dogpile, SE:: Dogpile::Images , SE:: DuckDuckGo
Исправления
  • Исправлен Safe search в SE:: DuckDuckGo::Images
  • Исправлены падения при работе с SE:: DuckDuckGo::Images
  • Исправлена ошибка при работе с модулем mysql2 версии более 1.5.3
  • Исправлен парсинг количества результатов в SE::Yandex


Сообщение добавлено 05.01.2019 в 14:06

Сборник статей #6: работа с API, сохранение в YML и мануал по подключению Node.js модулей
Это 6-й сборник статей, и в нем мы разберемся, как подключать к парсеру Node.js модули, научимся сохранять собранные данные в формате YML, а также изучим работу с API на реальном примере с созданием простого приложения. Поехали!
Работаем с API, часть 1
В этой статье на реальном примере будет показана работа с A-Parser через API. В результате будет создано простое приложение, которое будет получать позицию сайта по ключу в Гугл или Яндекс. Все подробности - по ссылке выше.


Выгрузка товаров для Я.Маркета в формате YML
YML (Yandex Market Language) - это стандарт представления данных, который используется для загрузки/выгрузки информации о товарах в Яндекс.Маркете. Используя А-Парсер, можно спарсить товары с различных сайтов и сохранить их в данном формате для дальнейшего импорта в Маркет. О том, как это сделать, можно почитать в статье по ссылке выше.


Подключение пакетов Node.js в A-Parser
Как известно, в A-Parser можно использовать Node.js модули для более эффективного парсинга. Поэтому, по ссылке выше мы опубликовали небольшой мануал по их установке и использованию.


Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники статей
  • Сборник статей #1: A-Parser для маркетологов, SEO-специалистов и реальный опыт работы
  • Сборник статей #2: цикл статей-уроков по созданию JS парсеров
  • Сборник статей #3: пагинация, переменные и БД SQLite
  • Сборник статей #4: добавление товаров в OpenCart и парсинг JSON
  • Сборник статей #5: собственный канал в Telegram и массовое добавление товаров в OpenCart


Сообщение добавлено 15.01.2019 в 15:30

Сборник рецептов #28: скидки в Google Play, автоматизация парсинга WordStat и типы Яндекс подсказок
28-й сборник рецептов. В нем будет показан способ автоматизации парсинга данных из Wordstat, пример парсинга информации о приложениях со скидками в Google Play, а также готовое решение для сбора подсказок из Яндекс вместе с их типами. Поехали!

Парсинг приложений со скидками в Google Play
Периодически в Google Play разработчики предлагают скидки на приложения, иногда на короткий срок платные становятся полностью бесплатными. С помощью A-Parser можно искать подобные предложения. Кроме этого, в этом парсере собирается множество дополнительных данных и используется сохранение в sqlite базу данных, поэтому его можно рассматривать как еще один пример работы с базами данных в А-Парсере. Готовое решение доступно в каталоге по ссылке выше.


Парсер поисковых подсказок Яндекс
В A-Parser есть стандартный парсер Яндекс подсказок, который по заданным ключевым словам собирает подсказки. Но Яндекс классифицирует подсказки по различным типам, которые в свою очередь позволяют использовать их более рационально, применяя соответствующие фильтры. Стандартный парсер подсказок не возвращает типы, поэтому по ссылке выше опубликован JS парсер для сбора подсказок вместе с их типами.


Автоматизация парсинга Wordstat
В этом парсере реализован автоматический сбор данных из WordStat. При этом, парсер проверяет наличие необходимых для данной задачи аккаунтов, и если требуется - то автоматически регистрирует их. Такое решение может быть полезно для организации периодического парсинга WordStat в автоматическом режиме. Готовое решение - по ссылке выше.


Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.
Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.


A-Parser - парсер для профессионалов SEO
SpySerp.com - бесплатный сервис отслеживания позиций
A-Parser Support вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 25.01.2019, 10:22   #5
 
Аватар для A-Parser Support
 
Сообщений: 13
FR (активность): 769

Доп. информация
По умолчанию Автор темы

1.2.387 - улучшенный Просмотр логов, новый парсер Яндекс SafeBrowsing, улучшения в JS парсерах

Улучшения
  • Улучшение Просмотра логов:
    • Фильтр по неудачным/выполняющимся задачам
    • Сортировка по времени выполнения
    • Поддержка пагинации и поиска по логам
    • Отображение парсера и запроса
  • Добавлен новый инструмент tools.memory - key/value хранилище в памяти
  • Добавлен новый парсер SE::Yandex::SafeBrowsing, который позволяет проверить сайт в блэклисте Яндекса
  • В SE::Google::Trends реализована возможность сравнивать данные по ключевым словам
  • Улучшения в логике Shop::Amazon
  • Улучшена стабильность JavaScript парсеров (движка v8)
  • JS парсеры: добавлен метод .addElement, который позволяет заполнять массивы в results более удобным способом
  • JS парсеры: добавлена опция resultArraysWithObjects для this.parser.request, которая позволяет возвращать массив объектов в результатах при вызове другого парсера
  • JS парсеры: добавлено кэширование DNS ответов

Исправления в связи с изменениями в выдаче
  • Исправлен парсинг мобильной выдачи в SE::Google::Modern
  • Исправлен SE:: DuckDuckGo::Images при работе с некоторыми видами запросов
  • Исправлен парсинг при 1-м результате в SE::Yandex
  • SE::IxQuick, SE:: DuckDuckGo, SE::Yandex::Translate, SE::Bing::Suggest

Исправления
  • Исправлена обработка пустых запросов в JavaScript парсерах
  • Исправлен вывод картинок в лог, проблема появилась в одной из предыдущих версий
  • Исправлена работа с некоторыми видами прокси
  • Исправлена работа опции Stop when found в SE::Yandex:osition
  • В SE::Yandex при получении ошибки от антигейта не менялись прокси
  • Исправлен парсинг ссылок на потенциально опасные сайты в SE::Yandex
  • JS парсеры: исправлена работа check_content с регулярными выражениями, в которых содержится кириллица
  • JS парсеры: исправлено зависание потоков при использование tls
  • JS парсеры: множественные исправления в работе сокетов


Сообщение добавлено 05.02.2019 в 14:48

Сборник рецептов #29: язык ключевых слов, нормализация запросов и сбор тайтлов в глубину
29-й сборник рецептов, в котором опубликован JS парсер для определения языка ключевых слов, предложен вариант решения для нормализации запросов, а также показано, как парсить карту сайту и одновременно собирать тайтлы страниц. Поехали!

Определение языка ключевого слова через Яндекс Переводчик
В A-Parser есть несколько встроенных парсеров для определения языка страницы. Но иногда возникают задачи отфильтровать список ключевых слов по одному или нескольким языкам. Определять язык текстовой строки довольно неплохо умеют различные переводчики, поэтому для решения задачи был выбран Яндекс Переводчик, и по ссылке выше доступен JavaScript парсер, реализующий определение языка ключевого слова.


Нормализатор запросов
При сборе семантического ядра часто возникает вопрос - какая форма запроса является наиболее частотной, например: "купить диван" или "диван купить". Если запрос 3-х или 4-хсловный, то вариантов становится еще больше. Решение такой задачи на базе парсера WordStat доступно в нашем Каталоге по ссылке выше.


Карта сайта и заголовки
Сбор карты сайта - это довольно простая задача для А-Парсера, которая решается встроенным парсером ссылок. Но иногда, кроме простого сбора ссылок, нужно еще и собрать тайтлы. И это можно делать параллельно с проходом по ссылкам в глубину. Готовый пресет доступен по ссылке выше.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Сообщение добавлено 15.02.2019 в 13:45

Видео урок: Создание JS парсеров. Использование Node.js модулей
Продолжение цикла уроков по созданию JavaScript парсеров. В этом уроке показано как использовать Node.js модули при написании собственных парсеров.
В уроке рассмотрено:
  • Работа с Node.js и Node package manager (npm)
  • Первый запуск npm, установка модулей (пакетов)
  • Использование модулей при создании JS парсера
  • Ресурсы для работы с npm
Ссылки:
  • https://npmjs.com/
  • https://learn.javascript.ru/screencast/nodejs
  • https://nodejs.org/
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 26.02.2019 в 16:33

Сборник рецептов #30: оценка страниц, форматирование дат и парсинг дропов
30-й сборник рецептов, в котором опубликован пресет для оценки сайтов с помощью open source инструмента Lighthouse, рассмотрен способ форматирования дат в парсере SE::Google::Trends SE::Google::Trends, а также показан способ поиска удаленных доменов. Поехали!

Оценка страниц с использованием Lighthouse
Еще один сервис по оценке сайтов, на этот раз от Google. С его помощью можно оценить веб-страницу по 4-м критериям: Performance, Accessibility, Best Practices и SEO. Пресет доступен в нашем Каталоге по ссылке выше.


Форматирование даты в парсере SE::Google::Trends
В A-Parser есть парсер, который позволяет собирать данные из Google Trends. Но даты в этом парсере возвращаются в формате Unixtime, что немного усложняет анализ получаемых данных. По ссылке выше показан простой способ преобразования дат к более удобному виду.


Парсер expired domains
Пресет для поиска и сбора дропов, а также их характеристик с сайта expireddomains.net. В качестве запросов нужно указывать ключевые слова, которые должны быть в доменном имени.


Еще больше различных рецептов в нашем Каталоге!
Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Сообщение добавлено 08.03.2019 в 14:05

1.2.434 - множество улучшений и новых возможностей в парсерах, оптимизация работы, поддержка SOCKS4

Улучшения
  • В SE::Yandex добавлен парсинг значков
  • В SE::Google::Modern добавлена опция Disable autocorrect, которая позволяет отключить автоисправление Гугла и парсить выдачу именно по указанному запросу
  • В SE::Yahoo добавлен выбор страны, языка и Safe Search, обновлен список доменов
  • В Net:: DNS добавлена возможность выводить записи любого типа
  • В Rank::MajesticSEO добавлена проверка контента и поддержка сессий
  • Значительно улучшенSE::Google::Suggest, добавлены новые возможности
  • В SE::IxQuickдобавлен параметр Family filter, позволяет выбрать уровень фильтрации
  • В Shop::Amazon добавлена возможность парсить количество продавцов для каждого товара
  • Теперь в SE::Yandex при получении 404 кода ответа парсер будет повторять попытку, также улучшена проверка контента
  • Теперь вRank::SEMrush при получении 403 кода ответа прокси будет баниться
  • Добавлена поддержка SOCKS4 прокси
  • Оптимизирована загрузка и сохранение конфига и файлов заданий
  • Улучшена скорость загрузки JS парсеров
  • Уменьшено использование памяти в JS парсерах
  • Улучшение производительности при использовании сокетов в JS парсерах
Исправления в связи с изменениями в выдаче
  • В SE::Google::Modern исправлен парсинг анкоров
  • В SE::Yandex::Images парсинг начинался со 2-й страницы
  • Исправлен парсинг ссылок в SE::Baidu
  • Исправлен парсинг countries в Rank::SEMrush::Keyword
  • SE:: DuckDuckGo, SE:: DuckDuckGo::Images, SE::IxQuick, Shop::Amazon
Исправления
  • В SE::Google::Modern исправлена проблема, при которой запрос считается неудачным при использовании Parse not found
  • Исправлена обработка пустой выдачи в SE::Yandex
  • Исправлена проблема, когда SE:: DuckDuckGo не парсил запросы в которых больше 1 слова
  • JS парсеры: исправлена работа setTimeout на Windows
  • Исправлен ряд ошибок, которые появились в процессе оптимизации парсера


Сообщение добавлено 19.03.2019 в 15:58

Сборник статей #7: сохранение в xlsx, работа с API и обзор методов автоматизации
7-й сборник статей. В нем мы научимся сохранять результаты в виде Excel файлов, продолжим изучение работы через API, а также ознакомимся с 5-ю способами автоматизации последовательного выполнения нескольких заданий. Поехали!

Сохранение результатов в формате Excel (.xlsx)
Вывод результатов в виде xlsx файлов (стандартный формат Excel) - это очень популярный вопрос среди пользователей A-Parser. Ранее такой возможности не было, но с добавлением поддержки Node.js модулей это стало возможным. Поэтому мы публикуем статью, в которой показан реальный пример парсинга с сохранением в Excel. Ознакомиться со всеми подробностями можно по ссылке выше.


Работаем с API, часть 2
Это вторая часть из цикла статей по работе с A-Parser через API. В ней на примере парсинга e-mail будет рассмотрен метод addTask. Все детали - по ссылке выше.


Обзор вариантов последовательного выполнения нескольких заданий
Очень часто возникают задачи, решение которых требует использования возможностей сразу нескольких разных парсеров и при этом результаты работы одного нужно передавать в следующий. А-Парсер - это очень гибкий инструмент, поэтому существует сразу несколько способов, как автоматизировать последовательное выполнение нескольких заданий, при этом максимально автоматизируя работу и повышая производительность. Описание всех возможных методов читайте в обзоре по ссылке выше.

Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Сообщение добавлено 29.03.2019 в 12:42

Видео урок: Работа с API, часть 2
Вторая часть из цикла уроков о работе с API A-Parser. В видео на реальных примерах показана работа с методами addTask, getTaskState, getTaskConf и getTaskResultsFile.

В этом уроке рассмотрены:
  • методы API для постановки длительных задач, а также для просмотра информации о задании
  • составление JSON для используемых API запросов
  • функция Получить API запрос
  • демонстрация работы с API, используя Postman
Документация по API: https://a-parser.com/wiki/user-api/

Также рекомендуем статью с несколькими интересными кейсами использования A-Parser от руководителя оптимизаторов в «Ашманов и партнёры» Никиты Тарасова: https://vc.ru/seo/61162-pravilno-sob...izheniya-sayta

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 19.04.2019 в 13:20

Сборник рецептов #31: скидка -50% на XEvil, скриншоты страниц, подсказки Я.Маркета и правописание
31-й сборник рецептов. В нем будет показан способ создания скриншотов веб-страниц, парсинг подсказок Яндекс Маркета, а также проверка правописания в Google. Кроме этого, только до конца апреля доступна возможность купить XEvil со скидкой. Далее обо всем по порядку.

Скидка -50% на покупку XEvil для существующих и новых пользователей A-Parser
Для всех существующих и новых пользователей A-Parser действует скидка на покупку XEvil -50%!
XEvil - это простая, быстрая и удобная программа для полностью автоматического распознавания и обхода подавляющего числа капч и рекапч, без необходимости подключения каких-либо сторонних сервисов. Использование XEvil в связке с A-Parser позволяет значительно удешевить парсинг ресурсов, где необходимо разгадывать капчи/рекапчи, при этом практически не теряя в скорости.
Акция действует до конца апреля. Количество промокодов ограничено, поэтому не упустите возможность воспользоваться скидкой!
Для получения промокода на покупку XEvil пишите в тикеты.


JS::Chrome::ScreenshotsMaker
Возможность загружать страницы с полной обработкой всех скриптов, аналогично браузеру - это один из самых популярных фичреквестов для A-Parser. Поэтому буквально недавно была добавлена поддержка Node.js модуля puppeteer, с помощью которого теперь можно получать полностью отрендеренные страницы. И мы публикуем первый пример по работе с ним - парсер для создания скриншотов веб-страниц. Больше информации, пример работы и готовый парсер - все это доступно по ссылке выше.


Парсер подсказок Яндекс.Маркет
Еще один парсер подсказок, на этот раз из Яндекс Маркета. Собираются подсказки, их популярность (частота), тип, а также, опционально, категория (включая полный путь родительских категорий). Готовый парсер, как обычно, доступен в нашем Каталоге по ссылке выше.


Проверка правописания в Google
Данный парсер позволяет проверить ключевые слова через поиск Google на предмет опечаток и получить исправленные варианты. Готовый пресет доступен по ссылке выше.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Сообщение добавлено 30.04.2019 в 16:04

Видео урок: Работа с MySQL
Видеоурок по работе с MySQL в A-Parser. В нем на реальном примере показано как работать с базами данных MySQL, используя Node.js модуль mysql2.


В этом уроке рассмотрены:
  • Установка и подключение модулей
  • Некоторые основы языка запросов SQL
  • Создание базы данных MySQL
  • Получение и запись данных в БД, используя JS-парсеры

Полезные ссылки:
  • https://www.mysql.com/products/workbench/
  • https://www.npmjs.com/package/mysql
  • https://a-parser.com/resources/308/

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

Сообщение добавлено 10.05.2019 в 15:01

Сборник рецептов #32: Yahoo Answers, контакты фрилансеров и оценка ключевых слов

32-й сборник рецептов, в котором подобраны 3 JS парсера для парсинга Yahoo Answers, оценки ключевых слов и сбора контактных данных фрилансеров.

Парсер Yahoo Answers
Полноценный парсер сервиса Yahoo Answers, который по ключевым словам позволяет собирать непосредственно вопросы, ответы, а также их категории, дату создания и ссылки на страницы обсуждений.


Парсинг контактов фрилансеров
Парсер, который ищет по ключевым словам фрилансеров и собирает их контакты. Данные собираются с сервиса fl.ru.


Анализ ключевых слов
Парсер для сервиса seranking.com. Кейворды оцениваются по 4-м показателям: частотность, стоимость клика (CPC), стоимость трафика и KEI. Также есть возможность собирать похожие, релевантные и подсказки к начальному запросу вместе с их показателями.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.


A-Parser - парсер для профессионалов SEO
SpySerp.com - бесплатный сервис отслеживания позиций
A-Parser Support вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 21.05.2019, 14:21   #6
 
Аватар для A-Parser Support
 
Сообщений: 13
FR (активность): 769

Доп. информация
По умолчанию Автор темы

1.2.484 - 4 новых парсера, улучшение работы и исправление существующих

Улучшения
  • Новые парсеры:
    • Maps::Google - по ключевым словам собирает различные данные об организациях в заданных координатах
    • Maps::Yandex - по ключевым словам собирает различные данные об организациях в заданных координатах
    • Rank::Bukvarix:: Domain - сбор ключевых слов по домену
    • Rank::Bukvarix::Keyword - сбор ключевых слов по домену
  • Удалены 4 неактуальных парсера: Rank::SEMrush::Keyword, SE::QIP, SE::QIP:osition, Rank::MegaIndex
  • Улучшена работа SE::AOL
  • JS парсеры: для this.request добавлена опция data_as_buffer, которая определяет возвращать data как строку(String) или объект Buffer

Исправления в связи с изменениями в выдаче
  • В SE::Google::Modern исправлена работа с рекаптчами, исправлен парсинг сниппетов, а также исправлен парсинг мобильной выдачи
  • Rank::SEMrush полностью переписан, также полностью изменился список собираемых данных, парсер возвращает только те данные, которые доступны без авторизации
  • Полностью переписан Rank::Alexa
  • Исправлена работа Rank::MajesticSEO, теперь обязательно требуется установка Node.js и модуля brotli
  • В Rank::Social::Signal удалена переменная $facebook_share в связи с прекращением поддержки со стороны FB
  • SE::IxQuick, Shop::AliExpress, SE:: DuckDuckGo::Images , Shop::Amazon, Check::RosKomNadzor

Исправления
  • Исправлена работа с запросами, содержащими пробел в SE:: DuckDuckGo
  • Исправлена проблема с декомпресией данных на некоторых сайтах
  • JS парсеры: исправлена работа setImmediate


Сообщение добавлено 31.05.2019 в 17:29

Видео урок: Получение уведомлений в Telegram об окончании срока регистрации доменов
В этом видеоуроке будет показано, как настроить периодическую проверку окончания срока регистрации доменов, и получать уведомления в телеграм, если он меньше заданного количества дней.

В уроке рассмотрено:
  • использование tools.js для написания собственных функций
  • работа с шаблонизатором Template Toolkit
  • проверка доменов через WHOIS
  • цепочки заданий
  • отправка сообщений в Telegram с помощью бота
Полезные ссылки:
  • https://a-parser.com/threads/4316/ - статья о создании бота и группы для получения уведомлений в Telegram
  • https://a-parser.com/resources/304/ - видеоурок по созданию Телеграм канала на базе A-Parser
  • https://a-parser.com/resources/287/ - готовые для импорта пресеты
  • https://core.telegram.org/bots/api - документация по Telegram Bot API
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!



Сообщение добавлено 11.06.2019 в 13:50

1.2.503 - обновление JavaScript движка и множество улучшений

Улучшения
  • Движок v8 обновлен до версии 7.5, помимо увеличения скорости есть множество улучшений в поддержке новых возможностей языка JavaScript
  • В SE::Yandex в массив $ads добавлена переменная $visiblelink, в которой содержится видимая ссылка
  • В Rank::Bukvarix:: Domain добавлена переменная $totalcount которая содержит количество результатов
  • В SE::Yahoo добавлена опция Not found is error, указывающая, считать ли отсутствие результатов ошибкой

Исправления в связи с изменениями в выдаче
  • Исправлен парсинг $title в Shop::Yandex::Market
  • В SE::Google::Modern исправлен парсинг видео в мобильной выдаче
  • В Maps::Yandex исправлен парсинг рейтингов
  • Исправлена проверка получаемого контента в SE::Yahoo
  • SE:: DuckDuckGo, Shop::Amazon, SE:: DuckDuckGo::Images
Исправления
  • Исправлена редкая проблема с ошибками в JS парсерах на Windows
  • В SE::Baidu исправлена работа функции Get full links для результатов без ссылок
  • Исправлена проблема с Decode JSON error в парсерах WordStat
  • Исправлен баг с перезагрузкой кода JS парсера при редактировании в сторонних приложениях, проблема возникла в одной из предыдущих версий


Сообщение добавлено 21.06.2019 в 13:33

Сборник рецептов #33: парсинг Google карт, сбор вопросов из поиска, перевод текстов целиком
33-й сборник рецептов, в котором мы будем собирать данные из Google maps в указанной местности, спарсим блок вопросов и ответов в поиске Гугла и научимся использовать файлы целиком в качестве запросов. Поехали!

Сбор всех организаций в определенной местности
Начиная с версии 1.2.482 в A-Parser появились парсеры карт Google и Яндекс. Принцип работы обоих одинаков - в настройках указываются координаты точки и зум, парсер собирает результаты поиска по ключевым словам в этой точке и области вокруг нее, ограниченной зумом. Но если стоит задача собрать данные, например, со всего города, то для ее решения нужно указывать диапазон координат и "заставить" парсер пройтись по ним. Как это сделать, а также пример пресета - все это показано по ссылке выше.


Парсер собирающий вопросы и ответы из выдачи Google
Google по некоторым запросам показывает в поисковой выдаче блок вопросов и ответов People also ask (Похожие запросы). Наши пользователи периодически интересуются, как можно парсить этот блок, получая отдельно вопросы и ответы на них. Поэтому мы публикуем в нашем каталоге пример такого парсера, а забрать его можно по ссылке выше.


Использование файлов целиком в качестве запросов
Общеизвестно, что в А-Парсере каждая строка в исходном файле - это отдельный запрос. Но существуют задачи, когда необходимо использовать все содержимое файла как один запрос, игнорируя разбивку на строки. Благодаря JavaScript парсерам такая возможность есть и по ссылке выше опубликован пример парсера, который получает все содержимое файла, переводит его на заданный язык и сохраняет в новый файл.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.
Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.



Сообщение добавлено 02.07.2019 в 16:26

Видео урок: Макросы подстановок
В этом видеоуроке мы изучим один из инструментов для работы с запросами - макросы подстановок. С их помощью можно значительно увеличивать количество запросов, листать страницы и многое другое.

В уроке рассмотрено:
  • макрос {num} на примерах прохода по страницам и перебора координат в парсере Google maps
  • макрос {az} на примере парсинга по доркам для увеличения кол-ва запросов и соответственно результатов
  • макрос {each} на примере парсинга подсказок для генерации словосочетаний

Полезные ссылки:
  • https://a-parser.com/wiki/query-form...тановок - документация по макросам подстановок
  • https://a-parser.com/resources/336/ - пресет по перебору координат в Maps::Google
  • https://a-parser.com/resources/340/
  • https://a-parser.com/resources/341/ - пресет для парсинга с inurl:
  • https://a-parser.com/resources/342/ - пресет для парсинга подсказок

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!



Сообщение добавлено 12.07.2019 в 17:09

1.2.534 - 6 новых парсеров, поддержка Node.js в tools.js, множество исправлений в парсерах

Улучшения
  • Добавлено 4 новых парсера Instagram
    • Social::Instagram:: Post - парсинг данных о постах, в т.ч. комментарии и пользователей, которые лайкнули пост
    • Social::Instagram:: Profile - парсинг данных о профилях и списка постов
    • Social::Instagram::Tag - парсинг постов по тегах
    • Social::Instagram::Geo - парсинг постов в определенной локации
  • Добавлено 2 новых парсера SerpStat
    • Rank::SerpStat::Keyword - парсинг данных по ключевому слову
    • Rank::SerpStat:: Domain - парсинг данных по доменам/ссылкам
  • Добавлена поддержка дробных чисел в макросе подстановок {num}
  • Добавлена поддержка Node.js в tools.js, теперь можно использовать возможности Node.js (включая модули) в обычных пресетах во всех полях кроме Parse custom results, фильтров и Конструкторов результатов
  • Шаблоны Template Toolkit в настройках парсеров теперь работают для всех запросов
  • Стабилизирована работа SE::Google::Modern после изменений со стороны Google, благодаря чему несколько уменьшилось количество рекаптч
  • Улучшена проверка ответа в Maps::Yandex, улучшен сбор картинок, а также добавлена возможность собирать ссылки на страницу организации
  • API: для oneRequest/bulkRequest добавлен параметр needData, указывающий, передавать ли в ответе data/pages, используется для экономии памяти, по умолчанию отключен
  • Обновлены apps.json и user-agents.txt, при установке обновления также рекомендуется обновить эти файлы
Исправления в связи с изменениями в выдаче
  • Исправлена ситуация, при которой в SE::Google::Modern выдавался 597 код ответа
  • В SE::Yandex исправлена ситуация, при которой в результатах появлялись "пустые" ссылки, а также исправлен парсинг сниппетов в мобильной выдаче
  • Исправлена редко встречающаяся проблема с SE::Google::Translate, когда парсер получал в ответ 403 статус
  • Исправлено определение языка запроса в SE::Google::Translate
  • Исправлена работа SE::YouTube, а также исправлен сбор $title
  • В Rank::Social::Signal удалена переменная $linkedin_share в связи с прекращением поддержки со стороны LinkedIn
  • В Shop::Yandex::Market исправлен парсинг $features для некоторых видов запросов
  • Исправлен урл запроса в SE:: DuckDuckGo
Исправления
  • Исправлен баг в Rank::Bukvarix:: Domain, из-за которого в некоторых случая парсинг завершался с ошибкой
  • В парсерах Maps::* исправлена работа с отрицательными координатами
  • В Rank::SEMrush исправлена ошибка определения "удачности" запроса
  • Исправлен баг в tools.js, возникший после обновления V8
  • API: исправлена работа метода getAccountsCount
  • JS парсеры: исправлен баг со слэшем в check_content


Сообщение добавлено 23.07.2019 в 13:50

Сборник статей #8: ссылки с GET параметрами, скачивание Google документов, очистка очереди через API
8-й сборник статей. В нем мы научимся парсить ссылки с GET параметрами, искать в поиске Google и скачивать документы, а также узнаем как очищать очередь заданий через API. Поехали!

Сбор ссылок с GET параметрами
В техническую поддержку часто задают вопрос, как собирать ссылки с GET параметрами для поиска SQL уязвимостей. Поэтому, по ссылке выше мы расскажем как это сделать, используя стандартный парсер Google.


Поиск и скачивание Google документов
За последнее время уже несколько раз появлялись новости о том, что Google индексирует пользовательские документы, размещенные в их одноименном сервисе и открытые для доступа по ссылке. Соответственно все эти файлы становятся доступны в поиске. И пока Google разбирается с этим, по ссылке выше мы рассказываем как можно искать и скачивать такие документы.


Работаем с API, часть 3
Третья и заключительная часть из цикла статей по работе с A-Parser через API. В ней на примере очистки очереди задач будет рассмотрена работа со вспомогательными запросами, которые позволяют работать с очередью заданий. Все детали - по ссылке выше.

Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.



Сообщение добавлено 02.08.2019 в 11:35

Сборник рецептов #34: оценка трафика, парсинг Ahrefs и информация об IP адресах

34-й сборник рецептов, в котором опубликован пресет для оценки количества трафика на сайтах, парсер Ahrefs через API и пресет для парсинга информации об IP адресах. Поехали!

Чек трафика сайта
Пресет для проверка трафика сайта через сервис siteworthtraffic.com. Собираются данные о количестве уникальных постетителей и просмотров, а также о доходе с рекламы. Оценка трафика на сайтах может быть полезна для фильтрации списка сайтов по критерию прибыльности и популярности. Пресет доступен по ссылке выше.


Парсер Ahrefs на основе Ahrefs API
Парсер для сбора данных из популярного сервиса Ahrefs через их официальное API. Собирается множество данных, которые позволяют оценивать домены по различным характеристикам. Для использования нужен API ключ, который приобретается отдельно.


Парсинг подсети и организации по IP
Небольшой пресет для сбора информации об IP адресе, а именно: подсеть, организация, страна и город. Данные собираются из сервиса whoer.net.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Все сборники рецептов



Сообщение добавлено 30.08.2019 в 16:03

Видео урок: Поиск страниц контактов
В этом видео уроке рассмотрен пример решения задачи по поиску страниц контактов у заданного списка сайтов. Также парсится тайтл и все это сохраняется в CSV файл.

В уроке рассмотрено:
  • парсинг поиска Google для получения ссылки на страницу контактов
  • парсинг главной страницы сайта для получения title
  • использование инструмента $tools.CSVline для форматирования файла результата
  • пример правильного импорта в Excel
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!



A-Parser - парсер для профессионалов SEO
SpySerp.com - бесплатный сервис отслеживания позиций
A-Parser Support вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 09.09.2019, 17:16   #7
 
Аватар для A-Parser Support
 
Сообщений: 13
FR (активность): 769

Доп. информация
По умолчанию Автор темы

Сборник рецептов #35: комментарии на Youtube, контакты на сайтах и японский Yahoo
35-й сборник результатов, где мы будем собирать комментарии из Youtube, искать контакты (телефоны и почты) на сайтах, а также парсить японскую выдачу Yahoo. Поехали!
Парсинг комментариев из Youtube
Представляем вашему вниманию JS парсер комментариев для видео на Youtube. С его помощью можно собирать тексты комментариев, а также информацию об авторах комментариев индивидуально для каждого видео. Также реализована возможность указывать количество страниц с комментарими, что позволяет при необходимости ограничить их сбор и тем самым увеличить скорость работы.


Извлекаем телефоны, начинающиеся на 3 с помощью HTML::EmailExtractor
Пресет, в котором показано, как с помощью HTML::EmailExtractor HTML::EmailExtractor собирать контакты со страниц сайтов. Данный пресет предназначен для сбора e-mail и телефонов, начинающихся с 3 (Украина), но при необходимости можно немного изменить регулярные выражения и собирать телефоны других стран.


SE::Yahoo::JP
JS парсер для парсинга японской выдачи Yahoo. Используется домен search.yahoo.co.jp. Собираются ссылки, анкоры и сниппеты, а также есть возможность задать количество страниц для парсинга.


Еще больше различных рецептов в нашем Каталоге!

Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.



A-Parser - парсер для профессионалов SEO
SpySerp.com - бесплатный сервис отслеживания позиций
A-Parser Support вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Ответ

Метки
a-parser, seo, seo faq, seo анализ

Быстрый ответ
Ваше имя пользователя: Регистрация. Для входа нажмите здесь
Случайный вопрос

Сообщение:
Опции


Опции темы
Опции просмотра Оценка этой теме
Оценка этой теме:

Ваши права в разделе
Вы не можете создавать новые темы
Вы можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
A-Parser - многопоточный парсер поисковых систем... A-Parser Support Софт оптимизатора, SEO утилиты 7 21.07.2017 13:38
[ Статья ] XEvil (автораспознавание капчи) + SELKA (бесплатный парсер поисковых систем) nnp0919 Песочница 0 29.03.2017 15:55
[ Бесплатно ] TopParser - парсер ТОПа 24-х поисковых систем bescom Софт оптимизатора, SEO утилиты 0 09.10.2016 12:51
YaGoParser - Парсер поисковых систем [Win] Imad Программы, движки 0 18.07.2016 12:29
WebParser теперь на форуме SeoCafe, Парсер поисковых систем яндекс, гугл... Angelys Программы, движки 34 25.03.2014 11:20

Текущее время: 05:31. Часовой пояс GMT +3.