Мы ищем специалиста по краулингу и сбору данных, который умеет «добывать» данные из разных источников и превращать их в структурированную основу для аналитики.
Наша цель — не просто разработка краулеров, а построение масштабируемой системы, где сбор данных интегрирован с их дальнейшей AI-классификацией и обработкой.
Что предстоит делать:
• Разрабатывать и поддерживать краулеры для разных сайтов и платформ.
• Настраивать пайплайны для сбора, очистки и хранения данных.
• Работать с системами парсинга (HTML, JSON, XML, API).
• Оптимизировать скорость и качество сбора информации.
• Участвовать в создании инфраструктуры для автоматической классификации данных с помощью AI.
Ожидаем:
• Опыт в веб-скрапинге / краулинге (Python: Scrapy, Selenium, Playwright или аналоги).
• Знание работы с API и сетевыми протоколами (HTTP, REST).
• Навыки работы с базами данных (SQL/NoSQL).
• Понимание принципов обработки и очистки данных.
• Опыт работы с ML/AI-моделями.
•Английский разговорный.
Мы предлагаем:
• Участие в развитии инновационной системы сбора и анализа данных.
• Возможность прокачаться в области AI-технологий.
• Фуллиайм, гибкое начало дня, удалённый формат.
• Работа, которая даст результат, а не просто таски.
• Хорошая ЗП, достойная твоих извилин)
Откликаясь, укажи о своем опыте с AI ;)