Москва
Мы в поиске Data Scientist в команду Рекламной платформы.
В нашей команде мы создаем высоконагруженный сервис для рекламного продвижения на платформе Lamoda. Наша цель – выйти за рамки классических подходов рекомендательных систем и достичь гармонии между релевантностью контента и финансовыми результатами.
Наши алгоритмы дополняют рекомендательную систему сайта, предоставляя пользователям лучший опыт взаимодействия и одновременно обеспечивая платформе высокий уровень дохода.
Предстоит работать над задачами для всех участников рекламы:
- Для пользователей: Улучшать модели машинного обучения, которые обеспечивают персонализированное качество рекламы в режиме реального времени, делая взаимодействие с платформой комфортным и полезным.
- Для рекламодателей: Разрабатывать инструменты для эффективного распределения бюджета и автоматизации участия в рекламных аукционах.
- Для платформы: Создавать методы оптимального распределения рекламного контента и персонализировать его объем для каждой аудитории.
Мы ожидаем:
- Опыт работы от 3 лет.
- Владение Python и умение писать сложные SQL-запросы.
- Отличное понимание классического ML и опыт работы с основными DS-библиотеками.
- Опыт работы с Hadoop, Spark, Airflow, Docker.
- Опыт вывода ML-моделей в прод для решения бизнес-задач.
- Знание математической статистики, теории вероятности, алгоритмов и структур данных.
- Опыт проведения A/B-тестов и анализа их результатов.
Будет плюсом:
- Опыт в рекламных технологиях, рекомендательных системах и других высоконагруженных сервисах.
- Знания основ и опыт применения Deep Learning.
- Высшее образование в области математики, информационных технологий и т.п.
Стэк технологий: Big data (Hadoop, PySpark, Hive), Python, Catboost, Airflow, Docker, SQL.
Почему у нас классно:
- Полный жизненный цикл разработки data-driven продуктов с применением ML - от генерации идеи и до подведения результатов АБ-теста.
- Кросс-функциональная команда со всеми необходимыми компетенциями для развития продукта.
- Культура code review и принятия решений на основании данных.
- Всё необходимое железо для работы: мощные ресерч-сервера с GPU и большой Hadoop-кластер.
- Сильная команда специалистов и развитое DS-сообщество - активно обмениваемся знаниями и выступаем на митапах.