Data Scientist (Рекламная платформа)

Дата размещения вакансии: 27.09.2024
Работодатель: СБЕР
Уровень зарплаты:
з/п не указана
Город:
Москва
Требуемый опыт работы:
От 1 года до 3 лет

Наша команда Ранжирования создает предиктивные модели и высоконагруженные сервисы по их применению. Все модели используются в real-time аукционах на показ рекламы: сначала выбирая релевантные объявления для показа пользователю, а потом определяя ставку в аукционе. Команда напрямую влияет на качество показываемой рекламы, удовлетворенность рекламодателей и эффективность SberAds.

Ищем Machine Learning Engineer, который присоединится к команде из DS/ML-engineer-ов, DE, DA и Go-разработчиков.

Наш стек: Python, Go, Hadoop, Spark, Hive, Airflow, Kafka, ClickHouse, SuperSet, Grafana.

Обязанности

  • Строить/улучшать модели для разных частей всего пайплайна. Основные - модели для прогнозирования конверсии, для определения ставки и для ранжирования кандидатов;
  • Заниматься полным циклом DS/ML задач;
  • Участвовать в создании и развитии платформы ранжирования рекламы;
  • Улучшать процесс построения моделей (от выдвижения гипотез до мониторинга работы модели).

Примеры задач:

  • Построить эмбеддинги на основе описания рекламных объявлений. Добавить эти данные в модели прогнозирования конверсии;
  • Обучить модель для прогнозирования распределения ставок в аукционах. Совместить модель с текущим алгоритмом определения ставки;
  • Провести эксперименты с новыми офлайн/онлайн признаками в моделях. Доставить признаки до сервиса на Go (тут если что помогут коллеги);
  • Приземлить новое продуктовое требование на текущие алгоритмы и подготовить изменения. Например, внедрить новую стратегию ранжирования рекламы при условии, что стоимость за привлеченный клик не должна превышать трешхолд.

Требования

  • Знание классического ML и современных Deep Learning подходов;
  • Уверенный опыт разработки на Python, в том числе знание библиотек pandas, numpy, sklearn, torch;
  • Умение принимать решения на основании данных и аргументировать свою позицию;
  • Понимание принципов распределенной обработки данных, опыт работы со Spark;
  • Умеете выходить за рамки jupyter ноутбука и не боитесь писать подакшн-код (pytest, airflow).

Условия

Интересные задачи по продуктам, влияющим одновременно на всю Экосистему;

Команда специалистов из топовых ИТ компаний;

Регулярное обучение и профильные конференции, современное оборудование для работы;

Уровень дохода, который готовы обсуждать и отталкиваться от ваших пожеланий, плюс премии;

Комфортный офис и гибкий график;

Множество плюшек от Сбера.