Middle MLOps Engineer (Recommendation Systems)

Дата размещения вакансии: 28.09.2025
Работодатель: WILDBERRIES
Уровень зарплаты:
з/п не указана
Город:
Москва
Требуемый опыт работы:
От 3 до 6 лет

Объединённая компания Wildberries и Russ — это международная технологическая компания, образованная в результате слияния двух лидеров рынка — IT-компании Wildberries и оператора наружной рекламы Russ.

Сейчас мы ищем Middle MLOps Engineer в команду Рекомендаций. Наша команда по-своему уникальна, так как очень тесно связана с бизнес- продуктами, которые выводятся на реальных пользователей с помощью наших технологий.

Над алгоритмами и продуктами рекомендаций трудится большое количество DS/ML специалистов, которым необходимо предоставить все условия, чтобы их процесс разработки от идеи до выкатки в prod был удобным, понятным, быстрым и безопасным.

Для организации этого процесса мы разрабатываем и внедряем различные инструменты, а также выстраиваем ML инфраструктуру - как для ресерча, так и для продовых запусков.

Вам предстоит:

  • Развивать существующие MLOps инструменты, утилиты и библиотеки, повышать их надежность, внедрять новые "фичи";

  • Помогать DS'ам в создании пайплайнов и сервисов в production среде (помощь в продуктивизации), оптимизировать их производительность;

  • Внедрять MLOps инструменты для автоматизации процессов жизненного цикла ML-моделей;

  • Проводить юнит / интеграционное / нагрузочное тестирование для сервисов / ML моделей перед выкаткой в production;

  • Развивать системы мониторинга и логирования ML решений;

  • Повышать качество внешней и внутренней документации по нашим продуктам.

Вы нам подходите, если:

  • Владеете Python на продвинутом уровне;

  • Имеете опыт на аналогичной позиции от 3 лет;

  • Имеете опыт деплоя в production с помощью Kubernetes / Docker, выстраивания CI/CD пайплайнов (Gitlab CI/CD) и продвинутый опыт использования VCS (Git);

  • Обладаете знаниями и опытом в оптимизации ML моделей для инференса, работали с фреймворками для инференса ML/LLM моделей (Triton Nvidia Inference Server, vLLM);

  • Знаете различные современные DS/ML фреймворки на уровне запуска локальных моделей (Polars, PyTorch, Transformers), а также библиотеки для веб-разработки: asyncio, FastAPI, Celery (SAQ);

  • Знакомы с компонентами мониторинга и логирования (Thanos, Grafana, OpenSearch), имеете понимание современных алгоритмов машинного обучения и жизненного цикла ML модели;

  • Обладаете практическим опытом использования / внедрения с дальнейшей эксплуатацией MLOps инструментов - Airflow, Dagster, Argo Workflows, Prefect, Flyte, MLFlow, DVC, LakeFS, Seldon Core, KubeFlow.

Будет плюсом:

  • Продвинутая оптимизация инференса ML/LLM моделей (Quantization Aware Training, Post Training Quantization, PV Tuning и др.);

  • Опыт построения online/offline Feature Store собственными силами, либо с помощью готовых решений: Feast, Tecton;

  • Опыт работы с online/offline надежным и быстрым векторным поиском (Qdrant, LanceDB);

  • Опыт написания пайплайнов / оптимизации запросов на Spark под экосистемой Hadoop.

Наш стек:

MLOps: Kubernetes, Gitlab CI/CD, JupyterHub, Airflow, ClearML, Qdrant, Triton Nvidia Inference Server, vLLM, Kong, Label Studio
DE: Greenplum, ClickHouse, DataLens, Spark / Hadoop
DevOps: Nginx, Katran, Helm

Преимущества для сотрудников:

  • Обучение и развитие: языковые клубы, собственный корпоративный университет, программы развития управленческих навыков и многое другое;

  • Благополучие сотрудников: корпоративный пакет ДМС со стоматологией, корпоративный спорт, консультации психолога и дополнительные возможности аккредитованной IT-компании;

  • Множество сообществ: клуб спикеров, футбола, йоги, шахмат и т.д.;

  • Забота о семьях: создаем условия, в которых легко сочетать карьеру и заботу о близких – от гибкого подхода до масштабных проектов для детей сотрудников;

  • Скидки и партнерские программы: на обучение, страхование, покупки и многое другое;

  • Комфортная рабочая среда: бесплатное питание в офисе, современные офисы рядом с метро, корпоративная техника и портал для сотрудников.