MLOps-инженер

Дата размещения вакансии: 24.02.2026
Работодатель: Росгосстрах
Уровень зарплаты:
з/п не указана
Город:
Москва
Киевская улица 7
Требуемый опыт работы:
От 3 до 6 лет

Росгосстрах сейчас активно развивает внутреннюю платформу - экосистему AI-сервисов для автоматизации ключевых процессов компании. Для этого формируем новую команду, которая будет фокусироваться на улучшении ключевых метрик моделей, минимизацию временных затрат на их разработку и выведению в промышленную эксплуатацию.

Ключевой стек:

Оркестрация и деплой: Kubernetes, Docker
ML-инфраструктура: Airflow, MLflow, Jfrog Artifactory
Бэкенд и API: FastAPI, Pydantic, SQLAlchemy, asyncpg
Базы данных: PostgreSQL, Redis, ArangoDB, OpenSearch
Языки и инструменты: Python, Bash, Git
CI/CD и VCS: Bitbucket, Bamboo

Что предстоит:

  • Работа с уже существующими ML-моделями: встраивание в бизнес-процессы, масштабирование и вывод в продакшен;
  • Настройка и поддержка пайплайнов и сервисов для batch- и online-инференса;
  • Разработка и отладка DAG-ов в Airflow;
  • Контейнеризация сервисов и эксплуатация моделей в Kubernetes;
  • Разработка и поддержка API на FastAPI для интеграции моделей;
  • Обеспечение стабильной работы ML-сервисов в продакшене;
  • Версионирование моделей и управление артефактами;
  • Оптимизация инференса и контроль использования ресурсов;
  • Участие в развитии инфраструктуры полного жизненного цикла ML-моделей.

Для нас важно:

  • Опыт работы в области MLOps/DevOps/ML-engineer от 3 лет;
  • Понимание ML-алгоритмов и жизненного цикла модели:
    • от постановки задачи, экспериментов и версионирования до деплоя и мониторинга в продакшене;
    • знаете, как работают бустинги;
    • чем трансформеры (LLM) отличаются от классических сетей;
    • знаете, что такое эмбеддинги и для чего они применяются.
  • Python и FastAPI:
    • уверенное владение асинхронным/многопоточным программированием (asyncio, threading, multiprocessing);
    • ООП с принципами SOLID;
    • проектирование поддерживаемых, документированных и высоконагруженных API;
    • Работа с SQLAlchemy, асинхронными драйверами базы данных.
  • Airflow: разработка и отладка DAG-ов для batch-инференса моделей;
  • Контейнеризация и оркестрация: работа с Docker и Kubernetes — опыт эксплуатации production-кластеров, настройка лимитов;
  • Работа с базами данных: SQL, NoSQL - владение реляционными БД для хранения структурированных данных.

Является преимуществом:

  • KServe / Seldon / TorchServe — опыт развертывания моделей на inference-платформах.
  • Triton Inference Server — оптимизация инференса, динамическое батчирование, работа с разными бекендами (TensorRT, ONNX).
  • опыт инференса больших языковых моделей (vLLM, llama), оптимизация GPU-памяти, continuous batching.
  • Агенты: опыт проектирования агентных систем, работа с LangChain, LlamaIndex, LangGraph
  • Real-time системы: Kafka, RabbitMQ, streaming-инференс, Faust.

Мы предлагаем:

  • Полностью "белая" зарплата, премии;
  • График работы 5/2;
  • Возможен удаленный формат работы;
  • Подключение к ДМС после успешного прохождения испытательного срока;
  • Корпоративные скидки на страховые продукты (автострахование, ВЗР и т.д.);
  • Корпоративные скидки на фитнес, магазины-партнёры, книги и др.;
  • Электронная библиотека с более чем 3000 книг на самые актуальные темы;
  • Специальные мероприятия для сотрудников и их детей, подарки на Новый год.