ML-инженер/ML Engineer

Дата размещения вакансии: 29.10.2025
Работодатель: Чекашкин Александр Валерьевич
Уровень зарплаты:
от 85000 до 140000 RUR
Город:
Москва
2-я Брестская улица 39с4
Требуемый опыт работы:
От 1 года до 3 лет

О компании

ServerFlow — компания, специализирующаяся на продаже и интеграции серверного оборудования. В частности, мы работаем с современными GPU-платформами, создавая высокопроизводительные решения для бизнеса и науки в сфере искусственного интеллекта.

Сегодня рынок резко смещается в сторону AI-инфраструктуры, и спрос на локальное внедрение моделей ИИ растёт. Мы запускаем новое направление — развёртывание и оптимизация open-source-моделей на наших серверах. Для этого нам нужен ML-инженер, который поможет соединить вычислительное «железо» и реальные AI-решения.

Во время работы Вам предстоит самостоятельно размещать ИИ модели на серверах. Вам потребуется администрировать Linux, работать с .venv, Docker, container toolkit, huggingface_hub. Мы ожидаем от кандидата опыт работы с llama.cpp/vLLM/SGLang. Вы должны быть уверенным пользователем Linux.

Задачи

  • Развёртывание open-source-моделей (DeepSeek, LLaMA, Qwen, Mistral, Gemma, Stable Diffusion и др.) на серверном оборудовании компании.

  • Проектирование архитектуры развёртывания — от выбора дистрибутива Linux до настройки движков инференса (vLLM, SGLang, Llama-cpp, TensorRT-LLM и др.).

  • Подбор оптимальной конфигурации под конкретные модели: GPU, CPU, память, накопители и др..

  • Интеграция RAG-систем (Retrieval-Augmented Generation): LangChain, LlamaIndex, RAGFlow, GraphRAG, Agentic RAG и др.

  • Настройка пайплайнов, квантизации (FP16, FP8, INT4, Q4_K_M и др.), а также базовых параметров нейронок для инференса и fine-tuning.

  • Подготовка и дообучение моделей (LoRA, QLoRA, PEFT), настройка форматов весов (safetensors, GGUF, bin, pt и др.).

  • Работа с backend-ами и фреймворками: PyTorch, TensorFlow, ONNX Runtimee.

  • При необходимости — автоматизация рутинных задач на Python (скрипты, пайплайны, API-обвязки).

Требования

  • Опыт развёртывания или сопровождения open-source-LLM (DeepSeek, LLaMA, Mistral, Qwen и др.).

  • Понимание принципов работы трансформеров и диффузионных сетей.

  • Уверенное владение Linux (Ubuntu/Debian или RHEL подобные дистрибутивы).

  • Знание основ Docker, venv, conda, git.

  • Базовые навыки Python (автоматизация, API, bash-скрипты).

  • Желательно — понимание RAG-архитектуры и инструментов (LangChain, LlamaIndex, RAGFlow).

  • Будет плюсом: опыт fine-tuning, знание форматов хранения весов, участие в проектах Hugging Face.

  • Если вы внимательно прочитали анкету, напишите фразу "Хочу работать ML-инженером в московском офисе без удаленки, я уверенный пользователь Linux" в сопроводительном, так мы поймем, насколько вы погрузились :)

Мы предлагаем

  • Работа с современной AI-инфраструктурой и GPU-серверами.
  • Возможность строить с нуля направление AI-интеграции внутри компании.
  • Свобода выбора технологий и инструментов.
  • Доступ к современному железу, open-source-моделям и тестовым стендам.
  • Перспектива вырасти в технического лида направления AI-инфраструктуры.
  • Бонусы, премии за успешную, эффективную работу.
  • График работы 5/2 с 10-19 часов. Полная занятость. Отпуск 28 календарных дней.
  • Офис находится в 5 минутах пешком от ст. м. Белорусская.

Приятные бонусы:

В 5 минутной доступности от офиса имеются всевозможные кафе и магазины.

  • В офисе имеется безлимитный кофе, чай и базовые снеки.
  • Возможность обучаться у ведущих специалистов по AI инфраструктуре, GPU серверным решениям и системам виртуализации.