ML Engineer (Middle+/Senior)

Дата размещения вакансии: 14.05.2026
Работодатель: ДЖЕЙКЕТ РАБОТА
Уровень зарплаты:
от 200000 до 300000 RUR
Город:
Москва
Требуемый опыт работы:
От 1 года до 3 лет

Вакансия компании: ООО "КОМБЛОК"

О проекте:

Разработка экосистемы сервисов на базе ИИ для автоматизированного анализа контента и аудитории в мессенджерах. Реализация RAG/LoRA и open source LLM для обработки TG-контента, семантического анализа, предсказаний, генерации контента и ИИ-отчетов. Ищем сильного инженера, готового автономно закрывать задачи по подготовке данных, дообучению моделей и их эффективному развертыванию на собственных мощностях.

Мы предлагаем:

  • Стабильный доход: конкурентоспособная заработная плата. Выплаты 2 раза в месяц по 50% или 1 раз в месяц (согласовывается с сотрудником).
  • Гибкий формат: график 5/2. На старте (первые 2 месяца) - работа в офисе, далее возможен переход на гибридный формат.
  • Профессиональную среду: мотивированная команда, отсутствие бюрократии, возможность напрямую влиять на архитектуру ИИ-сервисов.
  • Развитие: реальные возможности для профессионального роста и обучения.

Обязательные требования:

  • Инфраструктура и GPU: практический опыт работы с bare-metal серверами и видеокартами Nvidia. Умение конфигурировать CUDA, драйверы, мониторить утилизацию памяти VRAM и решать проблемы OOM.
  • Автономность (Solo-развертывание): способность самостоятельно «под ключ» развернуть open-source модель на собственном сервере - от настройки окружения до оптимизации инференса.
  • Fine-tuning: глубокие знания и коммерческий опыт дообучения LLM (Llama, Mistral, Qwen и др.) с использованием LoRA / QLoRA / PEFT на доменных данных.
  • RAG-архитектура: экспертные знания пайплайнов Retrieval-Augmented Generation. Опыт интеграции и настройки векторных баз данных (PGVector, FAISS).
  • Контейнеризация и оркестрация: свободное владение Docker и Docker Compose для локальной сборки и деплоя ML-сервисов.
  • Сервинг моделей: опыт работы с фреймворками высокопроизводительного инференса (vLLM, TGI, ONNX Runtime).
  • ML-Бэкенд: уверенный Python (FastAPI, Pydantic), асинхронное программирование (asyncio, aiohttp) и батчинг запросов для минимизации latency.
  • Данные и Эмбеддинги: векторизация текста (Sentence Transformers), работа с большими массивами текстовых данных, интеграция с Postgres и Redis.

Желательные навыки:

  • Оптимизация инференса: опыт квантизации моделей (GGUF, AWQ, GPTQ), применение Flash Attention и распределение нагрузки на multi-GPU.
  • NLP & Парсинг: опыт извлечения сущностей (NER), анализа тональности и тематического моделирования. Опыт интеграции с парсерами (Telethon / Playwright) для real-time данных.
  • Очереди и асинхронность: опыт работы с Celery / RQ для ресурсоемких фоновых задач ML.
  • MLOps: базовый мониторинг моделей (Prometheus, Sentry, drift-мониторинг).

Требуемый опыт:

  • Не менее 3 лет в коммерческой ML-разработке (с фокусом на LLM, RAG и инфраструктуру деплоя).
  • Подтвержденный опыт вывода ML-сервисов в Production на выделенных (собственных/арендованных) GPU-серверах.
  • Самостоятельность: опыт ведения ML-фич в одиночку от R&D до деплоя.
  • Опыт командной работы (Git, Code Review, Agile).