Холодильный переулок 3
Привет, будущий коллега!
Мы ищем талантливого ML‑инженера для создания цифрового говорящего аватара на базе open‑source‑библиотек с развёртыванием внутри собственного IT‑контура (on‑premise). Если вы увлечены технологиями искусственного интеллекта и генерацией мультимедийного контента — эта позиция для вас!
Что предстоит делать:
Вы будете участвовать в разработке и интеграции системы генерации цифрового аватара, включая синтез речи (TTS), lip‑sync и видеорендеринг — полностью на open‑source стеке, без внешних API.
-
разрабатывать и поддерживать сервисы на Python (FastAPI) для работы с AI;
-
проектировать и оптимизировать REST API для LLM/avatar‑функциональности;
-
подбирать и интегрировать open‑source библиотеки для генерации аватара (SadTalker, MuseTalk, Wav2Lip, LivePortrait и аналоги);
-
создавать пайплайн: текст → TTS → lip‑sync → видео/поток;
-
развёртывать и сопровождать модели on‑premise (без выхода в облако);
-
оптимизировать инференс (снижать latency, повышать throughput, настраивать кэширование и батчинг);
-
оценивать и подбирать аппаратное обеспечение (GPU, RAM, хранилище);
-
развивать DevOps‑pipeline (CI/CD, управление версиями, безопасные релизы);
-
настраивать мониторинг (метрики, логи, трассировка);
-
взаимодействовать с продуктовой и ML‑командой по интеграции AI‑фич.
Мы ждём, что у вас есть:
-
опыт коммерческой разработки на Python — от 3 лет;
-
уверенное владение FastAPI (async/await, Pydantic, middleware, OpenAPI);
-
понимание архитектуры REST и опыт работы с API;
-
опыт оптимизации Python‑сервисов (профилирование, снижение latency);
-
знание жизненного цикла ML/LLM‑решений в продакшене;
-
опыт работы с Docker (контейнеризация, образы, health‑checks);
-
опыт работы с open‑source моделями генерации аватара (Wav2Lip, SadTalker и аналоги);
-
опыт интеграции TTS‑движков (Coqui TTS, Silero, XTTS и аналоги);
-
опыт работы с GPU‑оборудованием (NVIDIA CUDA, подбор видеокарт RTX/A‑серии);
-
понимание требований к железу для on‑premise ML (GPU, RAM, хранилище).
Будет плюсом:
-
опыт эксплуатации ML/LLM‑сервисов (масштабирование, SLA/SLO, отказоустойчивость);
-
навыки настройки monitoring/observability (Prometheus, Grafana, OpenTelemetry);
-
знакомство с инфраструктурой для LLM‑инференса (vLLM, TGI, Triton и др.);
-
опыт работы с библиотеками компьютерного зрения (OpenCV, dlib, MediaPipe);
-
навыки обработки видео через ffmpeg;
-
понимание GAN и диффузионных моделей для генерации лица и lip‑sync;
-
опыт квантизации моделей (ONNX Export, TensorRT, INT8/FP16);
-
опыт on‑premise развёртывания ML‑сервисов.
Мы предлагаем:
- 100% «БЕЛУЮ» заработную плату (обсуждается по итогам собеседования);
- дополнительно полугодовые премии до 30% от полугодового оклада;
- гибридный график работы 5/2 с 9:00 до 18:00;
- официальное трудоустройство по ТК РФ, отпуска и больничные оплачиваются;
- ДМС после первого года работы;
- современная система материальной мотивации: полугодовые премии, предоставление материальной помощи, корпоративные подарки;
- развитая корпоративная культура: участие в тим-билдингах и флэшмобах, champion challenge, регулярное предоставление обратной связи от руководителя, предоставление компенсаций за медицинские услуги, меню льгот (компенсация затрат на фитнес, обучение, санатории, косметология);
-
интересные и амбициозные задачи в сфере AI и ML;
-
комфортный офис в центре города и современную техническую базу.
Ждём ваши отклики!