Ведущий инженер по прикладному ИИ (Senior Applied AI Engineer)

Дата размещения вакансии: 01.04.2026
Работодатель: Hi, Rockits!
Уровень зарплаты:
з/п не указана
Город:
Москва
Требуемый опыт работы:
Более 6 лет

Мы ищем ведущего специалиста по прикладному ИИ, который будет создавать промышленные AI‑системы для обработки документов в масштабе. Вы будете проектировать и внедрять продуктовые функции, основанные на агентных подходах, мультимодальности и автоматизированной оценке качества: извлечение данных, рассуждение, генерация, оркестрация. Вы будете отвечать за всё — от архитектуры и экспериментов до латентности, стоимости, надёжности и влияния на пользовательский опыт.

Роль сочетает разработку собственных моделей с интеграцией LLM‑API, чтобы создавать интеллектуальные, готовые к эксплуатации функции. Вы будете работать на всём жизненном цикле: от подготовки обучающих данных и тонкой настройки моделей до проектирования retrieval‑пайплайнов и развёртывания производительных систем инференса в облаке.

Обязанности

  • Решать задачи в области интеллектуальной обработки документов: OCR, структурированное извлечение данных, разбивка на чанки, layout‑aware парсинг, преобразование PDF в заданную схему данных.

  • Проектировать и внедрять RAG‑пайплайны с использованием векторных баз данных, гибридного поиска, реранжирования и структурированной сборки контекста.

  • Интегрировать облачные LLM‑API (OpenAI, Anthropic) в продуктовые функции, а там, где это необходимо, использовать собственные небольшие модели.

  • Строить и дообучать трансформерные модели для задач классификации, извлечения данных, ранжирования и генерации.

  • Разрабатывать масштабируемые сервисы инференса с использованием vLLM, батчирования, стриминга, кэширования и других оптимизаций задержек и стоимости.

  • Проектировать и поддерживать Python‑микросервисы и REST API (FastAPI) для внутренних AI‑ и NLP‑пайплайнов.

  • Создавать MCP‑сервисы (Model Control & Processing) для взаимодействия с LLM, векторными хранилищами и пайплайнами обработки.

  • Разрабатывать CI/CD и пайплайны развёртывания для AI‑продуктов (GitHub + Docker + Cloud Run + Terraform).

  • Обеспечивать бесшовное взаимодействие между инфраструктурной командой и командами NLP/ML, помогая внедрять фичи и оптимизировать сервинг моделей.

  • Развивать и поддерживать мониторинг, наблюдаемость и логирование (Prometheus, Grafana, OpenTelemetry).

  • Создавать внутренние инструменты разработки и SDK для ускорения экспериментов и вывода в продакшен AI‑команды.

  • Участвовать в реагировании на инциденты и оптимизировать производительность систем в различных окружениях.

  • Создавать промышленные пайплайны для обучения, оценки, управления промптами/версиями моделей и развёртывания.

  • Определять и повышать качество AI‑решений с помощью офлайн‑эвалюаций, регрессионных наборов данных и метрик на уровне конкретных задач (точность, латентность, надёжность).

Требования

  • Сильный Python‑бэкграунд: написание промышленного кода, тесты, поддержка архитектуры сервисов. Опыт разработки микросервисов и REST API (FastAPI).

  • Практический опыт работы с PyTorch и HuggingFace: обучение, тонкая настройка, инференс, отладка моделей.

  • Глубокое понимание внутреннего устройства трансформеров: токенизация, эмбеддинги, стратегии декодирования, оценка качества.

  • Опыт интеграции OpenAI / Anthropic в реальные пользовательские продукты (не только прототипы).

  • Реальный опыт создания RAG‑систем: чанкинг, эмбеддинг‑пайплайны, векторный поиск, реранжирование, сборка контекста, снижение галлюцинаций.

  • Опыт работы с OCR, парсингом PDF, извлечением таблиц и форм, нормализацией «грязных» реальных данных.

  • Опыт построения масштабируемых систем инференса/модельного сервинга; знакомство с vLLM или аналогичными стеками будет плюсом.

  • Умение отлаживать проблемы качества моделей на уровне промптов, retrieval, данных, эвалюационных наборов и поведения инференса.

  • Готовность поддерживать системы в эксплуатации: развёртывание, мониторинг, отладка инцидентов, итеративное улучшение.

  • Опыт работы с CI/CD (GitHub Actions или аналоги), Docker, Cloud Run (или GKE), Terraform.

  • Свободный английский (команда международная)

    Будет плюсом

  • Опыт развёртывания ML/AI‑сервисов с Docker на GCP (Cloud Run, GKE).

  • Опыт работы с OpenTelemetry, Prometheus, Grafana или аналогичными инструментами наблюдаемости.

  • Сильный бэкграунд в области распознавания документов, OCR, структурированного парсинга PDF.

  • Опыт оптимизации инференса по латентности и стоимости (батчирование, кэширование, маршрутизация, спекулятивное декодирование).

    Условия работы

  • Удалённый формат (обсуждаемо).

  • Работа в команде профессионалов над продуктом с высокой нагрузкой и миллионной аудиторией.

  • Возможность влиять на архитектуру и технологический стек.

  • Конкурентная заработная плата.