Fullstack / LLM Engineer

Дата размещения вакансии: 25.02.2026
Работодатель: Агентство судебного взыскания
Уровень зарплаты:
от 250000 RUR
Город:
Москва
Холодильный переулок 3
Требуемый опыт работы:
От 3 до 6 лет

Мы - Агентство судебного взыскания (АСВ, LCA) - международная юридическая компания, объединившая в себе современные IT-технологии и юридический опыт.

На данный момент развиваем edtech‑платформу, которая подключается к внешним LLM‑моделям и даёт пользователям умные инструменты для обучения. Ищем инженера, который возьмёт на себя развитие и доработку backend/frontend‑части сайта и API‑интеграций с LLM.

Мы предлагаем:

  • 100% «БЕЛУЮ» заработную плату: оклад 250 000 руб. + ежемесячные премии + полугодовые премии (в среднем 300 000 руб.);
  • регулярные выплаты 2 раза в месяц;
  • график работы 5/2 с 9:00 до 18:00, гибрид;
  • официальное трудоустройство по ТК РФ, отпуска и больничные оплачиваются;
  • ДМС после первого года работы;
  • современная система материальной мотивации: полугодовые премии, предоставление материальной помощи, корпоративные подарки;
  • развитая корпоративная культура: участие в тим-билдингах и флэшмобах, champion challenge, регулярное предоставление обратной связи от руководителя, предоставление компенсаций за медицинские услуги, меню льгот (компенсация затрат на фитнес, обучение, санатории, косметология);
  • команда руководителей, которые умеют слушать и мотивировать.

Ключевые задачи:

  • Разработка и поддержка продакшен‑сервисов на Python (FastAPI) для работы с внешними LLM‑API и другими AI‑сервисами.

  • Проектирование, разработка и оптимизация API‑эндпоинтов (REST/gRPC) для LLM‑функциональности: генерация контента, чат‑интерфейсы, обработка запросов пользователей.

  • Интеграция этих API во frontend на Vue.js: формы запросов, чат‑интерфейсы, отображение прогресса, стриминг ответов.

  • Развитие и поддержка SPA/SSR‑приложения на Vue.js: компоненты, роутинг, стейт‑менеджмент, взаимодействие с backend‑API.

  • Оптимизация UX/перформанса фронтенда: работа с асинхронными запросами, debounce, отображение прогресса и ошибок, оптимизация рендеринга.

  • Оптимизация инференса: снижение latency, рост throughput и контроль стоимости запросов к LLM (батчинг, кеширование, стриминг ответов и т.п.).

  • Развитие DevOps‑pipeline для ML/LLM‑сервисов: CI/CD, управление версиями моделей и конфигураций, безопасные релизы, A/B‑тесты и быстрый rollback.

  • Настройка наблюдаемости: метрики, логи, трассировка для API и LLM‑интеграций.

  • Тесная работа с продуктовой и ML‑командой над интеграцией новых LLM‑фич в ядро платформы.

Мы ожидаем:

  • Опыт коммерческой разработки на Python — от 3 лет.

  • Уверенное владение FastAPI: async/await, Pydantic, middleware, OpenAPI.

  • Понимание архитектуры REST/gRPC, опыт разработки и сопровождения API‑сервисов.

  • Опыт оптимизации Python‑сервисов под производительность: профилирование, снижение latency, работа с нагрузкой.

  • Понимание жизненного цикла ML/LLM‑решений в продакшене и принципов инференса.

  • Практический опыт работы с Docker: контейнеризация сервисов, настройка образов, health‑checks.

  • Коммерческий опыт разработки frontend‑приложений на Vue.js (Vue 2 или 3) от 1–2 лет.

    Уверенное владение:

  • JavaScript/TypeScript, Vue CLI / Vite, Vue Router, стейт‑менеджментом (Vuex / Pinia), Axios/fetch и работой с REST‑API.

  • Понимание основ верстки (HTML5, CSS3, адаптивный дизайн), базовый опыт работы с UI‑библиотеками (Element, Vuetify, Naive UI и др.).