Холодильный переулок 3
Мы - Агентство судебного взыскания (АСВ, LCA) - международная юридическая компания, объединившая в себе современные IT-технологии и юридический опыт.
На данный момент развиваем edtech‑платформу, которая подключается к внешним LLM‑моделям и даёт пользователям умные инструменты для обучения. Ищем инженера, который возьмёт на себя развитие и доработку backend/frontend‑части сайта и API‑интеграций с LLM.
Мы предлагаем:
- 100% «БЕЛУЮ» заработную плату: оклад 250 000 руб. + ежемесячные премии + полугодовые премии (в среднем 300 000 руб.);
- регулярные выплаты 2 раза в месяц;
- график работы 5/2 с 9:00 до 18:00, гибрид;
- официальное трудоустройство по ТК РФ, отпуска и больничные оплачиваются;
- ДМС после первого года работы;
- современная система материальной мотивации: полугодовые премии, предоставление материальной помощи, корпоративные подарки;
- развитая корпоративная культура: участие в тим-билдингах и флэшмобах, champion challenge, регулярное предоставление обратной связи от руководителя, предоставление компенсаций за медицинские услуги, меню льгот (компенсация затрат на фитнес, обучение, санатории, косметология);
- команда руководителей, которые умеют слушать и мотивировать.
Ключевые задачи:
-
Разработка и поддержка продакшен‑сервисов на Python (FastAPI) для работы с внешними LLM‑API и другими AI‑сервисами.
-
Проектирование, разработка и оптимизация API‑эндпоинтов (REST/gRPC) для LLM‑функциональности: генерация контента, чат‑интерфейсы, обработка запросов пользователей.
-
Интеграция этих API во frontend на Vue.js: формы запросов, чат‑интерфейсы, отображение прогресса, стриминг ответов.
-
Развитие и поддержка SPA/SSR‑приложения на Vue.js: компоненты, роутинг, стейт‑менеджмент, взаимодействие с backend‑API.
-
Оптимизация UX/перформанса фронтенда: работа с асинхронными запросами, debounce, отображение прогресса и ошибок, оптимизация рендеринга.
-
Оптимизация инференса: снижение latency, рост throughput и контроль стоимости запросов к LLM (батчинг, кеширование, стриминг ответов и т.п.).
-
Развитие DevOps‑pipeline для ML/LLM‑сервисов: CI/CD, управление версиями моделей и конфигураций, безопасные релизы, A/B‑тесты и быстрый rollback.
-
Настройка наблюдаемости: метрики, логи, трассировка для API и LLM‑интеграций.
-
Тесная работа с продуктовой и ML‑командой над интеграцией новых LLM‑фич в ядро платформы.
Мы ожидаем:
-
Опыт коммерческой разработки на Python — от 3 лет.
-
Уверенное владение FastAPI: async/await, Pydantic, middleware, OpenAPI.
-
Понимание архитектуры REST/gRPC, опыт разработки и сопровождения API‑сервисов.
-
Опыт оптимизации Python‑сервисов под производительность: профилирование, снижение latency, работа с нагрузкой.
-
Понимание жизненного цикла ML/LLM‑решений в продакшене и принципов инференса.
-
Практический опыт работы с Docker: контейнеризация сервисов, настройка образов, health‑checks.
-
Коммерческий опыт разработки frontend‑приложений на Vue.js (Vue 2 или 3) от 1–2 лет.
Уверенное владение:
-
JavaScript/TypeScript, Vue CLI / Vite, Vue Router, стейт‑менеджментом (Vuex / Pinia), Axios/fetch и работой с REST‑API.
-
Понимание основ верстки (HTML5, CSS3, адаптивный дизайн), базовый опыт работы с UI‑библиотеками (Element, Vuetify, Naive UI и др.).