AI / Backend Engineer

Дата размещения вакансии: 05.05.2026
Работодатель: Postgres Professional
Уровень зарплаты:
з/п не указана
Город:
Москва
улица Обручева 23с1
Требуемый опыт работы:
Более 6 лет
Ищем AI / Backend Engineer, который будет заниматься развитием продуктов: виртуального DBA (ИИ-агент, который позволяет делать автоматизированную БД и помогает с её настройкой) и корпоративного агента.

Наш стек:
Backend: Python, FastAPI, Dishka DI, FastMCP, PostgreSQL, Redis.
LLM / Inference: OpenAI‑compatible APIs, vLLM, SGLang.
Observability: LangFuse, Prometheus, Sentry, Grafana.

Чем предстоит заниматься:

​​​​​
Разработкой backend‑сервисов для взаимодействия с LLM

  • разработкой CLI-агентов для кодинга;
  • реализацией механизмов работы с мультмодальными моделями на backend (например, для отправки изображений в VLM или транскрибации аудио при помощи ASR-моделей);
  • реализацией и тюнингом agent loops (ReAct,CodeAct и других);
  • разработкой и доработкой механизмов context engineering: сборкой контекста, compaction, summarization, tool masking:
  • интеграцией инструментов через MCP‑серверы;
  • работой с LLM inference инфраструктурой (vLLM / SGLang);
  • реализацией streaming взаимодействия и long‑running inference;
  • развитием observability и трассировкой работы AI‑агентов.

Мы ожидаем:

  • ​​​​​​​ уверенный опыт с асинхронным Python или любым другим backend‑языком;
  • понимание возможностей и ограничений современных LLM;
  • опыт работы с OpenAI API;
  • понимание принципов context engineering;
  • навык использования AI как инструмента ускорения разработки/исследований;
  • понимание важности unit и integration тестов, роли тестов как механизма контроля качества AI‑сгенерированного кода;
  • опыт использования моделей для генерации и улучшения тестов;
  • инженерный подход, готовность вести полный цикл задачи;
  • опыт работы в команде, высокие коммуникативные навыки.

​​​​​Будет плюсом:

  • опыт разработки agent‑based AI систем;
  • опыт с infinite-loop агентами;
  • работа с self‑hosted inference (vLLM, SGLang);
  • разработка MCP‑серверов;
  • оптимизация latency и token usage;
  • benchmarking LLM моделей;
  • опыт разработки при помощи code agents / AI‑assisted development;
  • использование spec‑driven development;
  • умение формализовать задачу перед генерацией кода;
  • использование моделей для генерации тестов, рефакторинга и ускорения разработки.

Мы предлагаем: