Backend-разработчик (Python) c LLM

Дата размещения вакансии: 16.01.2026
Работодатель: Бреви Ману
Уровень зарплаты:
з/п не указана
Город:
Москва
Беговая улица 2
Требуемый опыт работы:
От 3 до 6 лет

О проекте:

Мы создаем инновационную платформу для уберизации юридических услуг, чтобы сделать профессиональную помощь юристов доступной и удобной для каждого. Наш продукт построен на современной микросервисной архитектуре, и сейчас мы активно внедряем передовые AI-технологии. Мы развиваем LLM-функционал, включая продвинутые RAG-системы и мультиагентные архитектуры, чтобы создать интеллектуальных ассистентов для пользователей и экспертов.

Мы ищем backend-разработчика, который станет надежной основой нашей команды. Вам предстоит не только развивать основную платформу, но и участвовать в создании сложных AI-систем. Для нас ценно, если вы уже имеете опыт работы с LLM или, что не менее важно, горите желанием глубоко погрузиться и обучаться этому новому направлению вместе с командой.

Что предстоит делать:

Разрабатывать и поддерживать микросервисы на Python с использованием FastAPI.

Участвовать в проектировании API и схем баз данных, в том числе для AI-компонентов.

Интегрировать сервисы с внешними системами (платежные агрегаторы, сервисы уведомлений, LLM-провайдеры).

Реализовывать и оптимизировать продвинутые RAG-системы (Retrieval-Augmented Generation) для работы с юридическими документами.

Участвовать в проектировании и разработке мультиагентных LLM-систем для автоматизации сложных процессов.

Писать качественный, тестируемый код и сопровождать документацию.

Работать с Docker-контейнерами и оркестрацией (Docker Compose, k8s).

Взаимодействовать с фронтенд-командой и другими бэкенд-разработчиками, включая ML-инженеров.

Технологический стек:

Язык: Python 3.10+

Фреймворки: FastAPI, SQLAlchemy, Pydantic, Alembic

Базы данных: PostgreSQL, Redis, MongoDB

Брокеры сообщений: RabbitMQ / Kafka

Инфраструктура: Docker, Docker Compose, Kubernetes (k8s)

Поиск и аналитика: Elasticsearch / OpenSearch

AI/LLM-направление: Интеграция с LLM (DeepSeek, Anthropic, локальные модели), векторные базы данных (pgvector, Qdrant, Weaviate), фреймворки для RAG и агентских систем (LangChain, LlamaIndex, AutoGen и аналоги).

Мы ждем, что вы:

Имеете опыт коммерческой разработки на Python от 3-х лет.

Хорошо знаете FastAPI или Flask/Django с сильным желанием углубленно работать с FastAPI.

Имеете уверенные знания SQL (PostgreSQL) и опыт работы с ORM.

Имеете представление о принципах микросервисной архитектуры.

Понимаете, как работать с Docker и Docker Compose.

Имеете базовый опыт работы с очередями (RabbitMQ/Kafka) и кешированием (Redis).

Готовы изучать и применять LLM-технологии на практике (имеете начальный опыт или strong desire to learn).

Умеете писать понятный код и поддерживать его.

Будет большим плюсом:

Опыт работы или интерес к LLM, RAG-архитектурам, мультиагентным системам, NLP.

Практический опыт работы с векторными базами данных и эмбеддингами.

Знакомство с фреймворками для построения агентов и цепочек (LangChain, LlamaIndex, Haystack).

Devops-навыки, опыт настройки CI/CD.

Знакомство с Kubernetes.

Опыт работы в стартапах или над высоконагруженными проектами.

Мы предлагаем:

Возможность работать над социально значимым продуктом с современным стеком.

Участие в создании передовых AI-решений (RAG, агентские системы) с нуля до production.

Работу в команде passionate engineers.

Гибридный график работы.

Профессиональный рост и обучение за счет компании.