LLM Developer

Дата размещения вакансии: 16.03.2026
Работодатель: Шарненкова Кристина Вячеславовна
Уровень зарплаты:
от 200000 до 350000 RUR
Город:
Москва
Требуемый опыт работы:
От 1 года до 3 лет

Привет! Наша команда разрабатывает AI-стратегии, строит агентов для автоматизации бизнес-процессов и обучает компании работать с ИИ. Сейчас мы в поиске LLM Developer — эксперта в prompt engineering, RAG-архитектурах и AI-агентах, который будет создавать приложения на базе больших языковых моделей и интегрировать их в реальные продукты.

Работаем по методологии VibeEvolve: рутину берут на себя ИИ-агенты, а команда выступает архитекторами — проектирует процессы и управляет их работой. Это не будущее, которое мы планируем — это то, что строим прямо сейчас, и ищем тех, кто хочет быть частью этого.

Чем предстоит заниматься:

  • Проектировать и реализовывать LLM-решения
  • Prompt engineering и оптимизация
  • Строить RAG-системы (retrieval, chunking, embedding)
  • Интегрироваться с LLM API (OpenAI, Anthropic, YandexGPT, GigaChat, локальные модели)
  • Разрабатывать AI-агентов с использованием MCP (Model Context Protocol) и tool use
  • Реализовывать structured generation (SGR) для надёжного вывода
  • Оптимизировать по стоимости, latency и качеству

Мы ждем от тебя:

  • Опыт 2+ года работы с LLM/GenAI
  • Уверенное владение Python и разработка LLM-приложений без тяжёлых фреймворков (свои решения вместо LangChain/LlamaIndex)
  • Знание техник prompt engineering
  • Понимание MCP (Model Context Protocol) для построения агентов
  • Знание Structured Generation (SGR) — Instructor, Pydantic, JSON Schema
  • Опыт проектирования RAG-архитектур
  • Знание векторных баз данных и embeddings
  • Рассмотрим кандидатов с опытом backend-разработки (Python или Node.js) — для смежной роли Back + LLM Developer

Будет большим плюсом:

  • Опыт fine-tuning (LoRA, QLoRA)
  • Деплой локальных моделей (vLLM, Ollama)
  • Работа с мультимодальными моделями (vision, audio)
  • Знание российских LLM (YandexGPT, GigaChat)