Советская улица 18Б
О компании: Мы занимаемся внедрением передовых AI-решений и сейчас ищем сильного разработчика для создания и оптимизации RAG-систем (Retrieval-Augmented Generation). Нам предстоит работа над созданием «умных» корпоративных баз знаний и систем автоматизации на базе локальных и облачных языковых моделей.
Чем предстоит заниматься:
-
Проектирование и разработка RAG-пайплайнов: от парсинга данных до финальной генерации ответа.
-
Работа с LLM: интеграция и тюнинг (prompt engineering) как закрытых (OpenAI, Anthropic), так и Open Source моделей (Llama 3, Mistral, Saiga).
-
Оптимизация поиска: работа с векторными базами данных, внедрение гибридного поиска (BM25 + Semantic Search) и механизмов переранжирования (Reranking).
-
Инфраструктура: контейнеризация решений и деплой моделей в закрытых контурах.
-
Оценка качества: внедрение метрик для оценки релевантности поиска и точности генерации (например, RAGAS или TruLens).
Что мы ждем от тебя (Стек):
-
Язык: Уверенный Python 3.10+.
-
AI Frameworks: Опыт работы с LangChain, LlamaIndex или Haystack.
-
Vector Databases: Опыт работы с одной из БД (ChromaDB, Qdrant, Milvus или pgvector).
-
NLP: Понимание механизмов Tokenization, Embeddings, Cross-Encoders.
-
DevOps: Docker, Docker Compose (умение развернуть окружение самостоятельно).
-
Базы данных: SQL (PostgreSQL) и NoSQL.
Будет плюсом:
-
Опыт работы с локальным хостингом моделей (Ollama, vLLM, Text Generation Inference).
-
Понимание принципов работы с «тяжелым» железом (CUDA, оптимизация VRAM).
-
Опыт разработки агентских систем (AI Agents).
Что мы предлагаем:
-
Сложные задачи: Никаких типовых лендингов — только работа с острием технологий (SOTA-модели).
-
Профессиональный рост: Возможность экспериментировать с локальными нейросетями и строить архитектуру с нуля.
-
Условия: Конкурентная заработная плата (обсуждается индивидуально), гибкий график или удаленный формат работы.
-
Инструментарий: Мощные сервера для тестов и развертывания локальных систем.