О проекте
Мы строим платформу для работы с ИИ-агентами: система оценки агентов
(scoring, бенчмарки), API для взаимодействия агентов между собой (A2A)
и сопутствующая инфраструктура. Проект на стыке backend-разработки
и LLM-инженерии.
Что предстоит делать:
• Разработка backend-сервисов на Go
• Проектирование и реализация системы оценки и бенчмаркинга AI-агентов
• Разработка A2A API для взаимодействия агентов между собой
• Интеграция с LLM-провайдерами (OpenAI, Anthropic и др.)
• Самостоятельное ведение задач от декомпозиции до деплоя
Требования:
• Коммерческий опыт разработки на Go от 2–3 лет — обязателен
• Уверенное знание языка: понимаете архитектуру, а не только
генерируете код с помощью ИИ
• Активное использование AI-инструментов в работе (Cursor, Copilot,
Claude) — обязательно
• Опыт работы с REST / gRPC, базами данных
• Автономность: умеете самостоятельно декомпозировать задачи,
принимать решения и доводить до результата
Будет плюсом:
• Опыт с LLM eval-фреймворками или бенчмаркингом агентов
• Знакомство с MCP / A2A-протоколами
• Опыт с Docker, highload или платформенными продуктами
Условия:
• Ставка: $20–30/час в зависимости от опыта
• Занятость: 100–120 часов в месяц (от 25 часов в неделю)
• Полностью удалённая работа, гибкий график
• Пересечение по онлайну от 3 часов в день
• Договор с ИП или самозанятым
• Долгосрочное сотрудничество при взаимном интересе
При отклике напишите коротко: как бы вы подошли к задаче оценки
качества LLM-агента — по каким метрикам и как бы их собирали?