AI Security Researcher / Аналитик по безопасности искусственного интеллекта

Дата размещения вакансии: 02.11.2025
Работодатель: LaunchBase
Уровень зарплаты:
з/п не указана
Город:
Казань
Петербургская улица 52
Требуемый опыт работы:
От 1 года до 3 лет

Мы запускаем новое направление на стыке кибербезопасности и искусственного интеллекта.
Наша цель — сформировать архитектуру и подходы к безопасности LLM-агентов и систем на базе MCP/ACP-протоколов, чтобы компании могли безопасно использовать искусственный интеллект, не опасаясь утечек данных, prompt injection и несанкционированных действий моделей.

Мы верим, что ближайшие 3–5 лет сформируют новый рынок — AI Security (или AI-Sec) — и хотим стать одной из команд, которые создадут стандарты и инструменты в этой области в России.

Сейчас мы ищем исследователя с техническим мышлением в небольшую исследовательскую команду, работающую в формате R&D-лаборатории:

  1. быстрые обсуждения, короткие итерации, прототипы на коленке, тестирование гипотез — и снова по кругу,
  2. изучать угрозы и уязвимости ИИ,
  3. разрабатывать внутренние прототипы защиты,
  4. участвовать в создании базового ядра будущего продукта.

Мы ищем человека, который хочет не просто “изучать ИИ”, а влиять на то, каким он будет безопасным.

Обязанности:

  • Исследовать актуальные векторы атак на LLM и агентные системы — от data poisoning и jailbreak до privilege escalation.

  • Разрабатывать и тестировать минимальные прототипы защитных решений (фильтры, MCP-прокси, sandbox-вставки, политики безопасности).

  • Анализировать международные фреймворки (NIST AI RMF, ISO 42001, AI TRiSM) и искать, как адаптировать их к российской практике.

  • Участвовать в быстрых циклах гипотез: придумали идею → описали → собрали MVP → протестировали → обсудили выводы.

  • Вести аналитические заметки, документацию и short reports по проведённым экспериментам.

Требования:

  • Базовое понимание кибербезопасности (OWASP, zero-trust, безопасная разработка, шифрование).

  • Технический бэкграунд: Python, FastAPI или другой язык прототипирования.

  • Опыт работы с LLM API (OpenAI, Anthropic, VK Cloud, YandexGPT) или фреймворками LangChain / LlamaIndex.

  • Умение мыслить исследовательски: задавать вопросы, проверять гипотезы, искать закономерности.

  • Готовность работать в гибкой, живой среде, где важнее скорость итераций, чем идеальность.

  • Участие в CTF, red-teaming или AI jailbreak-тестах.

  • Понимание threat modeling (STRIDE, DREAD, MITRE ATLAS).

  • Опыт визуализации архитектур (Mermaid, draw.io, diagrams).

  • Понимание стандартов compliance (ФСТЭК, ГОСТ 57580, ISO 27001).

Условия:

  • Участие в создании первых отечественных решений по безопасности ИИ.

  • Формат малой исследовательской команды: минимум бюрократии, максимум идей и экспериментов.

  • Возможность влиять на архитектуру, стратегию и продукт с нуля.

  • Гибкий формат (удалённо, частичная занятость, проектная работа).

  • Потенциал роста до роли Lead Researcher / AI Security Architect.

  • Среду, где ценится не должность, а инициатива, скорость и любопытство.

  • Работа с ведущими компаниями России, кто внерднеяет ИИ.

🤝 Как мы работаем внутри

  • Мы действуем по принципу “быстрых циклов”: короткие синки, быстрые решения, ежедневные апдейты.

  • Используем лёгкие инструменты — Notion / Miro / Slack / Git / LLM sandboxes.

  • Каждый участник имеет реальное влияние: можно предлагать гипотезы, спорить, менять архитектуру, запускать тесты.

  • Главная ценность — интеллектуальная честность и темп: мы не боимся ошибок, боимся тянуть время.

📫 Как откликнуться

Отправь резюме или просто короткое сообщение: кто ты, чем занимался и почему тебе близка тема безопасности ИИ.
Мы вдумчиво ответим всем, кто пишет вдумчиво.