Москва
Наша команда занимается оценкой защищенности всего процесса создания моделей искусственного интеллекта, от сбора датасетов до эксплуатации. В нашем фокусе прежде всего большие языковые модели (LLM) и биометрические технологии (CV)
Если такие словосочетания как «атаки на предъявление», «промпт-атаки», «состязательные атаки», «отравление данных» и многие другие уязвимости машинного обучения вызывают у тебя интерес и желание развивать данную область, присоединяйся к нам!
Обязанности
- Разработка процессов тестирования core моделей ИИ и интеграций с ними
- Разработка процессов внутреннего R&D угроз для ИИ
- Анализ результатов тестирования и оценка защищенности ИИ
- Разработка метрик и анализ оценки уровня защищенности технологий ИИ
- Постоянный анализ трендов, инноваций и разработок в области безопасности ИИ
- Разработка требований к качеству и тестированию моделей ИИ
- Кросс-функциональное взаимодействие с подразделениями Банка (Архитектура ИТ, ИТ разработка, Бизнес–владельцы, руководство) для обеспечения защищенности ИИ
Требования
- Высшее техническое образование. Предпочтительно в области информационной безопасности, компьютерных наук или смежных дисциплин
- Глубокое понимание принципов машинного обучения, используемых метрик оценки качества работы моделей, требований к обучающим и контрольным наборам данных
- Опыт работы с ML-моделями. Фокусные направления: CV и LLM
- Опыт выстраивания внутренних процессов, управления проектами
- Опыт подготовки отчетных материалов для C-level руководителей
- Коммуникабельность, нацеленность на результат
Условия
- ДМС с первого дня, cпециальные условия страхования для ближайших родственников;
- Льготные условия кредитования, ипотеки;
- Cпортзал (фитнес, йога, кроссфит);
- Возможность посещения (как в качестве слушателя, так и в качестве выступающего) IT-конференций;
- Работа в команде профессионалов, возможность разрабатывать уникальные и крупные проекты масштаба всей страны;
- Высокие премии по итогам успешной работы.