Москва
Ключевые задачи:
- Проведение анализа и обработки данных
- Построения ETL-процессов выгрузки данных в Datalake (Hadoop)
- Разработка процедур наполнения витрин данных
- Создание оптимальных решений по преобразованию, расчёту и хранению данных
- Оказание экспертной поддержки команде аналитиков
Что важно для нас:
- Участие в проектах по созданию хранилищ данных/DWH/data lake от 2 лет
- Опыт работы в роли разработчика Spark/pySpark, SQL, Hive не менее 2 лет
- Глубокие знания core python
- Понимание процессов разработки etl-pipelines в Airflow
- Умение оптимизировать SQL-запросы
- Умение проектировать и реализовывать процедуры и функции
- Умение быстрого погружения в разработанный код
- Дополнительные требования: английский на уровне чтения технической документации, опыт работы и настройки БД Greenplum и Clickhouse будет плюсом, опыт работы с брокером сообщений Apache Kafka
Что предлагаем:
- График работы 5/2 (пн-чт с 9:00 до 18:00, пт с 9:00 до 16:45)
- Гибридный формат работы
- Официальное оформление в соответствии ТК РФ
- Конкурентный уровень дохода: оклад + премии
- Медицинская страховка, страховка для выезжающих за границу
- Доплата к отпускному и больничному листу
- Дополнительные льготы при заключении брака и рождении детей
- Социальная поддержка при сложных жизненных ситуациях
- Льготное кредитование для сотрудников
- Обучение в корпоративном университете банка
- Корпоративная библиотека
- Реферальная программа для сотрудников: приведи друга в ИТ и получи до 300 000 рублей