Москва
Основные обязанности:
- анализ и оценка требований к потокам загрузки;
- обследование источников, системный анализ структур данных источников;
- разработка интеграционных решений для подключения к новым источникам;
- проектирование модели данных DWH (stage-области, детального слоя, витрин данных);
- разработка процедур загрузки данных (ETL-процессов) в DWH;
- разработка процедур формирования аналитический витрин;
- профилирование и очистка данных, разработка процедур контроля качества данных;
- документирование разработанных артефактов в Глоссарии и Каталоге данных, описание потоков данных в вики;
- проведение ревью кода и участие в программе менторинга младших инженеров данных команды.
Наши пожелания к знаниям и опыту:
- отличные знания SQL, опыт работы с СУБД (Oracle, Arendatadb, Postgree, Geenplum, Clickhouse);
- опыт разработки ETL-процессов на Apache Airflow;
- навыки оптимизации SQL-запросов;
- практические навыки работы с данными в файловом хранилище S3;
- базовые навыки DevOps (в объеме самообслуживания) – GitLab;
- умение писать чистый поддерживаемый код и техническую документацию.
Мы предлагаем:
- Работа в коллективе ИТ-профессионалов
- Возможность самореализации в амбициозных проектах цифровой трансформации компании-лидера в своей отрасли
- Отсутствие бюрократии и дух стартапа
- Стабильный работодатель
- Достойный уровень оплаты, годовой бонус
- Конкурентоспособный социальный пакет
- Официальное трудоустройство в собственную аккредитованную ИТ компанию со всеми преимуществами
- Гибридный график работы.