Добрый день!
В связи с расширением пула проектов, ищем Data / DWH аналитиков уровня Middle+/Senior.
Наши заказчики — компании из самых разных сфер: от банков и ритейла до телекома и промышленности. Мы ищем коллег, которые помогут нам разбираться в их данных, проектировать эффективные хранилища и строить понятную отчетность.
Мы ценим каждого специалиста как уникальную личность с собственными ожиданиями, опытом и жизненными обстоятельствами. Для нас важно создать среду, где вы чувствуете себя не просто частью команды, а значимым участником, чьи идеи и вклад действительно ценятся. Мы стремимся поддерживать баланс между работой и личной жизнью, уважая ваши профессиональные и личные границы.
Условия работы:
-
Полностью дистанционная работа.
-
Внутреннее обучение и повышение квалификации.
-
Поддержка и наставничество: помощь коллег, обмен опытом и возможность стать наставником для команды аналитиков.
-
Свобода выбора: участие в проектах, соответствующих вашим интересам (продуктовая аналитика, построение витрин, ETL-процессы).
Ключевые обязанности (что предстоит делать):
Задачи могут меняться от проекта к проекту, но ваш ключевой фокус будет связан с данными:
-
Разработка и согласование целевой архитектуры хранилищ данных (DWH, Data Lake, Data Mesh), выбор подходов к моделированию (Data Vault, Kimball), проработка слоев данных (ODS, DDS, CDM/DM).
-
Самостоятельное ведение сложных потоков задач, глубокая аналитика источников, выявление неочевидных связей и ограничений.
-
Взаимодействие с бизнес-заказчиками и топ-менеджментом для формализации метрик и стратегических целей отчетности.
-
Проработка политик качества, контроль целостности и непротиворечивости данных на всех этапах пайплайна.
-
Постановка задач разработчикам ETL и DWH-команд, проведение code review и технической приемки результатов.
-
Разработка контрактов взаимодействия между системами (REST, Kafka, файловые обмены), описание S2T-маппингов и регламентов загрузки.
-
Ведение проектной и эксплуатационной документации, разработка шаблонов и стандартов для команды.
Наши ожидания (обязательное):
-
Экспертное владение SQL, уверенное написание сложных запросов, глубокая оптимизация, разбор и рефакторинг чужого кода.
-
Глубокое понимание архитектуры DWH / Data Lake, практический опыт построения хранилищ с нуля или масштабной миграции.
-
Владение современными методологиями моделирования (Data Vault 2.0, Anchor Modeling, dimensional modeling).
-
Опыт проектирования масштабируемых решений для больших данных (терабайты и выше).
-
Умение выстраивать ETL/ELT-процессы с использованием современных инструментов (Airflow, dbt, NiFi, Spark).
-
Понимание принципов потоковой обработки данных (Kafka, Kafka Streams, Spark Streaming).
-
Навыки эффективной коммуникации с заказчиками и командой, умение аргументированно отстаивать свою позицию.
-
Способность видеть не только техническую, но и бизнес-составляющую задач, предлагать оптимальные решения с учетом сроков и ресурсов.
-
Навыки работы с Git.
Будет большим плюсом (то, что выделит вас):
-
Опыт работы в финтехе, ритейле, телекоме или промышленности (глубокое знание предметной области).
-
Практический опыт работы с облачными Data-платформами (Yandex Cloud, AWS, Azure).
-
Знание экосистемы Hadoop / Spark.
-
Опыт внедрения Data Governance и управления мастер-данными (MDM).
-
Навыки разработки на Python (Pandas, PySpark) для реализации сложных трансформаций и прототипов.
-
Опыт работы с BI-инструментами на уровне понимания их возможностей и ограничений (Tableau, Power BI, Qlik, Superset).
-
Участие в архитектурных ревью, написание ADR (Architecture Decision Records).