Data / DWH аналитик middle+/senior

Дата размещения вакансии: 21.03.2026
Работодатель: Ойком
Уровень зарплаты:
от 160000 до 240000 RUR
Город:
Санкт-Петербург
Требуемый опыт работы:
Более 6 лет

Добрый день!
В связи с расширением пула проектов, ищем Data / DWH аналитиков уровня Middle+/Senior.

Наши заказчики — компании из самых разных сфер: от банков и ритейла до телекома и промышленности. Мы ищем коллег, которые помогут нам разбираться в их данных, проектировать эффективные хранилища и строить понятную отчетность.

Мы ценим каждого специалиста как уникальную личность с собственными ожиданиями, опытом и жизненными обстоятельствами. Для нас важно создать среду, где вы чувствуете себя не просто частью команды, а значимым участником, чьи идеи и вклад действительно ценятся. Мы стремимся поддерживать баланс между работой и личной жизнью, уважая ваши профессиональные и личные границы.

Условия работы:

  • Полностью дистанционная работа.

  • Внутреннее обучение и повышение квалификации.

  • Поддержка и наставничество: помощь коллег, обмен опытом и возможность стать наставником для команды аналитиков.

  • Свобода выбора: участие в проектах, соответствующих вашим интересам (продуктовая аналитика, построение витрин, ETL-процессы).

Ключевые обязанности (что предстоит делать):

Задачи могут меняться от проекта к проекту, но ваш ключевой фокус будет связан с данными:

  • Разработка и согласование целевой архитектуры хранилищ данных (DWH, Data Lake, Data Mesh), выбор подходов к моделированию (Data Vault, Kimball), проработка слоев данных (ODS, DDS, CDM/DM).

  • Самостоятельное ведение сложных потоков задач, глубокая аналитика источников, выявление неочевидных связей и ограничений.

  • Взаимодействие с бизнес-заказчиками и топ-менеджментом для формализации метрик и стратегических целей отчетности.

  • Проработка политик качества, контроль целостности и непротиворечивости данных на всех этапах пайплайна.

  • Постановка задач разработчикам ETL и DWH-команд, проведение code review и технической приемки результатов.

  • Разработка контрактов взаимодействия между системами (REST, Kafka, файловые обмены), описание S2T-маппингов и регламентов загрузки.

  • Ведение проектной и эксплуатационной документации, разработка шаблонов и стандартов для команды.

Наши ожидания (обязательное):

  • Экспертное владение SQL, уверенное написание сложных запросов, глубокая оптимизация, разбор и рефакторинг чужого кода.

  • Глубокое понимание архитектуры DWH / Data Lake, практический опыт построения хранилищ с нуля или масштабной миграции.

  • Владение современными методологиями моделирования (Data Vault 2.0, Anchor Modeling, dimensional modeling).

  • Опыт проектирования масштабируемых решений для больших данных (терабайты и выше).

  • Умение выстраивать ETL/ELT-процессы с использованием современных инструментов (Airflow, dbt, NiFi, Spark).

  • Понимание принципов потоковой обработки данных (Kafka, Kafka Streams, Spark Streaming).

  • Навыки эффективной коммуникации с заказчиками и командой, умение аргументированно отстаивать свою позицию.

  • Способность видеть не только техническую, но и бизнес-составляющую задач, предлагать оптимальные решения с учетом сроков и ресурсов.

  • Навыки работы с Git.

Будет большим плюсом (то, что выделит вас):

  • Опыт работы в финтехе, ритейле, телекоме или промышленности (глубокое знание предметной области).

  • Практический опыт работы с облачными Data-платформами (Yandex Cloud, AWS, Azure).

  • Знание экосистемы Hadoop / Spark.

  • Опыт внедрения Data Governance и управления мастер-данными (MDM).

  • Навыки разработки на Python (Pandas, PySpark) для реализации сложных трансформаций и прототипов.

  • Опыт работы с BI-инструментами на уровне понимания их возможностей и ограничений (Tableau, Power BI, Qlik, Superset).

  • Участие в архитектурных ревью, написание ADR (Architecture Decision Records).