Инженер данных DWH в ФинТех

Дата размещения вакансии: 23.09.2025
Работодатель: Яндекс
Уровень зарплаты:
з/п не указана
Город:
Санкт-Петербург
Садовническая улица 82с2
Требуемый опыт работы:
От 3 до 6 лет

Мы обрабатываем большие объёмы данных, и нам нужно делать это быстро и точно. Для этого мы создаём масштабную, безопасную и удобную аналитическую платформу. Нам требуются дата-инженеры для разработки DWH.

Какие задачи вас ждут

  • Доработка внутренней платформы

Вы будете развивать внутреннюю платформу управления данными: автоматизировать рутинные задачи, такие как деплой простых решений и мониторинг, а также улучшать инструменты самообслуживания для аналитиков. Вам предстоит работать с Kafka, ClickHouse, Spark Streaming и внутренними инструментами разработки.

  • Разработка и поддержка витрин данных

Вы будете разрабатывать, оптимизировать и поддерживать витрины данных, исходя из требований бизнеса и аналитиков. Это включает проектирование структуры данных, реализацию ETL-пайплайнов с использованием Python, Spark, Greenplum и Airflow, а также обеспечение их эффективной работы. Вам предстоит решать задачи разного уровня сложности — от простых трансформаций до обработки больших объёмов данных с нетривиальной бизнес-логикой.

  • Оптимизация ETL-процессов

Вам предстоит оптимизировать ETL-процессы, чтобы повысить производительность и снизить затраты. Нужно проанализировать и устранить проблемы, такие как перекос данных в Greenplum, долгие джобы и неэффективные партиции, а также настроить распределение ресурсов в кластере.

  • Мониторинг качества данных

Вы будете разрабатывать и поддерживать систему мониторинга качества данных, включая DQ-проверки и алерты на аномалии. Также вам предстоит анализировать и устранять сбои в поставке данных, такие как пробелы, дубли и некорректные значения. Кроме того, вы будете взаимодействовать с аналитиками и бизнес-пользователями, чтобы повысить прозрачность поставки данных.

Мы ждем, что вы

  • Пишете код на Python
  • Работали с базами данных SQL и NoSQL
  • Знакомы с брокерами сообщений (Kafka, RabbitMQ или чем-то подобным)
  • Работали с инструментами Hadoop

Будет плюсом, если вы

  • Работали со Spark или Spark SQL
  • Работали с Greenplum
  • Умеете разрабатывать DAG для Airflow