Какие задачи предстоит выполнять:
- Развивать и поддерживать существующие CDC-решения.
- Участвовать в разработке платформы данных.
- Обеспечивать доставку данных от источника до приемника.
- Проектировать и разрабатывать ETL/ELT-процессы.
- Работать с распределенными системами хранения данных.
- Оптимизировать хранение и обработку данных.
- Настраивать и поддерживать Apache Airflow и Apache NiFi.
- Работать с системами потоковой обработки данных (Apache Kafka, ksqlDB, Debezium).
Для нас важны в тебе:
- Знание SQL и Python (или Java/Scala).
- Глубокое понимание моделирования, хранения и оптимизации данных.
- Опыт работы с распределенными системами хранения данных (S3, HDFS).
- Практический опыт в построении ETL/ELT-процессов.
- Владение Apache Kafka, ksqlDB, Apache NiFi.
- Знание MPP СУБД (Greenplum, ClickHouse).
- Опыт работы с Apache Spark и механизмами распределенных SQL-запросов (Trino, Presto, Hive, Impala).
- Опыт работы с GitLab CI/CD и контейнеризацией.
Мы предлагаем:
-
официальное трудоустройство, стабильная заработная плата;
-
гибкое начало утра до начала DSM;
-
офис в Казани, Иннополисе или удаленная работа;
-
современная техника, отправляем в город проживания курьером;
-
оплата участия во внешних профильных мероприятиях;
-
регулярные технические ревью, а также возможность прходить перфоманс ревью;
-
оплачиваемые внешние курсы и программы обучения;
-
участие во внутренних хакатонах, конференциях и собственных митапах Three Amigos Talk;
-
бонусная программа рекомендаций «Приведи друга»;
-
корпоративные мероприятия, встречаемся онлайн и офлайн;
-
подарки к значимым событиям, подарки детям сотрудников;
-
ДМС со стоматологией в твоем городе после испытательного срока (3 месяца).