Москва
Основные задачи:
- Построение ETL/ELT процессов (Nifi, Airflow), решение задач по организации сбора данных из различных источников в Data Lake/DWH;
- Организация хранения данных с использованием инфраструктуры Hadoop (HDFS, Hive), оптимизация хранимых данных;
- Разработка и автоматизация процессов преобразования данных внутри хранилища
- Сборка витрин данных (Clickhouse, PostgreSQL);
- Построение визуализационных моделей данных, отчетов и дашбордов (Grafana, Zeppelin, Jupyter, PowerBI).
Ожидаем от кандидата:
- Хорошие знания SQL, опыт работы с одной из реляционной БД - PostgreSQL/MySQL/MS SQL;
- Понимание принципов проектирования хранилищ данных;
- Базовые знания Python;
- Опыт работы с инфраструктурой экосистемой Hadoop (HDFS, Hive);
- Желание расти и развиваться.
Будет плюсом:
- Навыки работы с Unix shell, git;
- Опыт работы с Apache Nifi, Airflow, Yarn, Hbase, Spark, Kafka, Druid, Ranger
- Знание XSLT, JOLT;
- Опыт работы с системами визуализации данных (Grafana, PowerBI, Zeppelin);
- Опыт работы с гибкими методологиями и инструментами разработки (Agile);
- Опыт работы с не реляционными БД.
Мы предлагаем:
- Официальное оформление в соответствии с ТК РФ;
- График работы 5/2 с 10.00 до 19.00, возможна удаленная работа.
- Работу в молодом, дружном, динамичном коллективе;
- Интересные и разноплановые задачи, постоянное развитие;
- Корпоративную мобильную связь и ноутбук;
- Персональные фитнес-тренировки;
- Обучение, конференции, выставки и очень разнообразные спортивные мероприятия по всей стране;
- Скидочная система для сотрудников на продукцию до 70%;
- Фрукты, здоровые перекусы, домашние компоты, кофе и чай в ассортименте.