Data Engineer

Дата размещения вакансии: 09.12.2024
Работодатель: Печеркина Анжелика Валерьевна
Уровень зарплаты:
з/п не указана
Город:
Москва
Требуемый опыт работы:
От 3 до 6 лет

Ищем опытного дата-инженера в Sales Technologies (Партнер Т-банк)

Мы предлагаем

  • Работу в офисе или удаленно — по договоренности

  • Платформу обучения и развития «Т‑Банк Апгрейд». Курсы, тренинги, вебинары и базы знаний. Поддержку менторов и наставников, помощь в поиске точек роста и карьерном развитии

  • Комплексную программу заботы о здоровье. Оформим полис ДМС с широким покрытием и страховку от несчастных случаев. Предложим льготные условия страхования для ваших близких

  • Частичную компенсацию затрат на спорт

  • Достойную зарплату — обсудим ее на собеседовании

Проект:

  • Платформа триггеров — платформа, являющаяся мостом между всеми существующими триггерными событиями (интересующие нас триггеры определяются бизнес-заказчиками и командой рисков) и системами-потребителями.

  • Платформа получает внутренние и внешние триггеры, отправляет их системам — потребителям (через Kafka), а также раскладывает их в DWH.

  • Под триггерами в данном случае подразумеваем события по клиенту, которые могут привести к изменению кредитной истории и статуса клиента или сообщают нам о каких-либо потребностях клиента.

  • Для всех пользователей, связанных с сервисами-потребителями

  • Функциональные способности: получать триггеры и отправлять в необходимые сервисы. Автоматически или вручную ставить клиента на мониторинг. Определять тип триггера, в зависимости от типа отправлять триггер необходимой системе

  • Платформа для всех систем банка.

Обязанности

1. Разработка ETL процессов с использование инструментов платформы данных Т‑Банка — Apache Airflow, Apache NiFi, Apache Flink
2. Разработка и оптимизация пайплайнов обучения и инференса ML моделей при помощи Airflow
3. Разработка и поддержка потоковой обработки данных — Apache Flink
4. Аудит и оптимизация процессов работы с данными
5. Анализ и подготовка данных для построения отчетности и обучения ML моделей — Clickhouse, Apache Superset​​​​​​​

✅Требования

1. Умение работать с данными (SQL).
2. Знание принципов построения DWH и стандартов архитектуры.
3. Знание архитектуры Greenplum, Hadoop и Clickhouse, умение оптимизировать запросы в этих системах.
4. Умение работать с ETL инструментами Apache Airflow, Apache NiFi, Apache Flink.
5. Python — pandas, numpy.
6. Аналитическое мышление.
7. Системный подход.
8. Опыт работы или желание развиваться в направлении ML будет большим преимуществом.​​​​​​​

ЧТОБЫ ЗАПИСАТЬСЯ НА СОБЕСЕДОВАНИЕ:
1. Жмите «ОТКЛИКНУТЬСЯ».
2. Заполняйте СРАЗУ анкету, которая придет по ссылке сразу после отклика.
4. Ждите звонка оператора.

Мы будем рады видеть вас в нашей команде!