Data engineer (Flink)

Дата размещения вакансии: 27.04.2026
Работодатель: ЛИАН
Уровень зарплаты:
от 290000 до 350000 RUR
Город:
Москва
Требуемый опыт работы:
Более 6 лет

ЛИАН — системный интегратор с фокусом в аналитике и управлении данными.

Мы работаем в трех направлениях:

1. Автоматизация управленческой отчетности (BI) в малом и среднем бизнесе. Строим хранилища данных, настраиваем сбор и интеграцию, разрабатываем отчеты и дэшборды. Наш стек в BI включает все современные инструменты, в том числе open-source ПО.

2. Заказная разработка аналитических систем. Когда у нашего клиента есть специфичный запрос, мы разрабатываем аналитические системы с нуля. Часто применяем подходы BigData, Data Science, актуальные подходы к программному анализу данных и прогнозированию.

3. Запуск и ресурсное обеспечение команд разработки в комплексных проектах цифровой трансформации. Мы усиливаем команды наших партнеров и клиентов собственными сотрудниками и обеспечиваем максимально быстрый старт новых проектов. Среди наших заказчиков - крупные системные интеграторы, банки, нефтегазовые, химические производства, логистические компании, стартапы.

В рамках проекта требуется специалист, который поможет перевести ключевые процессы обработки данных с классического SQL на потоковую обработку (streaming) в Apache Flink.

Чем предстоит заниматься:

  • Участие в замене SAP на кастомную реализацию с использованием Apache Flink

  • Перевод существующих SQL-логик и ETL-процессов в потоковую обработку (streaming) на Flink

  • Поддержка потоковых пайплайнов на Java + Flink

  • Интеграция с системами-источниками и приемниками данных через Kafka

  • Участие в проектировании архитектуры нового решения

  • Работа в команде с аналитиками и инженерами данных

Наши пожелания к кандидатам:

  • Опыт работы с Apache Flink на реальных проектах (streaming, stateful processing)
  • Уверенное знание Java (работа с многопоточностью, коллекциями, stream API)
  • Хорошие знания по SQL (написание сложных запросов, понимание оконных функций, оптимизация)
  • Опыт работы с Apache Kafka (проducers, consumers, Kafka Streams — как плюс)
  • Понимание принципов замены традиционных ETL/ELT на потоковую обработку
  • Опыт работы с Kubernetes (деплой Flink-кластеров)
  • Опыт работы с DWH
  • Опыт работы с SAP (как источник данных)
  • Опыт работы с Hadoop: Hive, NiFi, Spark будет преимуществом

Что мы предлагаем:

  • Форма трудоустройства на ваш выбор: договору оказания услуг с ИП или самозанятым
  • Участие в интересных масштабных проектах с Заказчиками федерального и международного уровня
  • Работа с передовыми технологиями
  • Возможности профессионального и карьерного роста
  • Полностью удаленная работа
  • Регулярная и достойная оплата труда

В нашей команде работают профессионалы с разносторонним опытом. Здесь ты найдешь профессиональные задачи и новые вызовы, сможешь реализовать свой потенциал.
Хочешь стать частью нашей команды? Мы ждем твоего отклика и свяжемся с тобой !