Москва
Чем предстоит заниматься:
- Перестраивать и развивать Data-инфраструктуру: ingestion, хранилища, потоки, ETL/ELT — всё, включая мониторинг, отказоустойчивость и CI/CD для data-стримов
- Внедрять и поддерживать инструменты: Kafka, ClickHouse, Debezium, Airflow, dbt, Trino, Superset, а также развивать инфраструктурную платформу Uzum Market с кластерами ClickHouse и связанными системами
- Разрабатывать внутренние инфраструктурные сервисы для обработки и доставки данных с использованием Cloud Agnostic подхода и инструментов (Terraform, Ansible) для построения отказоустойчивой и масштабируемой инфраструктуры
- Работать с Kubernetes и системой доставки данных в реальном времени (Debezium, Kafka)
- Настраивать и сопровождать observability-стек: Prometheus, Grafana, Alertmanager
- Участвовать в CI/CD процессах, реализованных по принципам GitOps
- Участвовать в проектировании репликации, CDC и событийной архитектуры
- Работать в связке с Data Engineers, Backend-разработчиками и платформенной командой
Почему это интересно:
- Современный стек – Kafka, ClickHouse, Debezium, Airflow, dbt, Trino, Superset
- Большие возможности — нам всего 3 года, но мы уже лидеры рынка в стране. Если вы устали отвечать за очень маленькую часть системы и вам хочется драйва, новых вызовов и роста — все это можно получить у нас
- Свобода решений — почти ничего не закопано, и ты влияешь на выбор инструментов и подходов
- Обучение и развитие — мы поддерживаем как внутри компании, так и за ее пределами (митапы, конференции, проф обучение, публикации). А еще помогаем развивать личный бренд
- Уникальная культура — мы сохранили дух стартапа, при этом уже отстроили зрелые процессы. У нас не корпорация с бюрократией, а коммьюнити людей, которые любят свое дело
- Формат работы – можно удаленно из любой точки мира или поможем с релокацией в солнечный Ташкенте
Что для нас важно:
- Уверенное знание Linux (работа с shell, iptables, tcpdump, kernel parameters, ulimits)
- Отличное знание ClickHouse и опыт работы более 3 лет, включая: – архитектуру (движки таблиц, репликация, шардирование, индексы) – backup/recovery VLDB – обновление HA-кластеров без простоев – эксплуатацию ClickHouse в Kubernetes
- Опыт работы с Kubernetes более 1 года, включая QoS, NetworkPolicy, Helm/ArgoCD
- Опыт работы с облачными средами (Yandex Cloud, AWS, GCP и др.)
- Уверенные знания и практический опыт работы со стеком мониторинга (Prometheus, Grafana, Alertmanager)
- Знание и практическая реализация принципов CI/CD, GitOps (ArgoCD, Flux)
- Умение строить отказоустойчивые системы
- Будет плюсом: опыт работы с PostgreSQL, Redis, Kafka, Elasticsearch; BI/аналитикой (Apache Superset, Airflow, Trino); опыт работы с Debezium и понимание CDC в ETL/ELT пайплайнах
Что мы предлагаем:
- Конкурентная зарпалата — платим на уровне топовых компаний
- Карьерное развитие — даём действительно неограниченные возможности для роста как в инженерном, так и в менеджерском треке
- Формат работы — полная удалёнка из любой точки мира или помощь с релокацией в Ташкент
- Команда — 84% специалистов уровня Senior. Растим комьюнити профессионалов
- База — бесконечное желание делать круто, а приятный бонус — ДМС в привязке к вашей локации, обучение и другие плюшки.