LogicLike - цифровая среда для развития логики и мышления детей и взрослых. Мы помогаем провести время за экраном весело и с пользой.
Наши продукты:
- WEB платформа для детей 4-12 лет
- Мобильное приложение для детей 4-12 лет (iOS + Android)
- Мобильное приложение для взрослых (iOS + Android)
Наш масштаб - более 1 000 000 пользователей в месяц из 60 стран.
Мы верим в data-driven подход и развиваем собственную аналитическую платформу, чтобы лучше понимать наших пользователей и делать продукт мирового уровня. Наша команда небольшая, но сильная, и мы ищем человека, который станет участником нашей data-команды.
О роли
Мы ищем Data Engineer, который готов расти и развиваться вместе с нами. Вы будете принимать непосредственное участие в развитии нашей self-hosted аналитической инфраструктуры.
Чем предстоит заниматься:
- Разработка и поддержка ETL/ELT пайплайнов: Проектировать, создавать и сопровождать DAG'и в Apache Airflow для сбора и обработки данных.
- Работа с данными в Lakehouse: Писать эффективные SQL-запросы к нашему хранилищу на базе Trino и Iceberg, моделировать витрины данных.
- Создание и автоматизация отчетности: Разрабатывать и поддерживать дашборды в Apache Superset, отвечая на ключевые вопросы бизнеса и продукта.
- Оптимизация и развитие: Участвовать в оптимизации запросов и улучшении архитектуры нашей аналитической платформы.
Наш идеальный кандидат:
- Имеет опыт работы на позиции Data Engineer или Data Analyst (с инженерным уклоном) от 2 лет
- Уверенно владеет SQL
- Программирует на Python: Имеете опыт написания скриптов для обработки данных (Pandas) и опыт создания DAG'ов для Apache Airflow.
- Работал с одним из BI-инструментов: Создавал дашборды в Superset, Metabase, Tableau, Power BI или аналогичном инструменте.
- Понимает принципы DWH: Знает, что такое модели данных, партиционирование, и зачем нужны витрины данных.
- Проактивен и самостоятелен: Готов разбираться в новых технологиях и не боится предлагать свои решения.
Будет большим плюсом:
- Опыт работы с нашим стеком: Trino (TrinoDB/Presto), Apache Iceberg, Apache Airflow, Apache Superset.
- Опыт работы с self-hosted инфраструктурой (Linux, Docker).
- Интерес к сфере EdTech и мобильным продуктам.
- Опыт анализа данных продуктовой аналитики (A/B-тесты, воронки, retention).
Наш стек:
- Хранилище: S3, Apache Iceberg, PostgreSQL
- Движок запросов: Trino
- Оркестрация: Apache Airflow
- Визуализация: Apache Superset
- Инфраструктура: Docker, Kubernetes
Что мы предлагаем:
- Распределенная русскоговорящая команда из 40 человек. Можно работать из любой точки мира.
- Возможность напрямую влиять на развитие продукта, которым пользуются миллионы людей по всему миру.
- Работа с современным и востребованным стеком технологий в области данных.
- Возможность работать полностью удаленно.
- Отсутствие бюрократии и быстрые процессы принятия решений.
Хотите присоединиться к нам? Отправляйте свое резюме, и давайте знакомиться!