Мы ищем Junior Data Engineer, который присоединится к нашей команде и поможет в разработке и поддержке масштабируемых дата пайплайнов, инструментов миграции данных и ETL/ELT процессов. В этой роли вы получите практический опыт с современным стеком данных, облачными платформами и AI-инструментами, такими как ChatGPT.
Основные обязанности:
-
Разработка и поддержка ETL/ELT пайплайнов для загрузки, трансформации и миграции данных
-
Работа со структурированными и полуструктурированными форматами данных, такими как XML и JSON
-
Интеграция с внешними системами через REST API
-
Разработка решений для обработки данных с использованием MS SQL Server, DynamoDB, AWS Lambda, Azure, Snowflake и Synapse
-
Написание чистого, тестируемого кода на Python и SQL
-
Использование Git для контроля версий и совместной работы
-
Участие в тестировании и валидации потоков данных и трансформаций
-
Помощь во внедрении AI-инструментов (например, ChatGPT API) для автоматизации и анализа
Требования:
-
Уверенные знания SQL и Python
-
Опыт работы с XML, JSON и REST API
-
Понимание принципов ETL/ELT и лучших практик миграции данных
-
Базовый опыт работы с Git
-
Интерес к использованию или опыт работы с AI-инструментами (например, ChatGPT API)
-
Английский: на уровне чтения и письма
Будет плюсом:
-
Опыт написания юнит/интеграционных тестов для пайплайнов
-
Знание серверлесс-функций (например, AWS Lambda)
-
Опыт работы в облачных средах
Мы предлагаем:
-
Возможность работать с современными облачными технологиями в области данных
-
Практическое применение AI в реальных кейсах дата-инжиниринга
-
Поддерживающую команду, ориентированную на рост и обучение
-
Гибкий график и удалённый формат работы
About the Role:
We are looking for a Junior Data Engineer to join our team and help build and maintain scalable data pipelines, data migration tools, and ETL/ELT processes. This role offers hands-on experience with a modern data stack, cloud platforms, and AI tools like ChatGPT.
Key Responsibilities:
-
Develop and maintain ETL/ELT pipelines for data ingestion, transformation, and migration
-
Work with structured and semi-structured data formats such as XML and JSON
-
Integrate with external systems using REST APIs
-
Develop data processing solutions using MS SQL Server, DynamoDB, AWS Lambda, Azure, Snowflake, and Synapse
-
Write clean, testable Python and SQL code
-
Use Git for version control and collaboration
-
Participate in testing and validating data flows and transformations
-
Assist in implementing AI-powered workflows (e.g., ChatGPT API) for automation and analysis
Requirements:
-
Solid knowledge of SQL and Python
-
Experience working with XML, JSON, and REST APIs
-
Understanding of ETL/ELT processes and data migration best practices
-
Basic experience with Git
-
Interest or experience in using AI tools (e.g., ChatGPT API)
-
English: At least reading and writing
Nice to Have:
-
Experience writing unit/integration tests for data pipelines
-
Knowledge of serverless functions (e.g., AWS Lambda)
-
Experience working in cloud environments
What We Offer:
-
Opportunity to work with modern cloud data technologies
-
Exposure to real-world AI use cases in data engineering
-
A supportive team environment focused on growth and learning
-
Flexible work arrangements