Junior Data Engineer

Дата размещения вакансии: 14.07.2025
Работодатель: Forrards Group
Уровень зарплаты:
з/п не указана
Город:
Минск
Требуемый опыт работы:
От 1 года до 3 лет

Мы ищем Junior Data Engineer, который присоединится к нашей команде и поможет в разработке и поддержке масштабируемых дата пайплайнов, инструментов миграции данных и ETL/ELT процессов. В этой роли вы получите практический опыт с современным стеком данных, облачными платформами и AI-инструментами, такими как ChatGPT.

Основные обязанности:

  • Разработка и поддержка ETL/ELT пайплайнов для загрузки, трансформации и миграции данных

  • Работа со структурированными и полуструктурированными форматами данных, такими как XML и JSON

  • Интеграция с внешними системами через REST API

  • Разработка решений для обработки данных с использованием MS SQL Server, DynamoDB, AWS Lambda, Azure, Snowflake и Synapse

  • Написание чистого, тестируемого кода на Python и SQL

  • Использование Git для контроля версий и совместной работы

  • Участие в тестировании и валидации потоков данных и трансформаций

  • Помощь во внедрении AI-инструментов (например, ChatGPT API) для автоматизации и анализа

Требования:

  • Уверенные знания SQL и Python

  • Опыт работы с XML, JSON и REST API

  • Понимание принципов ETL/ELT и лучших практик миграции данных

  • Базовый опыт работы с Git

  • Интерес к использованию или опыт работы с AI-инструментами (например, ChatGPT API)

  • Английский: на уровне чтения и письма

Будет плюсом:

  • Опыт написания юнит/интеграционных тестов для пайплайнов

  • Знание серверлесс-функций (например, AWS Lambda)

  • Опыт работы в облачных средах

Мы предлагаем:

  • Возможность работать с современными облачными технологиями в области данных

  • Практическое применение AI в реальных кейсах дата-инжиниринга

  • Поддерживающую команду, ориентированную на рост и обучение

  • Гибкий график и удалённый формат работы

About the Role:
We are looking for a Junior Data Engineer to join our team and help build and maintain scalable data pipelines, data migration tools, and ETL/ELT processes. This role offers hands-on experience with a modern data stack, cloud platforms, and AI tools like ChatGPT.

Key Responsibilities:

  • Develop and maintain ETL/ELT pipelines for data ingestion, transformation, and migration

  • Work with structured and semi-structured data formats such as XML and JSON

  • Integrate with external systems using REST APIs

  • Develop data processing solutions using MS SQL Server, DynamoDB, AWS Lambda, Azure, Snowflake, and Synapse

  • Write clean, testable Python and SQL code

  • Use Git for version control and collaboration

  • Participate in testing and validating data flows and transformations

  • Assist in implementing AI-powered workflows (e.g., ChatGPT API) for automation and analysis

Requirements:

  • Solid knowledge of SQL and Python

  • Experience working with XML, JSON, and REST APIs

  • Understanding of ETL/ELT processes and data migration best practices

  • Basic experience with Git

  • Interest or experience in using AI tools (e.g., ChatGPT API)

  • English: At least reading and writing

Nice to Have:

  • Experience writing unit/integration tests for data pipelines

  • Knowledge of serverless functions (e.g., AWS Lambda)

  • Experience working in cloud environments

What We Offer:

  • Opportunity to work with modern cloud data technologies

  • Exposure to real-world AI use cases in data engineering

  • A supportive team environment focused on growth and learning

  • Flexible work arrangements