Инженер по тестированию Hadoop+Kafka

Дата размещения вакансии: 27.11.2024
Работодатель: Альянс
Уровень зарплаты:
от 180000 до 250000 RUR
Город:
Москва
Требуемый опыт работы:
От 3 до 6 лет

Чем мы занимаемся?

Мы создаем программно-аппаратные комплексы для высоконагруженных корпоративных ИТ-инфраструктур, включая платформы для хранения больших объемов данных, обработки информации и виртуализации. Наши решения помогают компаниям строить надежные, масштабируемые системы, отвечающие строгим требованиям производительности, безопасности и отказоустойчивости.

Обязанности сотрудника

Работа с заказчиками:

  • Проведение технических консультаций инженерного уровня.
  • Развертывание стендов, настройка деморесурсов.
  • Сопровождение пилотных проектов, участие в разработке и исполнении ПМИ.

Подготовка стендов и проведение тестов:

  • Проведение R&D: проверка архитектурных решений, технологий и компонентов.
  • Разработка и проведение тестирования (функциональные тесты, тесты отказоустойчивости, нагрузочное тестирование).
  • Выявление узких мест и факторов, влияющих на масштабирование.

Разработка инструментария и документации:

  • Автоматизация тестирования.
  • Создание скриптов и утилит, адаптация инструментов (резервное копирование, отказоустойчивость).
  • Выработка стандартных настроек и методик.
  • Разработка параметров мониторинга и способов их измерения.
  • Наполнение базы знаний, написание отчетов и руководств.

Техническая поддержка (третья линия):

  • Анализ и оптимизация производительности.
  • Решение сложных инцидентов.
  • Взаимодействие с разработчиками и вендорской техподдержкой.

Требования к кандидату

Обязательные навыки:

  • Уверенное владение Linux на уровне администратора (основные дистрибутивы: RHEL, CentOS, Debian, Ubuntu, Alt Linux, Astra Linux).
  • Умение писать и отлаживать скрипты на Bash.
  • Создание модулей Systemd.
  • Базовые знания Ansible.
  • Уверенное администрирование Hadoop.
  • Работа с брокерами сообщений и потоковыми системами (Kafka, Flume, Flink, Storm).
  • Чтение кода на Java и Scala.
  • Понимание принципов работы JVM и средств её отладки.
  • Владение инструментами сборки Maven и Gradle.

Желательные навыки:

  • Развертывание кластеров Hadoop и работа с кластерами от 10 узлов и 100 ТБ.
  • Базовые знания сетевых технологий.
  • Навыки устранения неполадок в Linux (GDB, Valgrind, BPF).
  • Владение инструментами профилирования и тестирования производительности (iperf, fio, sysbench).
  • Опыт работы с виртуализацией и контейнеризацией.
  • Работа с эталонными тестами Hadoop и Kafka (terasort, kafka-perf-test).
  • Эксплуатация HBase, Phoenix, Spark.
  • Разработка скриптов на Python.
  • Опыт работы с реляционными СУБД и знание SQL.
  • Работа с системами контроля версий (Git) и корпоративной вики (Confluence).

Условия работы:

  • Стабильный конкурентный доход, обсуждаемый индивидуально.
  • Прозрачный карьерный рост и профессиональное обучение.
  • Возможность сертификации за счёт компании.
  • Индивидуальный план развития, ежегодная аттестация.
  • ДМС (поликлиника, стоматология, госпитализация).
  • 50% компенсация онкострахования, а также ДМС для детей сотрудников.

Заинтересовала вакансия? Оставьте отклик и начните свой путь в профессиональной команде!