BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ– компанией.
На текущий момент с нами работает более 2500 высококлассных аналитиков, руководителей проектов, разработчиков, тестировщиков и специалистов по сопровождению крупных информационных систем. Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – ведущие системообразующие финансовые, телеком и ритейл компании страны.
Центральный офис Bell Integrator расположен в Москве, представительства – в Нижнем Новгороде, Пензе, Саратове, Уфе, Санкт-Петербурге, Минске (Беларусь).
Сейчас мы в поиске DevOps инженер (DSAP) Middle+/Senior
Обязанности:
- Внедрение, администрирование, развитие Data Science Analytical Platform (Kubernetes кластер + JupyterHub и AirFlow) и Data Platform (Kubernetes, s3, Spark);
- Развитие и поддержка существующих DevOps pipelines для проектов, запускаемых на платформах;
- Поддержка окружений разработки для команд Data Scientists и Data Engineers;
- Обеспечение работы продуктовых решений, запускаемых на платформах;
- Настройка мониторинга сервисов (JupyterHub, Airflow, Spark, Kubernetes и др.) и оповещений;
- Разработка документации DevOps процессов.
Требования:
- Релевантный опыт работы от 2х лет;
- Опыт администрирования/опытный пользователь OC Linux (RHEL, CentOS);
- Опыт работы с системами оркестрации контейнеров (K8S, OpenShift);
- Infrastructure as code (Ansible+Terraform);
- Опыт работы с CI/CD (Jenkins, Bamboo, TeamCity и др.)
- Опыт работы с системами контроля версий (Bitbucket, GitLab и др.);
- Опыт работы с хранилищем артефактов (Artifactory, Nexus и др.);
- Опыт работы с инструментами мониторинга (Grafana, Prometheus, Zabbix);
- Понимание принципов виртуализации, SDS и SDN;
- Опыт проектирования распределенных приложений;
- Опыт работы с корпоративными хранилищами данных и понимание принципов их построения.
Будет плюсом:
- Опыт работы с JupyterHub и AirFlow;
- Проактивное самостоятельное обучение
- Опыт взаимодействия с data engineers и data scientists;
- Опыт работы с инструментами контроля качества моделей – например MLFlow, kubeflow и похожих;
- Опыт работы с другими инструментами BigData и DevOps (ELK, nginx, kafka, и др.);
- Опыт программирования на Python, Apache Spark, Go, PHP;
- Опыт работы с СУБД noSQL, PostgreSQL.
Условия:
- Достойный уровень заработной платы (по итогам технического интервью);
- Работа в аккредитованной IT компании;
- Сотрудничество: ТК РФ, ИП, ГПХ;
- ДМС, расширенные возможности стандартного социального пакета;
- Корпоративный абонемент на фитнес и курсы английского языка;
- Командная работа по гибким методологиям;
- Реферальная система «Приведи друга – получи бонус»;
- Дистанционный формат работы.