от 5000 до 8000 RUR
Москва
Более 6 лет
Position: Data Engineer
Level: Senior
Experience: 8+ лет (НЕ фриланс)
Stack: NVIDIA Triton Inference Server, Amazon SageMaker, GCP Vertex, K8S, Airbyte, Python, ETL, Data Modeling
Location: Remote
Employment: Fulltime
Languages: English B2+
КОГО ИЩЕМ:
- Data AI Engineer с опытом работы с инфраструктурой AI на AWS и GCP, включая Sagemaker, Vertex, Triton и вычисления на графических процессорах.
- Только fulltime, только в гибридном формате.
- Нужны «рабочие руки», а НЕ технический менеджер.
- Со знанием разговорного английского языка.
КТО НЕ ПОДОЙДЁТ:
- Кандидаты с преобладающим или последним опытом в роли технических менеджеров: Team Lead, CTO и т.п. – это нерелевантный данной позиции опыт работы. Мы ищем «рабочие руки», а НЕ технического менеджера.
- Кандидаты, которые ищут себе вторую работу. Любое совмещение будет заметно в первые 2 месяца. Нужен честный фултайм.
- Кандидаты с преобладающим или последним опытом работы на фрилансе.
МЫ ОЖИДАЕМ:
- Практический опыт работы от 8 лет с машинным обучением, включая классификацию, кластеризацию, прогнозирование временных рядов и обнаружение аномалий. Необходимо знать концепции и уметь работать с наиболее распространенными библиотеками.
- Опыт работы с Python и опыт создания и мониторинга производственных сервисов или API от 6 лет. Опыт работы с API сторонних разработчиков обязателен.
- Конвейерная обработка данных: опыт работы с SQL, ETL, моделированием данных. Опыт работы с жизненным циклом создания решений машинного обучения.
- Опыт работы с инфраструктурой AI на AWS и GCP, включая Sagemaker, Vertex, Triton и вычисления на графических процессорах.
- Опыт работы с Amazon SageMaker от 1 года.
- Опыт работы с GCP Vertex от 1 года.
- Опыт работы с NVIDIA Triton Inference Server от 1 года.
- Опыт работы с Kubernetes (K8S) от 5 лет.
- Опыт работы с Airbyte от 1 года.
- РАЗГОВОРНЫЙ английский язык на уровне B2+ (команда англоязычная).
ЗАДАЧИ:
- Integrate and Scale: Extend, scale, monitor, and manage our ever-growing pile of 100s of integrations. Ensure they are reliable and responsive.
- Own the Integrations: Implement new connections and be the master and owner of these integrations.
- Optimize AI Pipelines: Ensure our AI pipeline works like clockwork. Improve and support its complex infrastructure.
- Model Hosting and Monitoring: Host and monitor NLP models and LLM for real-time and batch inference.
- Develop Monitoring Systems: Create and support robust models for monitoring.
- Support and Innovate: Assist with a long tail of super important tasks, bringing innovative solutions to the table.
МЫ ПРЕДЛАГАЕМ:
- Конкурентоспособную заработную плату.
- Полностью remote.
- Гибкий график работы.
- Работа в продуктовой компании.