Мы в поиске Data Scientist в команду Ranking&Search.
Наша миссия - использовать машинное обучение для предоставления пользователю лучшего персонализированного опыта в каталоге и поиска самых релевантных товаров по текстовому запросу. Ранжирование каталога - ключевая точка влияния, изменения в которой влияют на результаты всей компании. У нас уже есть хорошая база, впереди более продвинутые подходы и технологии.
Предстоит работать над такими задачами:
-
Развитие моделей ранжирования товаров в каталоге/поиске:
-
Персонализация каталога/поиска;
-
Добавление онлайн факторов по текущей сессии;
-
Адаптация ранжирования для новых пользователей;
-
Развитие алгоритмов генерации кандидатов;
-
-
Улучшение алгоритмов поиска, в том числе с использованием нейронных сетей.
Стэк технологий: Big data (Hadoop, PySpark, Hive), Python, Catboost, Airflow, Docker, SQL, PyTorch.
Почему у нас классно:
- Хорошо выстроенные процессы: квартальное планирование по методологии OKR, двухнедельные спринты, регулярные стендапы и проектные встречи для синхронизации.
- Сильная команда middle и senior специалистов, развитое DS-сообщество, где есть возможность обмениваться знаниями на внутренних митапах
- У нас представлен полный жизненный цикл разработки data-driven продуктов с применением ML — от идеи и генерации гипотез до запуска АБ тестов. В части разработки онлайн-сервисов и деплоя моделей нам помогает команда инженеров.
Мы ожидаем:
- Опыт в области анализа данных и машинного обучения (от 2 лет);
- Опыт работы с SQL, Hadoop, Hive, Spark;
- Владение Python, Linux, методами работы с большими данными;
- Опыт работы как минимум с 2 ML библиотеками: Scikit-learn, CatBoost/XGBoost, PyTorch, Spark ML;
- Знания теории вероятностей и математической статистики;
- Знания в области машинного обучения, прогнозного моделирования и методов статистического анализа;
- Знание алгоритмов и структур данных;
- Высшее образование в области прикладной математики, информационных технологий, информатики и т.п;
- Английский язык на уровне технического чтения.
Как мы работаем:
- Пишем на Python 3.6+ и PySpark 3.0;
- Для ресерча доступны два сервера (80 cores, 650Gb RAM), на которых развернут JupyrerHub и есть доступ к Hadoop-кластеру;
- Код с логикой ML-пайплайнов упаковываем в Docker и выкатываем, используя CI/CD-инструменты с запуском code style проверок и тестов;
- Используем Airflow для управления ML-пайплайнами и запуском их по расписанию;
- В командах есть культура code review как для изменений по части продакшен-пайплайнов, так и для ресерч-задач;
- Регулярно проводим командные брейнштормы с целью генерации новых идей по развитию наших data-driven продуктов;
- В компании внедрена культура принятия решений на основании данных и все изменения тестируем через АБ-эксперименты.