Data analytics (GigaSearch)

Дата размещения вакансии: 04.03.2026
Работодатель: СБЕР
Уровень зарплаты:
з/п не указана
Город:
Москва
Требуемый опыт работы:
От 1 года до 3 лет

Мы — команда GigaSearch, создаём поисковый сервис, который отвечает на запросы пользователей на естественном языке. Наша миссия: дать GigaChat доступ к актуальной информации, чтобы пользователи получали точные ответы на любые вопросы — включая самые свежие новости и события.

Инженер данных в нашей команде — это человек, который строит “платформу качества”: собирает и сводит данные из разных источников, делает витрины и датасеты для оценки, автоматизирует пайплайны и мониторинг, в том числе — в реальном времени, чтобы деградации находились быстрее, чем их увидят пользователи.

Если вам интересно работать на стыке data engineering, продуктовой аналитики и поиска — и вы хотите не просто “переливать данные”, а делать инфраструктуру, на которой стоит культура качества AI-продукта — приходите к нам.

Над чем мы работаем:

  • единая модель данных для оценки качества ретривера и итогового ответа LLM на продакшн-трафике
  • медальонная архитектура в ClickHouse: bronze (raw) → silver (очищено/нормализовано) → gold (витрины под метрики и мониторинг)
  • автоматические пайплайны оценки и переоценки качества (включая LLM-as-a-judge) и их воспроизводимость
  • витрины и датасеты для оффлайн/онлайн-оценки, A/B-экспериментов и расследований деградаций
  • мониторинг качества данных на потоке: свежесть, полнота, задержки, аномалии, регрессии.

Обязанности

  • проектировать и поддерживать ELT/ETL пайплайны в Airflow (надёжность, идемпотентность, ретраи, backfill, SLA)
  • организовать ingestion между БД с понятными контрактами данных
  • развивать медальонные слои в ClickHouse: raw-таблицы, нормализация/обогащение, gold-витрины под метрики качества поиска
  • делать аналитику “почти real-time” в ClickHouse: инкрементальные расчёты, материализованные представления, предагрегации, оптимизация задержек end-to-end
  • разрабатывать витрины и агрегаты: партиционирование, ключи сортировки, управление TTL, контроль стоимости запросов и времени ответа.

Требования

  • опыт в analytics engineering от 3 лет (уровень middle+ / senior)
  • очень сильный SQL и практический опыт построения витрин (ClickHouse и/или PostgreSQL; оконные функции, сложные агрегации, оптимизация)
  • уверенный Python для задач ETL/ELT (парсинг, валидация, интеграции, утилиты для пайплайнов)
  • опыт с Airflow в проде (DAG design, зависимости, эксплуатация, backfill)
  • хорошее понимание архитектуры данных и жизненного цикла датасетов (raw → нормализация → витрины), умение делать решения поддерживаемыми.

Будет плюсом

  • dbt или аналогичный подход к управлению SQL-моделями (тесты, документация, зависимости)
  • опыт с логами поиска/клика (показы выдачи, клики, сессии, dwell time) и склейкой событий
  • опыт построения мониторинга/дашбордов (Grafana / Superset / DataLens)
  • опыт с Kafka/очередями, Kubernetes, Terraform/Ansible, CI/CD для data-проекта
  • знакомство с OpenSearch/Elastic как компонентом поисковой системы.

Условия

  • комфортный современный офис рядом с м. Кутузовская
  • гибридный формат работы (на испытательном сроке посещаем офис, далее 2-3 дня в неделю - работаем из дома).
  • ежегодный пересмотр зарплаты, годовая премия
  • корпоративный спортзал и зоны отдыха
  • система обучения для профессионального и карьерного развития
  • расширенный полис ДМС с первого дня работы и страхование для семьи
  • программа ипотеки для сотрудников
  • бесплатная подписка СберПрайм+, скидки на продукты компаний-партнеров
  • вознаграждение за рекомендацию друзей в команду Сбера.