Москва
Большая Садовая улица 5к1
Большая Садовая улица 5к1
ОктопусТех – надёжный партнёр в разработке IT-решений и автоматизации процессов.
О проекте:
Мы – команда, которая разрабатывает собственные решения на основе LLM моделей. Нашей целью является предоставление возможности генерировать достоверные тексты, без артефактов, искажений для выбранных областей знаний.
Чем предстоит заниматься:
- Выбором opensource и проприетарных моделей (LLM), их оценкой, дообучением и адаптацией для задач генерации текста, саммаризации, поддержания осознанного диалога, правильной фактологии.
- Решением задач путем составления промптов, настройкой параметров моделей, применением RAG для достижения релевантности и необходимого качества генераций; устранением артефактов.
- Отслеживанием появления новых моделей (LLM) и их модификаций; оценкой качества их генерации, выбором подходящий моделей автоматизированными методами; доработкой бенчмарков при необходимости.
В Ваши обязанности будет входить:
- Тестирование, выбор и настройка моделей (LLM) для текстовых задач, оценка качества генераций и возможности интеграции их в продукт.
- Обработка данных для формирования датасетов, пригодных для дальнейшего обучения моделей.
- Проведение экспериментов, анализ эффективности и производительности моделей, настройка параметров моделей (LLM).
- Поддержание заданного уровня качества генерации для новых моделей и новых задач (промптинг, RAG, pipeline и т. д.).
- Решение задачи узкоспециализированной текстовой генерации (например, профессиональные ответов на основе справочника).
- Разработка, дообучение и тюнинг мультимодальных моделей.
- Быть в контексте актуальных моделей, их архитектуры, возможностей.
Наши пожелания к опыту:
- Опыт решения задач классификации текста, token-classification, NER, text2text-задачи.
- Уверенно понимать архитектуру и механизм работы нейронных сетей, в т. ч. Transfromer-based моделей.
- Знать принципы разметки данных, иметь продуктовый опыт подготовки датасетов для разных сценариев использования моделей.
- Знать методы обучения моделей, иметь опыт обучения и инференса LLM.
- Иметь опыт применения методов fine-tuning и Retrieval-Augmented Generation (RAG) для адаптации и обогащения моделей новыми знаниями.
- Понимать причины появления артефактов генерации, использовать методы их устранения в проектах.
- Уверенные навыки работы с проприетарными LLM по API (OpenAI, Anthropic, Gemini, Yandex).
- Иметь опыт разворачивания и использования opensource моделей LLM на локальном сервере или в облаке (Mistral, Gemma, Llama и др.).
- Знание экосистемы HuggingFace, иметь навыки интеграции моделей из нее.
- Понимание принципов промт-инжиниринга, хорошее владение практическими методами составления промптов.
- Опыт использования бенчмарков для оценки LLM.
- Уверенное владение Python, иметь опыт написания кода с помощью LLM (OpenAI, Anthropic, Gemini, Claude).
- Желателен опыт использования векторных баз данных.
- Навыки работы с Linux, Jupyter Notebook, PyCharm/VSCode, уметь создавать окружение для работы с LLM.
- Опыт работы c GitHub/GitLab, gitlfs, Jira, Google Workspace/Яндекс.Документы.
Будет плюсом
- Опыт создания и применения бенчмарков.
- Опыт оптимизации нейронных сетей по скорости и объему VRAM, включая методы квантизации.
- Навыки использования и обучения мультимодальных моделей.
- Успешное развертывание и интеграцию моделей LLM на сервера, обеспечение их стабильной работы, создание масштабируемой архитектуры.
Мы предлагаем:
- Официальное трудоустройство - оформление по ТК РФ в IT - аккредитованную компанию, белая зарплата, отпускные и больничные;
- гибкое начало и окончание рабочего дня;
- удаленный формат работы;
- ДМС после прохождения испытательного срока;
- мощное оборудование, достаточное для любых экспериментов с LLM.