Консалтинговая группа "Текарт" - центр компетенции "Робототехника".

Подробнее...
Основное меню
Категории новостей
Логотип

Российские ученые научили рекомендательные системы глубже понимать пользователей

Учёные Центра практического искусственного интеллекта Сбербанка вместе с исследователями Института AIRI, Университета Иннополис и ИТМО нашли способ переносить глубокие семантические знания из больших языковых моделей в компактные рекомендательные системы. Для пользователя это повышает точность подбора товаров, фильмов и другого контента и при этом не замедляет работу сервисов — скорость выдачи рекомендаций остаётся на уровне исходной лёгкой модели.

Свои результаты исследователи опубликовали в научной статье, подготовленной под руководством Алексея Васильева — исполнительного директора по исследованию данных Центра практического искусственного интеллекта Сбербанка. Работа объединённой команды исследователей была представлена на престижной конференции ECIR 2026.

Задача рекомендательных систем на последовательностях заключается в том, что они хорошо улавливают временные цепочки действий пользователя, но хуже понимают его истинные предпочтения, особенно если данных о человеке мало. Большие языковые модели умеют восстанавливать эти скрытые смыслы, но использовать их напрямую в реальных сервисах ресурсозатратно: один запрос к LLM может длиться более 10 минут. Подход российских ученых решает эту задачу. На этапе обучения модели по истории взаимодействий и текстовым метаданным формируется профиль пользователя — его предпочтения и особенности поведения. Затем он превращается в вектор, с которым выравниваются внутренние представления самой рекомендательной модели. В итоге, когда система выдаёт рекомендации реальному человеку (на этапе инференса), ресурсоёмкая модель уже не требуется.

Проверка на четырёх наборах данных показала: добавление LLM-дистилляции к популярным моделям SASRec и BERT4Rec даёт устойчивый прирост качества. На датасете ML-20M точность NDCG@10 выросла на 5,62%, а полнота Recall@10 — на 4,74% по сравнению с обычным SASRec. При этом скорость создания рекомендаций оказалась в 190 раз выше (4,37 секунды против 840 секунд) по сравнению с базовым методом IDGenRec на основе больших языковых моделей.

Николай Тиден, директор Центра практического искусственного интеллекта Сбербанка: «Большие языковые модели обладают колоссальным объёмом знаний о мире и о том, как люди формулируют свои предпочтения. Но использовать их напрямую в рекомендательных сервисах — всё равно что приглашать профессора лингвистики для ответа на каждый вопрос в чате. Наш подход берёт у "профессора" самое ценное — понимание глубинных мотивов пользователя — и передаёт это быстрому и лёгкому "ассистенту". В итоге человек получает более точные рекомендации без задержек, а бизнес — масштабируемое решение без лишних расходов на инференс».

Использование решения позволит цифровым сервисам еще лучше понимать предпочтения пользователя. Кинотеатр подберёт фильм, который действительно понравится, интернет-магазин покажет нужный товар, даже если клиент ещё сам не сформулировал запрос. Компании же получают готовый метод повышать качество рекомендаций без роста вычислительных затрат, перестройки архитектуры и необходимости держать в продакшене тяжёлую большую языковую модель. Это особенно важно для крупных промышленных систем, где важна каждая миллисекунда.

Комментарии

(0) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован



Новые комментарии

Большие языковые модели можно оптимизировать до 15% без потери качества
Гость
27.03.2026
12:54:31
Интересно, что в Сбербанке явно двигаются в сторону собственной оптимизации.
Нейросеть генерирует пугающие лица под музыку
Фанатка Франкенштейна
17.09.2025
03:22:03
Привет зловещая долина!)