В США изобрели ИИ с бесконечной памятью

14 января 2026, 19:49
Фото: Кузьмичёнок Василий/Агентство «Москва»
14 января 2026, 19:49 — Общественная служба новостей — ОСН

Исследователи из Массачусетского технологического института (MIT) представили новый подход – рекурсивную языковую модель (RLM), – позволяющую искусственному интеллекту работать с текстами, в 100 раз превышающими стандартное ограничение по длине. Вместо попытки «запомнить» весь документ, модель научилась рассматривать его как среду для навигации и точечного извлечения нужных данных.

Традиционные языковые модели имеют фиксированный размер «контекстного окна» (обычно до 100 тысяч токенов). При обработке более длинных текстов (например, книг, многолетних архивов или обширных код-баз) их производительность резко падает: факты путаются, логика рассуждений нарушается, и качество ответов снижается.

Идея MIT заключается в том, чтобы не загружать весь объём данных в «рабочую память» модели. Вместо этого документ структурируется как база данных, по которой ИИ может программно перемещаться, выбирая только те фрагменты, которые действительно необходимы для ответа на запрос. Это похоже на работу поисковика, который находит нужный параграф в огромной библиотеке, не читая все книги целиком.

В тестах RLM успешно обрабатывала целые книги, многолетние архивы и большие кодовые базы, демонстрируя более высокую точность в сложных задачах, требующих глубокого анализа.

Исследователи опубликовали библиотеку с реализацией RLM, включая её облегчённую версию для разработчиков. Над промышленным внедрением технологии уже работает компания Prime Intellect. Этот подход может стать новым стандартом для работы ИИ с гигантскими массивами текстовой информации.

Больше актуальных новостей и эксклюзивных видео смотрите в телеграм канале ОСН.