Skip to content

Instantly share code, notes, and snippets.

@niquola
Last active January 24, 2026 11:31
Show Gist options
  • Select an option

  • Save niquola/5c378a5eec0e3f57c773b2b2b70d0f9c to your computer and use it in GitHub Desktop.

Select an option

Save niquola/5c378a5eec0e3f57c773b2b2b70d0f9c to your computer and use it in GitHub Desktop.
Mental Time Travel - recall, imagine, relive

Ментальное путешествие во времени (Mental Time Travel)

Три режима

  • Recall — вспомнить прошлое (эпизодическая память, воспроизведение прошлого опыта с контекстом)
  • Imagine — представить будущее (проспективное мышление, моделирование возможных сценариев)
  • Relive — пережить заново (повторное переживание с эмоциональным вовлечением)

Ключевые идеи

  • Все три режима задействуют default mode network и гиппокамп
  • Мозг "конструирует" сцену заново каждый раз — воспоминания пластичны
  • Imagine использует те же нейросети, что и recall — будущее строится из фрагментов прошлого
  • Relive отличается от recall степенью эмоционального вовлечения — как будто событие происходит сейчас

Recursive Language Models (RLM)

Источник: https://alexzhang13.github.io/blog/2025/rlm/ Авторы: Alex Zhang & Omar Khattab, MIT CSAIL (Oct 2025)

Проблема: Context Rot

Деградация качества модели при росте контекста. Не искусственные needle-in-haystack тесты, а реальные сценарии — длинные сессии кода, затяжные диалоги.

Идея

Модель получает только запрос (query), а весь контекст хранится как Python-переменная. Через REPL-среду модель сама решает, как взаимодействовать с контекстом — рекурсивно вызывая себя на подмножествах данных.

Архитектура

  • Root LM (depth=0) видит только query
  • Запускает recursive LM calls (depth=1+) над частями контекста
  • Возвращает результат через FINAL(answer) или FINAL_VAR(variable_name)
  • Контекст root-модели остаётся минимальным

Результаты

  • OOLONG benchmark (132k токенов): RLM(GPT-5-mini) превосходит GPT-5 на 34 пункта (+114%)
  • 263k токенов: +15 пунктов (+49%)
  • BrowseComp-Plus (1000+ документов): RLM(GPT-5) — идеальный результат, baseline GPT-5 деградирует
  • Сопоставимые API-косты при значительном выигрыше в качестве

Эмерджентные стратегии

Модель самостоятельно находит интерпретируемые паттерны работы с контекстом:

  1. Peeking — заглянуть в начало контекста, понять структуру
  2. Grepping — regex/keyword фильтрация для сужения поиска
  3. Partition + Map — разбить контекст на чанки для параллельной обработки
  4. Summarization — извлечение сжатой информации из подмножеств
  5. Programmatic Output — прямое вычисление вместо генерации

Отличие от агентов

RLM — context-centric, агенты — problem-centric. Вместо человеческой логики декомпозиции задачи, фреймворк доверяет модели самой определить оптимальную стратегию управления контекстом.

Ограничения

  • Нет асинхронного выполнения и prefix caching
  • Блокирующие рекурсивные вызовы создают латентность (секунды → минуты)
  • Нет гарантий по стоимости и времени выполнения

Вывод

RLM — отдельная ось масштабирования test-time compute, комплементарная reasoning-моделям и агентам. Качество RLM прямо коррелирует с возможностями базовой модели.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment