コンテキスト制約を突破する推論方式
Автор: AI in the Whitebox - データサイエンスに関わる気になる話題をやさしく解説
Загружено: 2026-02-06
Просмотров: 34
Описание:
AIの「暗記」を「調査」に変える、1000万トークンのコンテキスト制約の壁を突破するRLMについてやさしく解説します。
GPT-5などの最強モデルでさえ逃れられないコンテキストの限界。コンテキストが長くなるほどAIが急激に“おバカ”になるというコンテキストの腐敗(Context Rot)という問題に対する解決策が見つかりました。
今回ご紹介する「Recursive Language Models(RLM)」は、コンテキストをLLMに詰め込むのをやめ、Python実行環境をLLMが自ら操ることで、膨大なコンテキストを「外部リソース」として扱い適時呼び出す、熟練の司書が巨大な図書室から必要な書籍だけをピンポイントで持ってくるような、全く新しい方式です。
自身の“分身”を再帰的に呼び出し、数百万行のコードや数千の文書を「検索・分解・統合」することで、従来の100倍もの情報を処理し、正答率0.1%未満の絶望的な難問を58%まで引き上げるRLMの実力をご覧ください。
https://x.com/wluna2j/status/20205197...
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: