[Paper Review] Model Merging for Continual learning
Автор: 서울대학교 산업공학과 DSBA 연구실
Загружено: 2026-02-05
Просмотров: 464
Описание:
논문 제목 : Editing Models with Task Arithmetic
저널 : ICLR 2023
인용 수 : 1059
선정 배경
최근 Continual Learning은 기존의 Vision 분야에서 뿐만 아니라 최근 LLM에서 많은 시도가 이루어지고 있음. 다양한 연구가 진행되고 있으나, 그 중 가장 많은 연구가 이루어지는 것 중에 하나가 Model Merging 방식
이 논문은 모델의 파라미터 공간에서 ‘학습’이라는 행위를 단순한 ‘벡터의 덧셈과 뺄셈’으로 치환할 수 있음을 증명하며 Model Merging을 단순한 성능 향상 도구가 아닌, '기능 편집(Function Editing)'의 도구로 재정의한 이 연구
이는 데이터를 저장해야 하는 Replay Buffer 없이도, 단순히 학습된 가중치의 차이(Delta)를 더하거나 빼는 것만으로 망각(Forgetting)을 복구하거나 새로운 태스크를 주입할 수 있음을 의미
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: