[AI보안] 프라이버시 보호는 데이터베이스 수준을 넘어 모델 메모리 수준으로 확장되어야 한다.
Автор: AI 교수의 꿈 일상 취미 여행 강연 이야기
Загружено: 2025-11-27
Просмотров: 3
Описание:
인공지능 지식과 활용을 일상 생활에서
(1) 공격이 모델 기억을 통해 개인 정보 유출
(2) GDPR은 데이터 수집·저장 최소화를 요구
(3) LLM 시대에는 ‘모델이 기억하는 양’ 자체를 제한해야 한다는 새로운 원칙이 필요
From Data Minimization to Memory Minimization
“From Data Minimization to Memory Minimization”
Are LLM Parameters Personal Data?
“Are LLM Parameters ‘Personal Data’ under GDPR?”
Hamburg DPA 요약: “파라미터는 일반화된 weight, PD 아니라는 입장 소개”
반대 견해: model inversion, data extraction 등을 고려하면 식별 가능성이 있다는 논증(Algorithms that Forget, Right to be Forgotten in LLM Era 등).
메시지: “어떤 위협 모델을 상정하느냐에 따라, 같은 모델이 PD가 될 수도, 아닐 수도 있다.”
RQ1: 메모리 확장형 LLM(Memory-extended LLM)이 데이터 최소화 원칙과 어떻게 충돌·조화되는가?
RQ2: RTBF(Selective Forgetting)를 LLM 파라미터·메모리·외부 벡터DB 수준에서 어떻게 정의해야 하는가?
RQ3: Machine Unlearning·Selective Forgetting·DP가 결합된 실질적 준수 아키텍처를 설계할 수 있는가?
논문: Algorithms that forget: Machine unlearning and the right to erasure (Computer Law & Security Review, 2023)
Algorithms that forget
저자: 컴퓨터과학자(ML) + 법학자(데이터 보호법) 공동 연구.
핵심 질문:
ML 모델이 GDPR상 “개인정보”가 될 수 있는가?
그렇다면 **GDPR 제17조(삭제권/잊힐 권리)**는 어디까지 모델 자체에 미치는가?
머신 언러닝(machine unlearning) 기술이 실제로 제17조 준수 수단이 될 수 있는가, 아니면 결국 재학습(retraining)이 필요한가?
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: