[텍스트 분류 모델 공격 기법] TextFooler: Is BERT Really Robust?
Автор: 동빈나
Загружено: 2020-11-22
Просмотров: 7210
Описание:
오늘은 자연어 처리 딥러닝 모델에 대한 공격 기법(Adversarial Attack) 논문을 소개합니다. 본 논문은 BERT를 포함해 최신 텍스트 분류 모델에 대하여 효과적으로 동작하는 공격 기법인 TextFooler를 제안한 논문입니다. 2020 AAAI의 Oral Session에서 발표되었으며, 간단하면서도 효과적인 방법으로 WordCNN, WordLSTM, BERT 등의 모델을 속이는 것을 보여줍니다.
논문 핵심 요약: 00:00:00
코드 실습: 00:29:57
논문 같이 읽기: 00:39:23
공격은 목표 모델의 파라미터를 전혀 모르는 상태에서 수행이 가능하며(black-box), 논문에서 제안한 알고리즘은 매우 단순하고 효과적입니다.
① 원본 문장에 포함된 단어 중에서 분류에 큰 영향을 미치는 단어들을 찾습니다.
② 찾은 단어들을 유사한 의미를 가지는 단어로 하나씩 바꾸되, 모델의 결과를 최대한 바꿀 수 있는 방향으로 바꿉니다.
본 시리즈의 동영상에서 사용된 강의 자료(PPT)와 코드는 다음의 깃허브 저장소에 업로드됩니다.
https://github.com/ndb796/Deep-Learni...
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: