ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

[텍스트 분류 모델 공격 기법] TextFooler: Is BERT Really Robust?

Автор: 동빈나

Загружено: 2020-11-22

Просмотров: 7210

Описание: 오늘은 자연어 처리 딥러닝 모델에 대한 공격 기법(Adversarial Attack) 논문을 소개합니다. 본 논문은 BERT를 포함해 최신 텍스트 분류 모델에 대하여 효과적으로 동작하는 공격 기법인 TextFooler를 제안한 논문입니다. 2020 AAAI의 Oral Session에서 발표되었으며, 간단하면서도 효과적인 방법으로 WordCNN, WordLSTM, BERT 등의 모델을 속이는 것을 보여줍니다.

논문 핵심 요약: 00:00:00
코드 실습: 00:29:57
논문 같이 읽기: 00:39:23

공격은 목표 모델의 파라미터를 전혀 모르는 상태에서 수행이 가능하며(black-box), 논문에서 제안한 알고리즘은 매우 단순하고 효과적입니다.

① 원본 문장에 포함된 단어 중에서 분류에 큰 영향을 미치는 단어들을 찾습니다.
② 찾은 단어들을 유사한 의미를 가지는 단어로 하나씩 바꾸되, 모델의 결과를 최대한 바꿀 수 있는 방향으로 바꿉니다.

본 시리즈의 동영상에서 사용된 강의 자료(PPT)와 코드는 다음의 깃허브 저장소에 업로드됩니다.
https://github.com/ndb796/Deep-Learni...

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
[텍스트 분류 모델 공격 기법] TextFooler: Is BERT Really Robust?

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

배치 정규화(Batch Normalization) [꼼꼼한 딥러닝 논문 리뷰와 코드 실습]

배치 정규화(Batch Normalization) [꼼꼼한 딥러닝 논문 리뷰와 코드 실습]

Краткое объяснение больших языковых моделей

Краткое объяснение больших языковых моделей

L33    Exercise in Heat II

L33 Exercise in Heat II

[딥러닝 기계 번역] Transformer: Attention Is All You Need (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)

[딥러닝 기계 번역] Transformer: Attention Is All You Need (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)

토큰화, 벡터화, 임베딩 무슨 차이일까? - NLP와 LLM 텍스트 데이터 기초 용어 이해하기

토큰화, 벡터화, 임베딩 무슨 차이일까? - NLP와 LLM 텍스트 데이터 기초 용어 이해하기

Промышленные роботы в СССР (1986 год)

Промышленные роботы в СССР (1986 год)

ЛУЧШАЯ БЕСПЛАТНАЯ НЕЙРОСЕТЬ Google, которой нет аналогов

ЛУЧШАЯ БЕСПЛАТНАЯ НЕЙРОСЕТЬ Google, которой нет аналогов

JSON мёртв? Что такое TOON? Новый формат данных, созданный для ИИ | Lazy Programmer

JSON мёртв? Что такое TOON? Новый формат данных, созданный для ИИ | Lazy Programmer

Где начало СХЕМЫ? Понимаем, читаем, изучаем схемы. Понятное объяснение!

Где начало СХЕМЫ? Понимаем, читаем, изучаем схемы. Понятное объяснение!

Как создаются степени магистра права?

Как создаются степени магистра права?

Основные теоремы в теории игр — Алексей Савватеев на ПостНауке

Основные теоремы в теории игр — Алексей Савватеев на ПостНауке

GAN: Generative Adversarial Networks (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)

GAN: Generative Adversarial Networks (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

[딥러닝 자연어처리] BERT 이해하기

[딥러닝 자연어처리] BERT 이해하기

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

Shadow Attack - Semantic Adversarial Examples (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)

Shadow Attack - Semantic Adversarial Examples (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)

Предел развития НЕЙРОСЕТЕЙ

Предел развития НЕЙРОСЕТЕЙ

Как работает ChatGPT: объясняем нейросети просто

Как работает ChatGPT: объясняем нейросети просто

Diffusion models from scratch in PyTorch

Diffusion models from scratch in PyTorch

Почему «Трансформеры» заменяют CNN?

Почему «Трансформеры» заменяют CNN?

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]