NLP black-box attack
![[2020 EMNLP, NLP black-box attack] BERT-Attack Adversarial Attack Against BERT Using BERT](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FPy5vb%2FbtsgCn7LvDp%2F13r2haTPMyPVSTK3V5ofl0%2Fimg.png)
[2020 EMNLP, NLP black-box attack] BERT-Attack Adversarial Attack Against BERT Using BERT
https://arxiv.org/pdf/2004.09984.pdf 시작하기에 앞서 앞서 필자는 TextFooler에 대해서 리뷰를 진행했다. 굉장히 획기적인 방법이긴 했지만 기법상 여러 tool들을 사용하다보니 의존성이 많아 아쉬움이 남았다. 하지만 BERT-Attack은 black-box attack으로서의 아쉬움을 다소 해결해주는 방법론이라고 할 수 있다. 요약 BERT모델을 finetuning하여 specific task를 수행하도록 바꾼 모델을 pretrained-BERT를 통해 공격하는 공격 방법론 Background & Motivation 사실 background의 경우에는 TextFooler에서 발전된 연구인만큼 비슷하다. 하지만 용어나 조건 등을 좀 더 다듬어서 설명한 부분이 있으니 다시 ..
![[AAAI 2020, NLP black-box attack] TextFooler](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbAGCVq%2Fbtsf41qDHCG%2Fu2ZqCpdkKJiPANxdaHXIRk%2Fimg.png)
[AAAI 2020, NLP black-box attack] TextFooler
https://arxiv.org/abs/1907.11932 Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text Classification and Entailment Machine learning algorithms are often vulnerable to adversarial examples that have imperceptible alterations from the original counterparts but can fool the state-of-the-art models. It is helpful to evaluate or even improve the robustness of these models b a..