하루 하루

펭귄브로의 3분 딥러닝 파이토치맛_9일차 본문

IT/Artificial intelligence

펭귄브로의 3분 딥러닝 파이토치맛_9일차

san_deul 2020. 4. 26. 09:00

적대적 공격

 

적대적 공격은 노이즈 생성해서 사람의 눈에는 구분이 되지 않지만 머신러닝 모델에게는 착시를 만들어 헷갈리도록 만드는 예제를 만드는 것이다. 위의 사진에서 왼쪽은 원본 사진이고, 오르쪽은 노이즈가 추가된 사진이다.

노이즈가 추가되어도 사람은 웰시코기로 분류하지만 적대적공격으로 딥러닝은 Whippet으로 분류한다.

 

 

Whippet 사진

 

적대적 예제 분류 기준

1. 기울기와 같은 모델 정보가 필요한가?

-> O : White Box Model

-> X : Black Box Model

2. 원하는 정답으로 유도할 수 있는지?

-> O : Targeted

-> X : Non- Targeted

3. 노이즈를 생성하기 위해 반복학습이 필요한가?

-> O : Iterative

-> X : One-Shot

4. one noise - one feature

-> O : 범용적 노이즈가 아님

-> X : 범용적 노이즈

 

FGSM 공격

White Box / Non-Targeted / One -Shot

 

원본에 잡음을 희석해서 더한다. ( *잡음을 희석한다 = 잡음에 아주 작은 수를 곱한다. )

원본 panda에 노이즈가 더해지면서 긴팔원숭이로 인식된다.

 

 

 

 

Comments