생성형 인공지능 윤리 2 > Chapter 8. 안전하고 신뢰할 수 있는 인공지능

[활동2] 교통표지판 인식 정확도 높이기


인공지능 기술은 인간을 넘어서는 모습을 보여주지만 약점도 존재합니다. ‘적대적 공격’은 인공지능이 갖고 있는 약점을 이용하여 속이는 기술입니다. 원본 이미지에 대한 정확한 판단을 방해하도록 노이즈로 구성된 이미 지를 더하는 방식입니다. 이러한 적대적 공격은 향후 인공지능이 광범위하게 보급될 우리 사회에 큰 위협이 될 수 있습니다. 실제로 정지 표지판에 간단한 스티커를 붙이는 것만으로도 인공지능이 표지판을 완전히 다른 표지판으로 인식하도록 만들 수 있다는 연구가 있었습니다. 이것은 교통사고를 유발하는 것은 물론이고, 자율 주행 자동차에 대한 신뢰도를 크게 떨어뜨리게 됩니다. 이런 일이 실제로 자율 주행 자동차 동작 중에 발생한다면 우리의 안전을 위협하지 않을까요?


[수업활동 Tip]

1) 인공지능의 신뢰성이 안전성과 연관이 있음을 안내합니다.

 


티처블 머신을 활용하여 교통 표지판을 인식하는 모델을 만들어보겠습니다. 여러 경우를 바탕으로 인식의 정확도를 높이는 방안에 대해 탐구하겠습니다.



여러분은 시험을 잘 보기 위해 어떻게 공부하나요? 반복적으로 학습하거나, 다양한 예제를 풀거나, 단원을 나누어서 풀 수 있습니다. 인공지능도 역시 정확하게 동작하기 위해 적합한 학습 방법이 필요합니다. 티처블 머신을 활용하여 에포크, 학습률, 학습 데이터의 양 등을 조절해보며 교통 표지판의 인식 정확도를 높여보도록 해봅시다.


[관련 자료]

- 티처블 머신: https://teachablemachine.withgoogle.com/

- 구글 잼보드: 

[수업활동 Tip]

1) 이미지 인식 정확도를 높이기 위해 다양한 학습 방법이 있다는 것을 이해하도록 안내합니다.


필수 활동: 교통표지판 인식 정확도 높이기

 1. 티처머신에 접속하여 ‘시작하기’를 클릭합니다.

 

 2. ‘이미지 프로젝트’에서 ‘표준 이미지 모델’을 클릭합니다.


 

 3. 표지판 이미지 데이터를 코들 폴더에서 다운받습니다. (아카이브로 다운로드)

 

 

 4. 다운 받은 파일의 압축을 풀면 4개의 폴더가 있습니다. 

 - Limit30, Limit50 폴더의 파일을 이용합니다.

 5. 속도 제한 30과 속도 제한 50 표지판을 분류하기 위해 클래스명을 입력하고 이미지를 업로드합니다.

 (업로드만 하고 아직 학습시키지 않습니다.)

 

 

 6. 모델을 학습시키기 전에 ‘고급’ 버튼을 통해 에포크, 배치 크기, 학습률을 설정합니다. 

 - 에포크 : 데이터 세트의 모든 샘플이 모델을 통해 학습되는 횟수 

 - 배치크기 : 한 번 학습할 때 사용되는 데이터의 수 

 - 학습률 : 한 번 학습할 때 학습하는 양

 

 

 7. 과대 적합이 무엇인지 알아봅시다. 

 - 과소적합 : 학습이 덜 된 상태로, 구분되지 않은 ○와 △가 꽤 있습니다. 

 - 과대적합 : 학습이 너무 많이 된 상태로, ○와 △를 100% 정확하게 구분하고는 있지만, 이 외에 다른 데이터를 입력받았을 때 결과가 부정확할 가능성이 높습니다.


 

 8. 에포크 10, 배치크기 16, 학습률 0.001로 학습시켰을 때의 정확도 

 9. 에포크 50, 배치크기 16, 학습률 0.001로 학습시켰을 때의 정확도 

 10. 9번과 동일한 상태에서 더 많은 양의 데이터를 학습시켰을 때의 정확도 

 - 각 파라미터 값에 따라 정확도가 얼마나 달라지는지 확인해봅니다. 

 - 테스트 이미지는 Test 폴더 안에 있습니다.

 

 11. 8~10번 결과를 구글 잼보드에 입력해봅시다. 

 - 잘 분류했다면 노란색, 아니라면 파란색 포스트잇에 정확도를 작성

 

 12. ‘고급 설정’ 버튼을 클릭하여 클래스별 정확도, 혼동 행렬, 에포크별 정확도, 에포크별 손실을 확인할 수 있습니다.

 

 13. 결과 확인 

 ① 정확도를 높이기 위해 어떠한 방법을 썼나요? 

 ② 속도 제한 30과 50을 정확하게 구분하지 못한다면 어떤 안전성 문제가 일어날까요?