[생각열기] 인공지능의 데이터 편향성 문제 이해하기
차시 도입
5~6차시에서는 인공지능 윤리의 10대 핵심 요건 중 ‘데이터 관리’에 대해 알아볼 것입니다. 관련 사례를 통해 문제에 대해 생각해봅시다.
위의 상황에서는 어떤 문제가 나타나고 있나요? 의료용 인공지능 챗봇이 성별에 따라 다르게 답변하는 상황을 보여주고 있습니다. 실제로 나이, 흡연 여부, 음주량 등 생활 습관이 모두 동일하고 성별만 다른 상황에서 의료용 챗봇이 남성에게는 심장마비가 의심되니 응급실로 갈 것을, 여성에게는 우울증, 공황 장애가 의심되니 며칠간 증상을 지켜본 후 근처 병원에 방문할 것을 권장하였습니다.
왜 이런 일이 발생한 걸까요? 남녀 심장병에 대한 오랜 편견으로부터 비롯한 편향된 데이터를 사용했기 때문입니다. 그렇다면 이로 인해 어떤 문제가 발생할 수 있을까요? 오진으로 인해 위급한 상황이 발생하는 등의 문제가 발생할 수 있을 것입니다. 의료용 챗봇의 문제를 개선하기 위해 어떻게 해야 할지, 더 나아가 인공지능의 데이터 편향성 문제에 대해 생각해봅시다.
[수업활동 tip]
교재의 다양한 활동은 교사가 선택하여 한 차시 수업으로 진행하거나, 두 차시 이상의 수업으로 재구성하여 진행할 수 있다.
인공지능의 데이터 편향성 문제 이해하기
1. 인공지능의 성차별이 나타나는 이유는 무엇일까요?
2. 이 문제를 해결하기 위해 우리는 어떻게 해야 할까요? 채용 인공지능의 성차별 문제를 해결하기 위해 데이터를 수정해도 되는 것일까요?
우리 사회에서 성차별은 큰 문제로 인식되며 성평등을 위해 다방면에서 노력하고 있습니다. 그런데 공정할 것만 같았던 인공지능에서 성차별이 나타난 사례가 있습니다. 애플카드의 이용 한도에 있어, 남편이 아내와 비교해 10~20배 높게 나타났습니다. 또한 아마존 채용 인공지능은 ‘여성’이라는 단어가 포함되어 있으면 감점을 하기도 했습니다.
인공지능의 성차별이 나타나는 이유는 무엇일까요? 우리 사회에서 나타나는 편견을 그대로 학습했기 때문입니다. 우리 사회에서 나타나는 성차별을 학습하여 이에 따라 카드의 이용 한도를 정했기 때문입니다. 아마존은 전자상거래와 아마존 웹 서비스라는 이름의 클라우드 컴퓨팅 서비스를 제공하는 미국의 기업입니다. 이에 따라 산업 특성상 실제로 남성 직원이 여성 직원보다 훨씬 더 많습니다. 이를 학습한 아마존의 채용 인공지능이 여성에 대해 감점하여 문제가 되어 인공지능을 폐기하게 된 것입니다.
더 나아가 이 문제를 해결하기 위해 우리는 어떻게 해야 할까요? 채용 인공지능의 성차별 문제를 해결하기 위해 데이터를 수정해도 되는 것일까요?
[관련 자료]
- [스브스뉴스] 공정할 것 같은 AI가 ‘성차별’을?…이유 살펴보니, https://tv.naver.com/v/11053046 (00:18~)
[수업활동 tip]
1) 영상을 시청한 후에 관련한 소감을 자유롭게 나누어 확산적 사고를 자극한다.
2) 영상의 사례들을 바탕으로 인공지능의 성차별에 대해 생각해보며 동기를 유발한다.
5, 6차시에서는 인공지능 윤리의 10대 원칙 중 ‘데이터 관리’에 대해 핵심적으로 다룰 것입니다. 데이터 관리의 의미는 다음과 같습니다. 첫째, 데이터를 목적에 부합하도록 활용해야 합니다. 둘째, 데이터 관리란 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 합니다. 수업에서는 특히 데이터 편향성에 대해 깊이 있게 알아보고, 데이터 편향성을 최소화할 수 있는 방안을 모색할 것입니다.