[생각해보기] 사회적 합의와 인공지능 활용의 책임성
사회적 합의와 인공지능 활용의 책임성
◎ 다음 선택 기준 7가지 중에서 반드시 고려되어야 하는 것을 5가지 정해봅시다.
<선택 기준> 더 많은 사람을 보호하는 것, 승객을 보호하는 것, 횡단보도 신호를 준수한 사람을 보호하는 것, 성별, 동물보다는 사람을 보호하는 것, 나이, 범죄자보다는 범죄자가 아닌 사람을 보호하는 것 |
◆ 내가 생각할 때, 반드시 고려해야 할 5가지는 무엇인가요?
◆ 그 이유는 무엇인가요?
◆ 모둠원과의 토의를 통해 반드시 고려해야 할 5가지 선택 기준을 정해봅시다.
◎ 앞에서 선택한 기준 5가지 중에서 먼저 고려되어야 하는 우선순위를 정해봅시다.
내가 생각할 때, 가장 먼저 고려되어야 할 선택 기준부터 우선순위를 정해봅시다.
◆ 내가 생각한 가장 먼저 고려되어야 할 기준과 가장 마지막에 고려해도 될 기준은 무엇인가요? 그 이유는 무엇인가요?
◆ 모둠원과의 토의를 통해 선택 기준들의 우선순위를 정해봅시다.
◎ 앞에서 정한 우선순위를 고려하여, 우리 모둠만의 자율주행 셔틀 버스의 윤리적 설계 가이드라인을 만들어봅시다.
◎ 다른 모둠과 자율주행 자동차,의 윤리적 설계 가이드라인을 서로 공유해봅시다.
◆ 가장 많은 모둠에서 1순위로 선택한 기준은 무엇인가요?
◆ 가장 많은 모둠에서 마지막 순위로 선택한 기준은 무엇인가요?
◎ 인공 지능을 개발하고 사용하는 데에는 다음과 같은 사람들이 관련되어 있습니다.
◎ 이제 인공지능과 관련된 사람들이 인공지능을 개발, 제공, 사용할 때 어떤 책임감 있는 행동을 해야 할지 정리해봅시다. 인공지능을 활용하기 위해 필요한 책임성과 각각 가장 관련이 깊은 입장을 선으로 연결해봅시다.
https://www.playsw.or.kr/artificial/view/playswtv/687?currentTab=ai_data_video_hello_ ai&path=artificial
주제 마무리
학습한 내용을 정리해봅시다. 이번 주제에서 배운 내용을 생각하며 빈칸을 채워봅시다.
1. 자율주행 자동차를 설계할 때 고려해야 할 윤리적 딜레마로, 사고를 피할 수 없는 상황에 처했을 때 어떤 선택을 하는 것이 옳은지에 대한 문제는 무엇인가요?
-> ( 트롤리 ) 딜레마
2. 인공지능 서비스를 사용하는 사람이 가져야 할 책임성에는 어떤 것이 있나요?
-> 인공지능을 원래 개발된 목적에 맞게 사용한다, 사용하고 있는 인공지능에서 윤리적인 문제가 발생하는 경우 서비스를 제공하는 기업이 개선할 수 있도록 알린다. 등
★ 스스로 평가해볼까요?
이번 주제에서 배운 내용을 생각하며, 스스로 평가해봅시다.
자율주행 자동차와 관련된 윤리적 딜레마 상황에 대한 자신의 생각을 이야기할 수 있다. | ☆ ☆ ☆ ☆ ☆ |
자율주행 셔틀 버스의 윤리적 설계 가이드라인을 만들고, 인공지능의 책임성에 대해 이야기할 수 있다. | ☆ ☆ ☆ ☆ ☆ |