인공지능 딥러닝 활용의 젠더 편향성 실태와 개선방안 | |||
---|---|---|---|
구분 | 기본 | 분야 | 사회/문화 |
연구자 | 문미경/김복태/강경주/김예솔/김효은/허유선 | ||
발간년도 | 2022 | ||
첨부파일 |
[기본] 인공지능 딥러닝 활용의 젠더 편향성 실태와 개선방안 - 문미경(보이스아이).pdf ( 5.55 MB ) [미리보기] |
||
Ⅰ. 서론
Ⅱ. 이론적 논의 Ⅲ. 국내외 AI 젠더 편향성 사례 분석 Ⅳ. 국내외 AI 젠더 편향성 대응 현황 Ⅴ. 인공지능 젠더 편향성 식별기준(안) 마련 등을 위한 심층 인터뷰 Ⅵ. 결론
○ 인공지능 챗봇 ‘이루다’ 및 ‘테이’의 혐오 발언 학습 및 산출 사건 등 알고리즘을 통해 작동하는 차별적 결과와 영향이 발생함. 또한, 인공지능에 의해 야기되는 차별이 인종, 젠더 등 기존 사회의 차별을 반영하고 있으므로, 해당 문제에 대하여 전체 사회가 빠르게 대응해야 함. 이러한 문제는 4차 산업 강국으로서 우리나라 제품이 해외에서 활용시 이러한 문제가 발생할 경우 국가위상과 관련산업 분야에 미치는 부정적 파장이 클 것임.
○ 본 연구에서는 인공지능 딥러닝 기술의 빠른 발전 속도와 광범위한 사회적 파급력에 초점을 맞추어 인공지능 개발과정에서 젠더 편향성의 실태를 분석하고 이를 완화하는 방안을 모색하고자 하였음. ○ 이를 위해 인공지능에서 야기되는 편향 사례를 성별에 초점을 맞춰 분석하고, 국내외 편향성을 완화하기 위한 법률과 정책 현황 등을 살펴봄. 이러한 분석에서 도출된 시사점을 바탕으로 젠더 편향성 완화를 위한 법?제도적 측면과 사회환경 구축에 필요한 개선방안을 제시함. ○ 또한, 기존에 인문?사회학적 관점에서 제시된 대부분의 완화 방안이 이상적, 규범성을 띤 광범위하고 거시적인 수준이어서, 시스템 개발 현장에 적용하는 데는 한계를 보임. 이에 인공지능 기술개발 현장에서 이해되고 적용될 수 있는 공학적 접근을 통한 지침 등 개선방안을 모색하였음. |