<AI도 인간을 차별할까요?> 미국에서 흑인 남성 조지 플로이드가 경찰의 과잉 진압 과정에서 사망한 사건 이후로 미국에서는 인종 이슈가 더욱 뜨거워졌습니다. 이러한 분위기를 인식한듯 지난 6월 IBM, 아마존 등 IT 기업들도 그동안 인종 프로파일링 이슈를 안고 있던 안면인식 프로그램(facial recognition programs)을 경찰 등에 제공하는 것에 대한 중단을 발표하고 법 집행에 있어서의 인종 평등을 촉구하고 나섰습니다. 실제로 해당 소프트웨어가 인종과 성별에 대한 편견을 반영할 우려가 있음이 사례를 통해 밝혀졌는데요. 특히 AI 기반 알고리즘은 백인 남성 대비, 유색인종 또는 어두운 흑인 여성을 인식하려 할 때 오류율이 훨씬 더 높다는 연구 결과도 있습니다. 즉 AI가 인종, 젠더에 대한 차별을 가지고 있다는 것이죠. 이와 관련하여 해당 글은 머신 러닝 프로세스를 책임감있게 관리하는 것은 이제 바람직한 일을 넘어서 필수가 되어야 한다고 주장합니다. 인간의 편견을 미래의 기계에서 복제하는 오류를 인식하고 수정해야하며, 이것은 비단 컴퓨터 사이언스 뿐만 아니라 심리학, 사회학, 인류학, 신경과학 같읕 분야에서 일하는 사람들이 모두 협력하여 인간 행동에 대한 이해가 포괄적으로 이뤄져야 한다는 주장입니다. 그야말로 HCI(Human-Computer Interaction)가 multidisciplinary field임을 보여줍니다.

We need a new field of AI to combat racial bias – TechCrunch

TechCrunch

We need a new field of AI to combat racial bias – TechCrunch

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2020년 9월 15일 오전 3:21

댓글 0