뉴욕타임즈가 인공지능(AI)이 편견을 내재화하고 확대 및 확장할 가능성을 가늠하기 위해 여성 AI 산업 종사자 세 명을 심층 인터뷰했어요. 다프네 콜러 코세라 공동창업자는 AI가 내재할 수 있는 편견으로 첫째 인종 및 젠더 관련 편견, 둘째 알고리즘이 데이터를 오독하거나 사람에게 유의미한 정보로 만들어주지 못하는 편견을 들었어요. 올가 러사코브스키 프린스턴대학교 컴퓨터과학부 교수는 AI 시스템이 편견을 내재 및 표출하는 이유 세 가지를 이야기했습니다. 첫째 불공정한 세계, 둘째 편견을 확대, 확산하는 알고리즘, 셋째 그 알고리즘을 만드는 부유층 미국 백인 남성이었습니다. 팀닛 제브루 구글 AI 연구원이자 블랙AI(흑인을 위한, 흑인에 의한, 흑인의 AI) 공동창업자는 과학자가 가지고 있는 환상, 즉 ‘사회 맥락을 떠나 얻을 수 있는 진리‘가 있다고 믿는 환상이 잘못되었다고 지적했어요. 이후 AI의 빠른 발전 속도와 확산을 경계하는 규범, 원칙이 있어야 한다고 말합니다. 또 정부는 AI를 검사하고 편견을 최대한 없앨 수 있도록 FDA(미국식품의약국)과 같은 조직을 만드는 등의 제도적인 노력을 보여줘야 한다고 이야기했어요. AI가 내재화하고 확산할 수 있는 편견이라고 하면 당장 나와는 관계가 없어보이고, 누군가는 현재 AI의 성능이 우려하는 것보다 뛰어나지 않다고 합니다. 준비하는 것이 무슨 의미가 있겠느냐는 뉘앙스로요. 그러나 기술 발전 속도는 생각보다 빠릅니다. 불과 몇 년 뒤면 AI는 우리 바로 옆에서, 순진무구한 얼굴로, 그렇지만 무섭게도 우리의 일거수일투족을 지켜보고 있을 수도 있어요. 그랬을 때 불공정한 세계, 편견을 확대하는 알고리즘, 그 알고리즘을 만드는 ‘나는 사회적인 맥락은 모르겠고 진리를 탐구한다’는 과학자나 부유한 미국 백인 남성이 기술을 통해 만들어낼 또 다른 편견과 차별은 정치, 사회, 경제, 문화 전반에 엄청난 영향력을 끼칠 것입니다.

Dealing With Bias in Artificial Intelligence

Nytimes

Dealing With Bias in Artificial Intelligence

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2019년 11월 28일 오전 9:50

댓글 0