뉴욕타임즈가 인공지능(AI)이 편견을 내재화하고 확대 및 확장할 가능성을 가늠하기 위해 여성 AI 산업 종사자 세 명을 심층 인터뷰했어요. 다프네 콜러 코세라 공동창업자는 AI가 내재할 수 있는 편견으로 첫째 인종 및 젠더 관련 편견, 둘째 알고리즘이 데이터를 오독하거나 사람에게 유의미한 정보로 만들어주지 못하는 편견을 들었어요. 올가 러사코브스키 프린스턴대학교 컴퓨터과학부 교수는 AI 시스템이 편견을 내재 및 표출하는 이유 세 가지를 이야기했습니다. 첫째 불공정한 세계, 둘째 편견을 확대, 확산하는 알고리즘, 셋째 그 알고리즘을 만드는 부유층 미국 백인 남성이었습니다. 팀닛 제브루 구글 AI 연구원이자 블랙AI(흑인을 위한, 흑인에 의한, 흑인의 AI) 공동창업자는 과학자가 가지고 있는 환상, 즉 ‘사회 맥락을 떠나 얻을 수 있는 진리‘가 있다고 믿는 환상이 잘못되었다고 지적했어요. 이후 AI의 빠른 발전 속도와 확산을 경계하는 규범, 원칙이 있어야 한다고 말합니다. 또 정부는 AI를 검사하고 편견을 최대한 없앨 수 있도록 FDA(미국식품의약국)과 같은 조직을 만드는 등의 제도적인 노력을 보여줘야 한다고 이야기했어요. AI가 내재화하고 확산할 수 있는 편견이라고 하면 당장 나와는 관계가 없어보이고, 누군가는 현재 AI의 성능이 우려하는 것보다 뛰어나지 않다고 합니다. 준비하는 것이 무슨 의미가 있겠느냐는 뉘앙스로요. 그러나 기술 발전 속도는 생각보다 빠릅니다. 불과 몇 년 뒤면 AI는 우리 바로 옆에서, 순진무구한 얼굴로, 그렇지만 무섭게도 우리의 일거수일투족을 지켜보고 있을 수도 있어요. 그랬을 때 불공정한 세계, 편견을 확대하는 알고리즘, 그 알고리즘을 만드는 ‘나는 사회적인 맥락은 모르겠고 진리를 탐구한다’는 과학자나 부유한 미국 백인 남성이 기술을 통해 만들어낼 또 다른 편견과 차별은 정치, 사회, 경제, 문화 전반에 엄청난 영향력을 끼칠 것입니다.

Dealing With Bias in Artificial Intelligence

Nytimes

Dealing With Bias in Artificial Intelligence

2019년 11월 28일 오전 9:50

댓글 0

주간 인기 TOP 10

지난주 커리어리에서 인기 있던 게시물이에요!