[대규모 AI 애플리케이션의 편향 해결: LinkedIn Fairness Toolkit 👩‍🦽] 데이터에 편향이 있다면 머신러닝은 그 편향조차 학습합니다. 그런 이유로 우리의 친구 '테이'(MS 채팅 봇)가 막돼먹은 인종차별 주의자가 된 거지... 😔 채용 시장 역시 편향에 대한 고려 없이 ML 애플리케이션을 도입할 경우 큰 문제가 발생할 수 있는 곳입니다. 예컨대 개발 노예, 아니 개발자를 뽑을 때 컴공 병특 출신(...) 30대 남성에 대한 암묵적인 선호가 있었다면 모델 역시 그 선호가 내포된 결과를 내뱉을 수밖에 없죠. LinkedIn은 지난 8월 25일 데이터 또는 모델에 잠재된 편향을 측정할 수 있는 오픈소스 도구 LiFT을 공개했습니다. Scala / Spark로 짜인 이 툴킷은 ML에 '공정성'이라는 개념을 적용하고자 하는 시도로 보입니다. 성별, 연령, 인종이라는 요소 속에 숨겨진 편향을 측정하고 제거함으로써 말이죠. 정치적 올바름이 커다란 사회적 이슈인 미국 말고는 딱히 흥행할 것 같지 않지만... 😔 (한국은 상상컨대 데이터 과학자: ‘공정성을 위해 성적 편향을 제거하고 블라블라...’ 보스: ‘이게 무슨 화려한 조명이 너를 감싸는 소리냐!’) ML이든, AI든 그걸 설계하고 사용하는 엔지니어의 신념을 닮아간다는 점에서 흥미롭습니다.

Addressing bias in large-scale AI applications: The LinkedIn Fairness Toolkit

Linkedin

Addressing bias in large-scale AI applications: The LinkedIn Fairness Toolkit

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2020년 9월 9일 오후 12:06

댓글 0