전문가 집단, 학계 모두 AI의 위험성을 경고하고 있습니다. 편향을 함께 바로잡아 나가야만 한다는 이야기는 계속 나오고 있습니다. 이 글은 한 팀이 ‘윤리적인 AI’ 프레임워크를 만들면서 세운 원칙 5가지를 소개합니다. 윤리적인 AI라는 것이 있을 수 있을지부터 편향을 최소화할 수 있을지까지 생각이 많지만 이런 고민 자체를 표현하는 것도 도움이 될 것이라고 생각합니다. 1. 해결하려는 문제를 명확히하고 편향 가능성에 촉각을 곤두세우며 이를 식별할 수 있는 역량을 갖춥니다. 편향을 식별할 수 있는 한 가지 방법은 디자인 단계부터 구성원의 다양한 시각을 그대로 적용하는 것입니다. 비즈니스 펑션부터 개인적인 배경이나 경험까지요. 2. 개발하는 AI의 데이터셋과 모델을 명확히 인식합니다. 문제를 명확히하고 편향 가능성을 식별했으면 편향을 정량적으로 연구하려는 노력을 기울여야 합니다. 데이터셋의 다양성을 측정하고, 이해관계자 그룹 전반에 걸쳐 성능을 모델링하는 프로세스를 적용합니다. 3. 누구에게나 투명하고 누구나 접근가능하도록 만듭니다. 여러 차원이 있을 수 있지만 적어도 특정 그룹에게만 ‘이해관계’가 너무 돌아가는 건 좋지 않습니다. 주로 AI 모델이 할 수 있는 것과 없는 것, 기반 데이터셋에 중점을 두어야 합니다. 콘텐츠 추천 시스템을 예로 들어보면 고객에게 보여주기 전에 필요한 정보의 양을 명확히 할 수 있는지, 다양한 관점을 수용하면서 UX를 균질화하는 것의 밸런스를 맞출 수 있는지를 생각해야 한다는 것입니다. 다른 하나는 기계학습 또는 통계에 정통하지 않은 사람들을 포함해 많은 사람이 AI에 접근할 수 있도록 하는 것입니다. 대만의 디지털 장관 오드리 탕은 스프레드시트의 예시를 들며 많은 사람이 기술에 쉽게 접근할 수 있도록 만들어 데이터를 잘 관리할 수 있게 만드는 것이야말로 정보를 민주화하는 일이라고 이야기했습니다. 4. 엄격한 검토 프로스세스를 개발합니다. 윤리적인 측면, 개인정보 보호 측면 등을 고려해 리뷰할 수 있는 가이드와 프로세스가 필요합니다. 5. 고객 데이터 보안 및 개인정보 보호는 필수입니다. 내외부로 어떤 데이터와 알고리즘을 저장하고 공유하는지가 중요합니다. 예를 들어 안면 인식 시스템의 경우 어떻게 데이터를 저장하고, 엑세스 설정은 어떻게 했는지 파악하고 있는 것이 굉장히 중요합니다. 기본적인 것에 함께 충실하면 좋겠습니다. 윤리적인 AI를 주장하는 것이 기술을 회의적으로 보는 시각이 아님을 인지하면 좋겠습니다. 마크 저커버그조차도 최근 더버지와의 인터뷰에서 모두가 인터넷과 앞으로 다가올 미래 기술을 잘 맞이하기 위해서 편향을 없애는 것이 마땅하다고 이야기했습니다. 이 글의 마지막에서도 사회 전반적으로 이익이 되는 AI를 만들자고 희망적인 이야기를 합니다. 이를 모방한 글이라도, 비슷한 글이라도 지속적으로 나왔으면 하는 바람입니다.

How to make AI more ethical

VentureBeat

How to make AI more ethical

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2021년 9월 6일 오후 1:05

댓글 0