◼︎ AI 윤리 웨비나, 그리고 이루다. 최근 | 커리어리

◼︎ AI 윤리 웨비나, 그리고 이루다. 최근 이루다 사건으로 AI 윤리에 대한 관심이 커졌죠. 네이버 AI 윤리 준칙을 포함한 공동웨비나가 열린다고 하네요. 관심있는 분들은 신청해보셔도 좋겠습니다. 그리고, 아래에는 이루다 사건과 관련해서 개발 과정의 리스크나 사회적/인지적 쟁점에 대해 생각나는대로 나열해봤습니다. 이 사건은 단순한 성인지 감수성의 문제가 아니라 매우 복잡한 문제의 조합으로 발생한 것이죠. 각각을 구분해서 보지 않고 단순히 '남자 개발자가 문제'라는 식의 주장까지 대두되고 있는 같아 안타까운 마음에 정리해 봤으니 참고가 되셨으면 좋겠습니다. ---- ◼︎ 개발 과정에서의 리스크 [데이터 획득 과정] - 사용자 동의를 충분히/합리적으로/설득력있게 확보했는가 [데이터 전처리 과정] - 특정 개인을 추정할 수 있는 명시적인 정보는 물론, - 지명, 별명, 소속 등 조합으로 특정인을 추정할 수 있을만한 문제까지 충분히 제거했는가 - 전처리 후 과정에서 개인정보 이슈가 없는지 사후검증을 충분히 수행했는가 [개인정보 취급 과정] - 개발자가 개인정보를 취급하는 과정에서의 사고방지를 위한 충분한 대책을 마련했는가 (개인정보 취급 교육 등) [대화모델 개발과정] - 친근함을 위해 선택된 '20대 여대생'이라는 페르소나 특성상, 예견된(슬프게도) 공격에 대한 모니터링과 대응 노력은 충분했는가 - 사용자들의 공격적 대화가 대화모델에 직·간접적으로 영향을 끼칠 가능성은 미연에 방지되어 있는가 ◼︎ 사회적/인지적 쟁점 - AI 자체에 대한 폭언이나 성희롱은 인격에 대한 공격인가, 개인공간에서의 자유 문제인가 - AI에 대한 공격이 문제인가, 이걸 공유하고 사회적 문제로 확장하는 행위의 문제인가 - 사용자의 공격적 유도를 정확하게 인지하지 못한 채 이해한 척 답변하는 AI를 '노예화'된 것이라 볼 수 있는가 - AI 에 대한 폭언이나 성희롱을 모니터링하고 처리해야 할 개발자들의 정신 건강은 어떻게 보호할 것인가 - AI 에 대한 공격을 용인했을 때, 그 공격적 성향은 실제 사람을 향하게 되는 문제로 번질 가능성이 있는가

[SAPI-NAVER 공동웨비나] 인공지능 윤리: 원칙을 넘어 실천으로 현장에서 논하는 AI 윤리

Onoffmix

2021년 2월 13일 오전 11:51

댓글 0

주간 인기 TOP 10

지난주 커리어리에서 인기 있던 게시물이에요!

더 많은 인사이트를 둘러보세요!