<설명 가능한 AI, 들어보셨나요?> 인공지능은 매우 복잡해서 전문가조차 이해하기 어렵다는 이른바 ‘블랙박스(black box)’의 문제를 안고 있습니다. 왜냐하면 인공지능 기술이 발전할수록 수많은 매개변수를 갖는 복잡한 모델이 자동으로 학습돼 어떤 판단이 왜 그렇게 내려졌는지 모르는 경우가 많아졌기 때문입니다. 그래서 많은 인공지능 관련 연구자 및 정책 입안자들은 인공지능의 ‘블랙박스 딜레마’를 해소하기 위해 딥러닝의 결론이나 계산 과정을 설명 가능(explainable) 혹은 해석 가능(interpretable) 하도록 만드는 연구를 진행해 왔는데, 그중 하나가 바로 ‘XAI(eXplainable Artificial Intelligence, 설명 가능한 인공지능)’입니다. 설명가능한 인공지능에 대해 궁금하시다면 읽어보시면 좋을 글입니다. 저 역시 사용자가 자신에 대해 내린 알고리즘 결정에 대한 설명을 요청할 수 있는 권리를 가져야 한다는데 동의합니다. 이는 "알고리즘의 설명 가능성이 감사 가능성, 공정성, 신뢰성을 감지, 활성화 및 개선하는 데 핵심적인 역할을하기 때문입니다"(Lu et al, 2019). 물론 이 글에 나온 바와 같이 알고리즘은 복잡성으로 인해 이를 만든 사람조차도 완전히 설명하기 어려울 수 있습니다. 그러나 알고리즘이 많은 복잡한 “블랙 박스” 모델에 의해 생성된다는 사실이 투명성과 설명 부족에 대한 변명이되어서는 안된다고 생각합니다. 알고리즘이 설명 가능하고 편향되지 않은 방향으로 발전하려면 알고리즘에 대한 지속적이고 비판적인 평가가 필요하다고 생각됩니다.

신문과방송 : 네이버 블로그

네이버 블로그 | 가장 보통의 스타트업 CEO

신문과방송 : 네이버 블로그

2020년 12월 26일 오후 1:02

댓글 0

주간 인기 TOP 10

지난주 커리어리에서 인기 있던 게시물이에요!