< 근데 애플 왜 저런대? >
👋 결국 연기된 아동성착취물(CSAM) 스캔 기능
🙉 그렇게 프라이버시 강조하더니 내 앨범을 스캔하겠다고?!
애플은 지난 8월에 아동성학대를 근절하기 위해 다양한 기능을 도입하겠다고 발표했는데요, 그중 가장 논란이 있었던 것은 아동 성 착취물(CSAM) 자동 탐지 기능이었습니다. 90개 이상의 NGO를 포함한 수많은 사람들의 비판이 잇따르자 이달 초에 해당 기능 도입을 연기하겠다고 발표했어요. "고객, 단체, 연구원 등 기타 사람들의 피드백을 바탕으로 어린이 안전 기능을 출시하기 전 의견을 수집하고 개선하기 위해 앞으로 몇 개월간 추가 시간을 들이기로 결정했다." 고요.
🍎논란이 되었던 그 기능, 뉴럴 매치(NeuralMatch)부터 살펴보면 아이폰 내 이미지를 스캔해서 CSAM 콘텐츠가 일정량 이상 발견될 경우, 관련 당국에 신고하는 기능이었어요. 국가 안보가 걸린 문제에도 아이폰 잠금을 풀어주지 않던 애플이 폰에 있는 사진을 스캔한다는 소식에 많은 고객이 분노했는데요, 사실 여기에는 오해를 산 부분들도 있어서 기능을 먼저 찬찬히 설명해볼게요.
🍎먼저, 애플은 아이폰에 있는 모든 이미지를 직접 스캔하는 것이 아니에요.
사용자가 아이폰에서 클라우드로 전송할 때 스캔이 이루어지는 것이고, 이미지 그 자체가 아니라 이미지의 고유값인 해시를 스캔하는 거예요. 그러니까 아이클라우드로 백업을 하지 않는다면 CSAM 스캐닝도 이루어지지 않는 거죠. 또 한 장만 있어도 신고되는 것이 아니라 (현재는) 30건 이상의 불법 CSAM이 발견될 경우에야 검토팀에 해당 내용이 전달된다고 해요. 발견되자마자 바로 신고되는 것도 아니에요. 애플 검토팀이 1차로 검토하고, 실종 및 착취 아동 센터(NCMEC, National Center for Missing and Exploited Children)에서 2차로 검토해 컨펌을 받은 후에야 법 집행기관에 전달되는 구조입니다.
단, 페이스북과 구글, 마이크로소프트에서는 클라우드에 업로드된 이미지를 직접 스캔한다면 애플은 클라우드로 업로드할 때 기기에서 스캔이 이루어지도록 한다는 점이 달라요. 이는 애플의 아이클라우드가 완전 암호화되어 있기 때문에 기기에서만 스캔이 이루어질 수 있기 때문이라는 분석입니다. CSAM에 대한 사회적 압박에 대해 프라이버시를 강조하는 애플로서는 기기에서의 스캔을 택한 거죠.
🍎애플 측에서도 상당히 심려를 기울여 만든 기능임이 분명한데 문제는 이러한 기능이 정부의 검열을 위한 '백도어'로 사용될 수도 있다는 점이에요. 워싱턴포스트의 논평에서 프린스턴대학교 교수 조너선 메이어는 이러한 기술을 이미 개발했었고 감시와 검열에 이용될 수 있어서 위험하다는 결론에 도달했다고 이야기했어요. 스캔하는 콘텐츠만 CSAM에서 다른 것으로 바꾸면 정부에 불리한 정치적 발언을 하는 사람을 가려낼 수도 있다고요. 실제로 애플은 중국 애플 데이터 센터 내 고객 데이터 법적 소유권을 중국 정부 소유 기업에 넘겼으며, 암호화된 데이터를 풀 수 있는 디지털키까지 중국에 넘긴 바 있어요. 만약 뉴럴매치와 같은 정규 기능이 생긴다면 중국뿐 아니라 다른 나라에서도 검열을 시도하기 쉽게 되는 거죠.
🍎물론, 애플의 본디 목적이 아동성학대 근절임을 누가 모르겠어요. 실제로 2019년 이후 CSAM의 양은 폭발적으로 늘고 있는 만큼 매우 심각한 문제라고 해요. 미국 NCMEC에 따르면 작년 한 해 동안 2,170만 건의 CSAM 사건이 있었고, 이는 2019년보다 28%나 증가한 수치라고 해요. 사건은 2천만 건 정도이지만 실제 파일은 7천 만 건에 달하고, 이중 대부분이 페이스북에서 신고되었다고 합니다. 페이스북이 특히 적극적으로 자사 플랫폼에 업로드된 이미지를 스캐닝하고 있기 때문인데, 다른 플랫폼에는 CSAM이 적다는 것이 아니라 그만큼 스캐닝하지 못하고 있기 때문이겠죠(페이스북을 유일하게 높게 평가할 수 있는 점이라는 이야기도 있고요). 그렇기 때문에 한 IT 평론가가 "머리로는 애플이 무리수를 둔다 싶어도, 가슴은 애플의 편을 들게" 된다고 하기도 했어요.
에픽게임스 v. 애플 관련 추가 내용은 링크를 참고해주세요. :-)