[ 애플의 뉴럴 매치, Safety VS Pr | 커리어리

[ 애플의 뉴럴 매치, Safety VS Privacy 논쟁을 재점화하다 ] 애플이 최근 새로운 기능 뉴럴 매치를 통해 아이클라우드에서 아동성착취 음란물(CSAM; Child Sexual Abuse Material)을 스캐닝하겠다는 정책을 발표했습니다. 이전까지 테러리스트의 아이폰 잠금 해제에도 협조하지 않았던 애플의 개인정보 보호에 대한 강한 입장에 반하는 기능이어서 많은 보안 전문가들이 비판하고 있습니다. 가장 큰 이유는 이번 신기능이 개인의 기기 사용을 검열할 수 있다는 점입니다. 기존에 페이스북/구글/MS에서도 사용자의 사진에 CSAM이 있는지 스캐닝해왔지만, 그 대상은 모두 플랫폼에 업로드된 사진들에 불과했어요. 하지만 애플의 뉴럴 매치는 아무리 아이클라우드에 업로된 사진만 스캔한다고 하더라도 개별 기기에서 실제 스캐닝이 일어날 가능성이 높다고 합니다. 또한 이번 기능으로 인해 정부가 개인의 정보를 검열할 수 있는 뒷문을 열어주는 것이 아니냐는 비판도 있어요. 비록 애플에서는 절대 그런 일은 없을 것이라고 성명을 냈지만, 중국에서는 모든 데이터를 당국이 열어볼 수 있는 서버에 저장하고 있다는 점에서 완전히 검열에서 자유로울 수 없다고 기사는 말하고 있어요. 아동성착취 음란물을 가려내어 범죄자를 찾아낼 수 있다는 점에선 새로운 기능을 좋게만 생각했는데 이런 문제점도 있네요. 특히 모든 사진이나 영상을 클라우드에 보관하는 경향이 많은 요즘 같은 시대에 추억을 안전하게 보관할 수 있는 방법을 강구하는 것도 중요해 보여요.

Are Apple's Tools Against Child Abuse Bad for Your Privacy?

Nytimes

2021년 8월 28일 오후 12:13

댓글 0

주간 인기 TOP 10

지난주 커리어리에서 인기 있던 게시물이에요!

현직자들의 '진짜 인사이트'가 담긴 업계 주요 소식을 받아보세요.

커리어리 | 일잘러들의 커리어 SNS