Designed to Deceive: Do These People Look Real to You?
Nytimes
<존재하지 않는 사람들, AI가 만들어낸 가짜 얼굴> 오늘은 스크롤하면서 재미있게 볼 수 있는 뉴욕타임즈 기사를 소개해볼까 합니다. 링크를 클릭해서 스크롤을 하면 다양한 사람들의 얼굴을 볼 수 있는데요. 이 사람들은 놀랍도록 실제적으로 보이지만, 실은 존재하지 않는 사람들입니다. 컴퓨터에 의해 만들어진 가짜 얼굴이죠. 이 시뮬레이션 된 사람들은 인터넷에 나타나기 시작했고, 사악한 의도를 가진 실제 사람들이 가면으로 사용하기도 합니다. 이를테면 정보 커뮤니티에 침투하기 위해 매력적인 얼굴을 한 스파이, 가짜 프로필, 사진 뒤에 숨어 활동하는 우익 선전가 등등 말이죠. 가짜 이미지 생성은 인공 지능 덕분에 가능해졌습니다. 이제 누가 진짜 사람이고 누가 컴퓨터 상상의 산물인지 구별하기가 점점 더 어려워 질 것입니다. 이런 가짜 이미지 생성은 주요 얼굴 특징을 식별하는 기술이 훨씬 더 좋아 졌기 때문에 가능해졌습니다. 주요 얼굴 특징을 식별하는 기술이 사용된 안면 인식 프로그램은 법 집행 기관에서 범죄 용의자를 식별하고 체포하는 데 사용되기도 하죠. 그러나 우리가 익히 알고 있듯 시스템은 완벽하지 않습니다. 데이터의 근본적인 편견 덕분에 이러한 시스템 중 일부는 문제가 많이 발견되고 있습니다. 예를 들어 초기 이미지 감지 시스템은 두 명의 흑인을 '고릴라'로 분류했습니다. 시스템에 피부가 어두운 사람보다 고릴라 사진이 더 많이 공급 되었기 때문일 가능성이 큽니다. 다시 말하면, 인공 지능은 우리의 삶을 더 쉽게 만들 수 있지만 궁극적으로 결함이 있습니다. 가짜 얼굴을 만들어낼 때에도 마찬가지 입니다. AI를 통해 만들어진 가짜얼굴도 자세히 보면 몇 가지 실수와 패턴을 발견 할 수 있습니다. 예를 들면, 악세사리의 비대칭, 눈과 눈 사이의 거리가 매우 똑같다거나, 양쪽 귀의 어색함 등 말이죠. 그러나 문제는 우리가 이러한 시스템의 결함을 간과하거나 지나쳐서 컴퓨터가 초이성적이고 객관적이며 항상 옳다는 것을 너무 빨리 믿는다는데 있습니다. 누가 진짜이고 누가 가짜 얼굴인지 구별하기 어려운 것 만큼이나, AI 역시 어디까지 신뢰해야하고 어디까지 의심해야하는지 우리에게 해결해야할 많은 과제가 있는 것 같습니다.
2021년 1월 20일 오후 7:27
구분을 위한 몇 가지 포인트가 있기는 합니다. 물론 판별자를 고도화하다 보면 이런 포인트까지 사라질 가능성도 있습니다. https://graphics.reuters.com/CYBER-DEEPFAKE/ACTIVIST/nmovajgnxpa/
네 뉴욕타임즈에도 가짜를 판별할 수 있는 악세사리, 안경, 눈과 눈 사이의 거리 등에 대한 예시가 나와요. 비슷한 기사가 또 있었네요! 재밌게 읽어보겠습니다. 공유 감사드립니다^^