내 눈을 똑바로 보고 말해. 이건 다 Deepfake야... | 커리어리

내 눈을 똑바로 보고 말해. 이건 다 Deepfake야. 3G 피처폰부터 휴대폰 영상 통화 시작한 지 벌써 10년도 넘었는데요. 기술이 아무리 발전해도 해결 못 한 문제가 있습니다. 화면으로 얼굴을 마주 보며 통화해도 눈을 맞출 순 없었거든요. 내가 화면상의 상대 눈을 바라봐도 상대는 카메라 렌즈를 통해 나를 보게 되므로 서로 눈을 맞추는 게 아니라 서로 딴 곳을 쳐다보는 것처럼 보입니다. 말뿐 아니라 표정이나 제스처, 아이컨택 같은 비언어적인 피드백이 의사소통에서 상당히 중요한 역할을 하는데 영상 통화에서는 기본적인 아이 컨택이 불가능합니다. 이런 문제를 해결하려고 옛날에는 심지어 잠망경 형태의 발명도 있었습니다. 애플에서는 요즘 스크린에 지문 센서를 넣는 것처럼 픽셀 사이 사이에 이미지 센서를 넣어 스크린이 카메라처럼 작동하는 특허를 내기도 했습니다. iOS 13 beta는 이 문제를 해결하기 위한 기술로 deepfake를 사용합니다. AI 이미지 처리를 통해 내 눈을 바라보듯이 홍채를 옮겨 그려줍니다. 정면을 바라보도록 홍채를 옮겨주면 모나리자 같은 초상화나 포스터의 사진 모델처럼 나만 바라보는 것 같은 착각을 일으킬 수 있습니다. 홍채를 cg로 그려서 아이컨택하겠다는 논문은 이미 몇 년 전에 나왔는데요. 언캐니 밸리의 불쾌감으로 이딴걸 어디다 쓰냐고 비웃고 무시했던 기억이 납니다. 하지만 기계학습의 눈부신 발전으로 사진 합성이 아니라 너무나 자연스럽게 바꿀 수 있게 되었습니다. Deepfake가 오랜 사용자경험의 문제를 해결하고 일상에서 긍정적으로 사용되는 예가 될 것 같습니다. 아이컨택과 착시와 관련해서 생각이 났는데, 어디에서든 고개를 돌려 항상 나를 쳐다보는 t-Rex 동영상 기억하시나요? 소프트뱅크의 로봇 페퍼는 오목한 눈으로 항상 나와 아이컨택 하는 듯한 착시를 주도록 디자인되어 있습니다.

FaceTime eye contact correction in iOS 13 uses ARKit - 9to5Mac

9to5Mac

FaceTime eye contact correction in iOS 13 uses ARKit - 9to5Mac

2019년 8월 7일 오후 5:05

댓글 0

주간 인기 TOP 10

지난주 커리어리에서 인기 있던 게시물이에요!