올해 미국 대선, 가짜 뉴스 막을 수 있을까? 페이스북이 가짜뉴스로 골치를 앓고 있다. 사실 어제 오늘 얘기는 아니다. 지난 2016년 미국 대선에서 페이스북이 힐러리 클린턴에 대한 가짜뉴스의 확산에 크게 "기여"했다고 공격을 수차례 받은 적이 있다. 따라서 페이스북이 가짜뉴스와의 전쟁을 선포한 것은 놀라운 일은 아니다. 그리고 이 전쟁을 이기기 위해선 어떻게 가짜뉴스가 만들어 지는지에 대한 이해가 절대적으로 중요하다. 2016년과 비교해서 2020년에 결정적으로 달라진 점은 공격 매체의 다각화에 있다. 가장 조작하기 쉬운 매체는 글이다. 글은 사실을 조작 하는데 특별한 노하우를 필요로 하지 않는다. 하지만 왜곡이 쉬운 만큼 독자들도 기본적으로 경계심을 가지게 됐다. 합리적인 사람이라면 자극적인 가짜 뉴스를 접하더라도 1차로 글의 출처를 확인하고, 신뢰하기 어려운 출처일 경우 대형 뉴스 매체에서 해당 사실에 대한 검색을 통해 2차 검증을 거칠 것이다. 사실 올해 우리가 더욱 조심해야 할 것은 아마도 "글"을 통한 뉴스보다 "음성"과 "이미지"을 통한 뉴스일 것이다. 지난 4년간 정말 달라진 점은, 인공지능 생성모델의 발전이다. 생성모델 분야의 아버지격이라 부를 수 있는 Generative Adversarial Networks (GAN)이 2014년도에 발표 됐지만, 당시엔 32x32 크기의 아주 작은 이미지를 생성하는 수준에 불과했다. 그러나 그동안의 기술발전으로 이제는 HD급의 이미지를 임의로 생성할 수 있는 시대에 접어 들었다. 비교적 최근 기술로 NVidia에서 2018년도에 발표한 StyleGAN이 만든 고해상도 얼굴 이미지는 진짜와 구분이 어려울 정도다. 음성분야에서는 2016년도 Google DeepMind에서 발표한 WaveNet 을 필두로 사람 특유의 목소리 조차 생성 및 조작이 가능하다는 것이 널리 알려졌다. 사실 음성생성의 가장 큰 (합법적) 사용처는 몇시간의 성우 녹음 만으로도 다양한 문장의 목소리를 만들 수 있다는 데에 있다. 예를 들어 eBook을 만들 때도 책 전체를 매번마다 읽고 녹음하는 것을 피할 수 있다. 당연한 얘기지만, 이미지와 음성 생성모델이 결합되면 영상 생성이 가능하다. 물론 오래전부터 영상 조작은 만연했지만, 2020년은 과거 어느 때 보다도 기술적으로 조작을 위한 "준비"가 돼 있다. 2017년 말에는 "딥페이크"라는 이름으로 할리우드 배우의 얼굴을 포르노 영상에 합성해서 논란이 됐던 바가 있다. 이제 이 기술은 개인의 명예훼손을 넘어서 자극적인 거짓을 기하급수적으로 퍼트리는 힘을 갖고 있다. 정치인의 목소리와 표정을 생성한다면 존재한적이 없던 발언을 생생하게 영상으로 볼수도 있을 것이다. 아무리 합리적인 시민이라도 이런 기술적인 가능성을 모른다면 영상 내용을 의심하기 어렵다. 물론 대형 테크 회사들이 이런 문제를 해결하기 위해 많은 힘을 쏟고 있다. 페이스북은 마이크로소프트, 아마존과 같이 DeepFake Detection Challenge를 총 12억원에 달하는 상금과 함께 지난 6월에 개최해, 특정 영상의 진위여부를 구별하는 AI 모델 개발에 앞장서고 있다. 하지만 창과 방패의 싸움이다. 방패가 견고해 질 수록, 창도 더 날카로워 진다. 우리 모두가 현존 기술의 가능성과 한계를 어느정도 이해하고, Fact Check 하는 습관을 가지는 것이 필수적인 시대인 것 같다.

가짜뉴스 잡겠다는 페이스북…“美 대선 중 정치광고 금지”

국민일보

가짜뉴스 잡겠다는 페이스북…“美 대선 중 정치광고 금지”

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2020년 9월 6일 오전 7:38

댓글 0