[깡문칼럼] 연예인들 사진과 음란 영상 텔레그램 합성 성착취.

피해 사실조차 드러나지 않는 ‘딥페이크’

2020-04-21     이강문 주필
▲ 양파TV방송.양파뉴스 이강문 총괄사장.

피해 사실조차 드러나지 않는 ‘딥페이크’ 음란 사진이나 영상에 합성해 제공하는 계정이다.

최근 텔레그램 성착취 범죄 일명 ‘n번방’ 사건으로 주 가해자인 조주빈과 강훈 등의 신상 공개가 이뤄지면서 사회적인 이슈로 떠오르기도 했다. 작금 사이버 범죄는 드러나지 않은 사건과 범죄자들로 그 범위가 어마어마하다.

특히 연예인들은 대중에 노출돼 있어 그 피해가 더욱 심각하다. 자신의 얼굴이 나오는 영상이 일반인에 비해 크게 많은 만큼 합성도 쉽고 자연스럽게 할 수 있어 딥페이크 음란물 제작에 많이 사용되고 있는 것이다.

이번에 ‘n번방’ 고발된 사이트는 2018년 개설됐다. 사이트 운영에는 한국인과 중국인 등 IT개발자들이 가담한 것으로 알려졌다. 올해 들어 이 사이트에는 매일 40여 개 이상의 불법 동영상이 올라왔다. 사이트 회원들도 여성 연예인들의 사진과 음란 영상을 합성해 공유한 것으로 알려졌다.

‘딥페이크deepfake’란? 딥 러닝(deep learning)과 가짜(fake)의 혼성어)는 인공 지능을 기반으로 한 인간 이미지 합성 기술이다. 생성적 적대 신경망(GAN)라는 기계 학습 기술을 사용하여, 기존의 사진나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만들어낸다.

이런 기능 때문에, 딥페이크를 유명인의 가짜 섹스 동영상이나 가짜 리벤지 포르노 등을 만드는데 사용되기도 했다. 또한 가짜 뉴스나 악의적 사기를 만드는데도 사용될 수 있다.

이제서야 물 위로 떠오른 ‘n번방’ 사건이지만 사이버 범죄는 이전부터 그 심각성이 꾸준히 지적돼 왔다. 그러나 가해자들을 수사하기가 쉽지 않고, 워낙 무분별하고 많이 일어나고 있어 사회적으로 큰 관심을 받지 못한 것도 사실이다.

그 중에 ‘딥페이크’가 포함돼 있다. 최근 경찰은 IT개발자들이 한국 연예인 100여명의 얼굴 등을 합성해 음란물을 제작·유포했다는 고발장을 접수해 수사에 들어갔다. 경찰에 따르면 한국인과 중국인 등 IT개발자들이 해외 서버를 통해 한국 연예인 100여명을 대상으로 한 딥페이크 영상 음란물을 제작·유포·판매했다는 고발 건이다.

우선 ‘딥페이크’라는 용어부터가 생소하다. 이는 인공지능(AI) 기술을 활용해 기존에 있던 인물의 얼굴이나 특정 부위를 영화의 CG처럼 합성한 영상 편집물을 말한다. 합성하려는 인물의 얼굴이 주로 나오는 고화질의 동영상을 통해 딥러닝을 한 뒤, 대상이 되는 동영상을 프레임 단위로 합성시키는 것이다.

이같은 범죄는 특별하고 드문 일일까? 전혀 그렇지 않다. 당장 사용자 수가 많은 SNS에 ‘얼굴 합성’, ‘지인 능욕’ 등의 단어로 검색하면 이와 관련된 계정들이 쏟아진다. 대부분 소정의 금액을 받고 의뢰자에게 사진을 받아, 이를 음란 사진이나 영상에 합성해 제공하는 계정이다.

이런 계정과 접촉하는 가해자들은 자신의 지인이나 가족, 또는 인터넷에서 모은 사진들을 맡기고 돈을 지불한다. 돈을 받은 계정주는 이를 음란 사진과 영상에 합성하거나, 아예 보정을 통해 눈을 뒤집는 등의 모습으로 바꿔 다시 제공한다. 이를 ‘지인 능욕’으로 부른다.

아무것도 모르고 자신의 SNS에 사진을 올리던 피해자들은 자신들이 그런 피해를 받고 있다는 것조차 눈치채기 쉽지 않다. 실제로 이번 n번방 수사과정에서 이 관련 범죄들이 다수 발각돼 문제가 제기되기도 했다.

가해자들은 대부분 피해자와 직장 동료, 학교 동창, 친척 관계 등으로 아는 사이였기 때문에 피해 사실을 믿지 못하거나 그 충격이 더욱 컸다. 기술은 발전하고 인터넷과 컴퓨터, 인공지능 등이 우리 생활에 더 밀접하게 연결될수록 사이버 범죄의 규모도 같이 성장한다.

이를 방지하기 위해서는 발전하는 기술과 그 규모만큼 지능적이고 빠르며 더욱 뛰어난 기술로 맞설 수 있는 수사가 필요하다. 또 상대적으로 가벼운 처벌, 수사 비중도 역시 개선돼야 하며, 아울러 이번 n번방 사건처럼 사회적인 관심이 지속돼 사이버 범죄에 대한 심각성을 계속 알려나가는 것이 중요하다.