default_top_notch
default_news_top
default_news_ad1
default_nd_ad1

내가 아닌 또 다른 나

기사승인 2021.04.25  23:11:31

공유
default_news_ad2

- 딥페이크의 심각성

 

저번 달 유튜브 ‘그것이 알고 싶다.’ 공식계정 채널에 ‘누가 진짜 김상중인가?!’라는 제목으로 한 영상이 올라왔다.

‘두명의 김상중 MC 장면’ / 출처 : 유튜브 ‘그것이 알고싶다.’ 공식 채널


언뜻 보면 ‘그것이 알고 싶다. 프로그램의 MC인 ‘김상중’이 두 명으로 보인다. 약간 이상한 점이 있다면, 둘 다 같이 움직인다는 것뿐 특별히 이상한 점은 보이지 않는다. 하지만 바로 다음 장면에서 사실을 알 수 있었다.

 

‘사실은 두 명이 다른 사람임을 알려주는 장면’ / 출처: 유튜브 ‘그것이 알고싶다.' 공식 채널

 

앉아있던 사람은 ‘그것이 알고 싶다.’의 스태프 중 한 분의 얼굴에 ‘김상중’의 얼굴을 합성한 ‘딥페이크’였던 것이었다. 이렇게 딥페이크는 진짜 같은 가짜이며, 우리는 이것을 쉽게 구분할 수 없다.

 

진짜보다 더 진짜 같은 딥페이크

 

딥페이크란 인공지능의 한 분야인 딥러닝(Deep Learning)을 활용하여, 기존에 있던 인물의 얼굴이나 특정 부위를 영화의 CG 처리처럼 합성한 영상 편집물을 말한다. 합성 대상이 되는 사람과 비슷한 체형 및 얼굴형을 가진 사람이 찍힌 영상을 딥페이크로 편집한다면, 앞서 언급한 사진처럼 ‘진짜’처럼 보이게 된다.

 

딥페이크는 IT 산업은 물론 엔터테인먼트 산업까지 다양한 분야에 쓰이고 있는 인공지능 기술이다. 예를 들어 이미 사망한 사람의 얼굴을 재현하여 가족들을 위로하기도 하며 지난해에는 엠넷(Mnet)에서 고인이 된 가수 ‘거북이’ 터틀맨의 생전 모습과 목소리로 최신곡인 드라마 ‘이태원 클래스’ OST 무대를 구현하는 데에 쓰였다. 제대로만 쓰인다면 긍정적인 부분이 많은 기술임에도 불구하고, 문제는 이러한 기술을 악의적인 목적으로 딥페이크 영상기술이 악용된 사례가 늘고 있다는 것이다.

 

유명인들의 딥페이크 피해

 

유명인들은 온라인에 공개된 사진과 같은 자료들의 양이 많아 영상 합성이 용이하다. 영화배우 ‘니컬러스 케이지’ 또는 ‘톰 크루즈’가 이 예시이다.

 

‘영화배우 니컬러스 케이지의 딥페이크’ / 출처: 유튜브 ‘그것이 알고싶다.' 공식 채널
‘영화배우 톰 크루즈의 딥페이크’ / 출처: 유튜브 ‘그것이 알고싶다.' 공식 채널

 

톰 크루즈의 딥페이크 영상의 경우 수백만 명의 팬이 ‘좋아요’를 누를 정도로 진짜 같다. 사실, 아직은 조악한 수준의 영상들이 많아 대부분 가짜임을 의심할 수 있지만, 영상의 화질이나 처리되는 데이터의 질에 따라 딥페이크 영상과 원본 영상의 구분이 어려울 정도로 발전하고 있다.

 

‘Deeptrace <the state of deepfakes 2019>' 보고서에 따르면 25%가 우리나라 연예인’ / 출처:유튜브 ‘그것이 알고싶다.’ 공식 채널

 

가장 큰 문제점은 연예인들을 딥페이크 포르노에 합성하여 배포 혹은 유포되는 일명 ‘딥페이크 포르노’이다. AI 알고리즘 기술이 진화되면서 다수의 포르노 사이트, 트위터와 같이 접근성이 높은 사이트에서 이러한 영상들이 돌아다녔으며, 최근에는 딥페이크 영상들을 모은 전용 사이트들이 생겨났다.

 

우리의 일상속에서 일어나고 있는 딥페이크 범죄

‘딥페이크의 이용 목적’ / 출처: 유튜브 ‘그것이 알고싶다.’ 공식 채널

 

현재 연예인들을 넘어 인스타그램과 틱톡 등 SNS에 영상 혹은 사진을 올린 일반인들도 신종 사기인 일명 ‘딥페이크 피싱’의 범죄 타깃이 되고 있다. 일반인의 얼굴과 일본 AV 배우들의 영상을 합쳐 만든 영상을 일반인에게 보내 유포를 빌미로 돈을 갈취하는 수법이다. 우리의 일상을 공유하기 위해 올렸던 영상과 사진으로 우리가 범죄의 타깃이 될 수 있다는 건 이제는 남의 얘기가 아니라는 사실이다.

 

네덜란드 AI 연구소 센서 티(옛 딥트레이스)가 발간한 보고서에 따르면, 지난해 7월까지 텔레그램에서 전 세계 10만 4,852명의 여성이 이른바 ‘딥페이크 로봇’에 걸려 나체 사진에 자신의 얼굴이 합성되는 피해를 봤다고 한다. 이 중 70%는 유명인이 아닌 일반인들이라고 조사되었다.

 

아직까지 세워지지 않은, 우리를 지켜줄 울타리

 

우리나라의 경우, 딥페이크 포르노를 인터넷 등에 배포하게 되면 성폭력범죄의 처벌 등에 관한 특례법 제14조 2항에 따라 7년 이하의 징역 또는 5천만 원 이하의 벌금의 처벌을 받는다. 하지만 대다수의 나라에서 현재 법적으로 대처가 불가능한 것으로 알려져 있다. 또한, 현재에는 모든 딥페이크 제작 행위를 처벌하는 것이 아닌 성적 욕망 또는 수치심을 유발할 수 있는 형태의 딥페이크만 처벌되고 있다.그러므로 여러 형태로 만들어지고 있는 딥페이크를 막기 위해서는 법안개정이 되어야 한다.

 

다행스럽게 민간이나 연구 차원에서의 딥페이크 해결을 위한 움직임은 상대적으로 활발히 진행 중에 있다. AI 기업들인 ‘머니 브레인 딥러닝 연구팀’과 독일, 이탈리아의 연구진들이 개발한 딥러닝 AI에 분석 학습을 시켜 해당 데이터에 포함된 딥페이크 영상의 검증률을 99%까지 끌어올렸다. 여기서 더 발전해 학습한 AI가 한 번도 보지 못한 새로운 딥페이크 영상에 대한 검증을 진행하였으며 진위 사실 여부 판단은 약 90%의 높은 검증률을 보였다. 또한, 한국과학기술원은 딥페이크를 잡아내는 스마트폰 앱을 개발해 공개하였다. 누구든지 이 앱을 깔고 영상 일부를 사진으로 올리면, 그 영상이 딥페이크일 확률이 얼마인지 알려주는 서비스이다. 현재 탐지 정확도는 80% 수준이다. 하지만 여기서 큰 문제점은 불법 영상 제작과 유포가 탐지 기술들을 교묘히 우회하고 있어 이러한 탐지 기술로 딥페이크 영상물을 거른다는 것이 쉽지 않다는 것이다. 이렇게 기술적으로는 발전하고 있지만, 사실 타인의 얼굴 등을 동의받지 않고 딥페이크 합성을 하는 행위는 범죄라는 사회적 인식 확산이 가장 중요하다.

 

딥페이크를 이용한 범죄로 인해 '몸캠피싱피해자모임' 등 딥페이크 피해자의 카페까지 만들어진 상황이다. AI와 같은 과학 기술의 발전은 우리 일상에 편리함을 가져다주었지만, 이면에는 ‘딥페이크 포르노’와 같은 어두운 범죄가 발생하고 있다. 그러므로 이러한 행위는 사이버 명예훼손이 성립하며 음란물 유포죄로 형사 처벌은 물론 초상권 침해까지 성립되는 ‘범죄’라는 사회적 인식을 확산하여야 한다.

안양희 온라인 바람 저널리스트 yess@live.com

<저작권자 © 지속가능저널 무단전재 및 재배포금지>
default_news_ad5
default_side_ad1
default_nd_ad2

인기기사

default_side_ad2

포토

1 2 3
set_P1
default_side_ad3

섹션별 인기기사 및 최근기사

default_side_ad4
default_nd_ad6
default_news_bottom
default_nd_ad4
default_bottom
#top
default_bottom_notch