특정 인물의 얼굴 등을 인공지능 기술을 이용해 특정 영상에 합성한 편집물.

일명 ‘딥페이크’로 불리는 허위영상물이 최근 문제가 되고 있다는 소식이다.

본보는 트위터 등 인터넷상에서 이 같은 ‘딥페이크’ 허위 영상물이 심심찮게 나돌고 있어 도민들의 주의가 각별히 요구되고 있다고 전했다.

최근 A씨는 자신이 평소 쓰지도 않던 SNS에 자신의 얼굴과 다른 사람의 몸이 합성된 사진을 보고 개인 비용을 들여 디지털 장례사를 이용해 지웠다고 한다.

A씨 사례처럼 SNS상에 합성 허위영상물로 피해를 보고 있는 사람이 한 둘이 아니라고 한다.

실제로 인터넷에 ‘무료로 지인 얼굴 합성 해드립니다’, ‘지인합성 받음, 비밀 보장’ 와 같은 게시 글을 확인할 수 있다고 한다.

A씨처럼 단순 유포된 이미지일지라도 지속적으로 다시 게재될 가능성도 배제할 수 없어 관계기관의 적극적인 대책이 요구되고 있다.

최근 여성가족부에 발표에 따르면 지난해 디지털 성범죄 피해자 지원센터를 통해 접수된 피해자는 2019년 2087명에서 4973명으로 2배 이상 늘었다고 한다.

게시물 삭제 지원의 경우 2019년 9만5083건에서 지난해 15만8760건으로 증가하는 추세라고 한다.

이 같은 게시물이 해외 SNS를 통할 경우 공문을 번역해 협조요청을 해야 하는 등 수사가 쉽지만은 않은 상황이라고 한다.

앞서 전북경찰청에서도 지난 2월부터 타인의 신체·얼굴과 성영상물을 합성해 유통하는 일명 ‘딥페이크’라 불리는 허위영상물을 단속했다.

일예로 경찰은 지난해 8월부터 올 2월까지 6개월여 기간에 걸쳐 트위터 상에서 공연음란 행위를 하는 성영상물을 촬영 후 게시·판매하고, SNS로 알게 된 피해자의 지인능욕 딥페이크 영상 등 총 57편을 SNS에 게시한 혐의로 20대 B씨를 검거했다고 한다.

딥페이크는 인공지능을 활용한 인간 이미지 합성 기술이라는 점에서 컴퓨터를 잘 다루는 젊은 층 사이에서 빈번하게 발생하는 범죄라고 한다.

실제로 딥페이크 가해자의 70%가 10%라는 통계도 있다.

장난삼아서 하는 이들도 있지만 상당부분 불법합성물이나 성 관련 음란물에 해당된다는 점에서 피해자로 하여금 성적 수치심을 느끼게 해 디지털 성범죄의 처벌 대상이 된다고 한다.

더욱 큰 문제는 이렇게 만들어진 영상물이나 사진은 무수히 많은 복제물들을 만들어 복제하고 유포될 수 있어 피해자로 하여금 회복될 수 없는 피해를 줄 수 있다는 점이다.

피해 발생 시 혼자 끙끙 앓지 말고 관계당국에 신고하고 적극적 지원을 받기를 당부하고 싶다.

저작권자 © 전북중앙 무단전재 및 재배포 금지