
지난 19일 한 누리꾼은 "이이경과 성적인 내용의 메시지를 주고받았다"며 자신의 블로그에 글을 올렸다. 메시지에는 이이경의 현재 SNS 프로필 사진이 있었다. 게시물은 X(옛 트위터)를 타고 빠르게 번졌다. 이이경의 SNS에는 이 주장이 진짜인지를 묻는 누리꾼의 질문으로 도배됐다.
글을 올린 누리꾼은 지난 22일 돌연 "죄송하다. 메신저 이미지는 AI로 만든 가짜"라며 고개를 숙였다. 논란을 겪은 3일 동안 이이경의 이미지가 크게 실추된 뒤였다. "조작된 이미지"라는 이 누리꾼의 얘기가 사실이라면, 이번 사건은 AI가 심각하게 악용될 수 있다는 걸 보여주는 사례가 된다.

인공지능의 딥러닝(Deep Learning) 기술을 활용하면 사람의 얼굴과 음성, 몸짓을 정교하게 재연할 수 있다. 초기에 이 기술은 단순 콘텐츠 제작용으로 쓰였다. 고인이 된 인물들을 복원하는 데 쓰이기도 했다. 2020년 2월, MBC에서 방영된 VR 휴먼 다큐멘터리 '너를 만났다'가 그 예다. 이 방송에선 7살이었던 딸 나연이를 먼저 떠나보낸 엄마가 딥페이크로 구현된 딸을 VR(가상현실) 속에서 만났다.
AI를 통한 이미지 제작 기술은 2017년부터 대중적으로 확산했다. 이와 함께 금융 사기, 신분 도용 등 악용 사례가 늘고 있다. 지난 8월에는 축구선수 손흥민이 딥페이크로 만들어져 불법 도박 사이트의 홍보 모델로 등장했다. 영상 속 '가짜' 손흥민은 "제가 왜 ㅇㅇ랜드 앱을 모두에게 추천하는지 알려주겠다. 편리한 앱으로 즐길 수 있다", "모든 당첨금은 단 5분 만에 은행 계좌에 입금된다", "온라인 카지노를 즐겨보세요"라고 말했다. 목소리뿐만 아니라 내뱉는 단어와 발음하는 입 모양까지 실제와 유사하게 구현됐다.
이런 딥페이크 영상은 유튜브에서도 어렵지 않게 찾아볼 수 있다. AI로 만든 영상만 다루는 채널도 생겼고, AI로 만든 인물이 실제 의사 및 전문가인 것처럼 의약품과 건강 기능 식품을 홍보하는 사례도 있다. 다수의 누리꾼은 "어디까지 믿어야 하나"라며 우려하고 있다.
![가짜가 진짜를 삼켰다…이이경 사태, 우려했던 'AI 위험성' 현실이 됐다 [TEN스타필드]](https://img.tenasia.co.kr/photo/202510/BF.42140630.1.jpg)
지난 4월에는 하이브 소속 아티스트의 딥페이크 영상이 텔레그램 대화방에서 유포됐다. 지난해에는 블랙핑크나 트와이스 얼굴을 합성한 딥페이크 영상이 유포돼 물의를 일으켰다.
미국의 사이버 보안 업체인 '시큐리티 히어로'에서 발표한 '2023 딥페이크 현황' 보고서에 따르면 전 세계에 유포된 딥페이크 음란 합성물 피해자의 99%가 여성이었고, 53%는 한국인이었다. 주 피해층은 가수와 배우 등 연예인이었다. 딥페이크 성착취물 사이트 10곳에서 두 달 동안 유통된 영상 9만5820건을 분석한 결과다.
AI를 이용해 허위 사실을 유포한 경우, 형사처벌 및 민사상 손해배상 책임을 질 수 있다. 특히 특정 인물의 명예를 훼손하는 내용일 경우, 정보통신망법상 명예훼손죄로 최대 7년 이하의 징역, 10년 이하의 자격정지 또는 5000만원 이하의 벌금에 처해진다. 성적인 내용을 담고 있을 경우에는 2024년 9월 개정된 성폭력처벌법에 따라 5년 이하의 징역 또는 5000만원 이하의 벌금에 처해지고, 이를 유포하면 7년 이하의 징역형을 받을 수 있다.
IT 콘텐츠 제작 업체 대표는 "연예인들은 얼굴이 지속적으로 노출되는 직업이기 때문에 딥페이크 피해에 취약할 수밖에 없다"며 "딥페이크 기술이 주는 이로움도 있기 때문에 그 기술이 제대로 쓰이도록 시스템과 감시망을 갖춰야 한다"고 했다. 그는 "AI로 제작된 콘텐츠에는 'AI가 생성했다'라는 문구를 넣도록 법제화할 필요가 있고, 타인의 얼굴이나 음성을 함부로 합성하거나 유포할시 강력한 처벌을 받을 수 있도록 법에 명확히 규정하는 처벌 조항을 신설하는 것이 필요하다"고 덧붙였다.

ADVERTISEMENT
© 텐아시아, 무단전재 및 재배포 금지
ADVERTISEMENT
ADVERTISEMENT