본문 바로가기
카테고리 없음

딥페이크 기술의 양면성 (선거 조작, 영상 산업, 윤리 교육)

by mimilo 2026. 2. 25.

인공지능 기술의 발전은 우리에게 상상을 현실로 만드는 놀라운 가능성을 열어주었지만, 동시에 진실과 거짓의 경계를 무너뜨리는 위험도 가져왔습니다. 딥러닝과 페이크의 합성어인 딥페이크는 이제 전문가의 영역을 넘어 일반인도 손쉽게 활용할 수 있는 기술이 되었습니다. 정교해진 영상 합성 기술은 정치, 엔터테인먼트, 범죄 등 다양한 분야에서 활용되며 사회 전반에 큰 영향을 미치고 있습니다.

딥페이크 기술의 양면성

선거 조작과 정치적 악용의 위험성

딥페이크 기술이 가장 심각하게 악용되는 분야는 바로 정치 영역입니다. 2024년 미국 대선을 앞두고 뉴햄프셔주 유권자들에게 바이든 대통령의 목소리를 흉내 낸 가짜 전화가 걸려와 투표를 종용하는 사건이 발생했습니다. 힐러리 전 장관이 공화당 인사를 지지하는 딥페이크 영상이 퍼지기도 했습니다. 러시아 대선에서는 푸틴이 진짜 푸틴에게 질문하는 초현실적인 장면이 연출되었습니다. 이처럼 전 세계적으로 딥페이크가 정치 영역까지 침투하면서 민주주의의 근간을 흔드는 심각한 문제로 대두되고 있습니다.
실제 사례를 살펴보면 그 파괴력은 더욱 명확해집니다. 2023년 5월 튀르키예 대선에서는 야당 후보를 지지하는 쿠르드 노동당 주요 인사의 딥페이크 영상이 퍼지면서 민심이 크게 동요했고, 결국 에르도안 대통령이 재선에 성공했습니다. 슬로바키아 총선에서도 후보의 목소리를 조작한 딥페이크 음성이 선거 결과에 영향을 미쳤습니다. 미국에서 실시한 연구에 따르면 설문 조사 참여자 1,424명 중 81.5%가 딥페이크 영상을 본 후 결정이 흔들렸다고 답했으며, 36%는 실제로 지지 후보를 변경했다고 응답했습니다. 이는 조작된 영상 하나가 유권자의 판단에 얼마나 강력한 영향을 미치는지를 보여주는 충격적인 수치입니다.
한국도 예외는 아닙니다. 22대 총선을 앞두고 선거법이 개정되어 선거일 90일 전부터 딥페이크를 활용한 선거 운동이 전면 금지되었습니다. 중앙선거관리위원회는 2024년 1월부터 AI 감별 반을 꾸려 딥페이크 게시물 단속에 나섰고, 선거 일주일 전까지 300건이 넘는 딥페이크 게시물이 적발되었습니다. 하지만 전문가들은 현재의 AI 탐지 기술로는 페이크 악용을 100% 차단하기란 불가능하다고 지적합니다. 영상을 조작하려는 사람들이 탐지 기술보다 앞서 나가 있고, 이들은 서로 술래잡기를 하듯 발전하고 있기 때문입니다. 더 큰 문제는 조작 영상이 일단 퍼지면 바로잡는 데 시간이 걸리고, 사실이 아니어도 자신의 정치적 지향성을 뒷받침한다고 생각되면 오히려 더 공유하려는 현상이 발생한다는 점입니다.

영상 산업에서의 창의적 활용

딥페이크 기술의 부정적 측면에만 주목하기보다, 영상 산업에서 보여준 긍정적 활용 사례도 주목할 필요가 있습니다. KBS 정통 사극 '고려 거란 전쟁'에서는 수십만 명의 고려와 거란 군사들이 맞붙는 압도적 규모의 전투 장면을 딥페이크 기술로 구현했습니다. 실제로 연기한 배우는 수십여 명에 불과했지만, 혼합 현실 스튜디오에서 촬영한 배우들의 연기에 딥페이크 기술을 적용해 얼굴이 다른 디지털 군중을 만들어낸 것입니다. 이는 제작비와 시간을 대폭 절감하면서도 박진감 넘치는 장면을 연출할 수 있게 해 주었습니다.
디즈니 플러스의 '카지노'에서는 배우 최민식의 젊은 시절을 딥페이크로 구현했고, 넷플릭스 드라마 '살인자ㅇ난감'에서는 손석구 배우의 어린 시절을 재현하는 데 활용되었습니다. 과거에는 CG 기술로도 어색했던 장면들이 이제는 실제와 거의 구분이 안 될 정도로 자연스럽게 표현됩니다. 디퓨전 모델이라는 새로운 기술이 나오면서 딥페이크의 완성도는 일반 사람들이 봐서 구별을 못 하는 단계까지 발전했습니다.
디지털 아트 회사 디스트릭트는 뉴욕 타임스퀘어 한복판 100m 높이의 빌딩에서 폭포가 떨어지는 모습을 보여주거나, 농구장 네 개 크기의 초대형 전광판을 수조로 만들어 도심에 파도를 흐르게 하는 등 실감 콘텐츠를 제작합니다. 이들은 자연의 소재를 재해석하고 자연을 뛰어넘는 콘텐츠를 만드는 것을 목표로 하며, AI 기술을 작업 과정에 적극 도입하고 있습니다. 문장으로 프롬프트를 입력하면 원하는 비주얼이 즉시 도출되고, 인간이 하루에 한두 개 정도의 시안을 만든다면 인공지능을 활용하면 수십 개 수백 개도 생성할 수 있습니다. 이들은 디스트릭트가 만들었던 작업들을 학습시켜 파인튜닝한 자체 AI 모델 개발 프로젝트도 진행하고 있습니다. 영상 업계 전문가들은 오픈 AI의 소라 같은 텍스트 기반 영상 생성 AI를 보며 "충격과 공포를 느꼈다"라고 표현할 정도로 기술 발전 속도가 빠르며, 이러한 확장성은 가늠할 수 없을 정도라고 평가합니다.

윤리 교육과 미디어 리터러시의 중요성

딥페이크 기술이 일상 깊숙이 들어오면서 10대 20대 젊은 세대 사이에서는 이를 놀이처럼 이용하는 문화가 확산되고 있습니다. 가수 비비의 '밤양갱'을 아이유, 박명수 등 다양한 유명인들의 목소리로 부르는 AI 커버 곡이 SNS에서 큰 인기를 끌었습니다. 이러한 AI 커버 곡은 가수가 참여한 음원 못지않게 화제성이 높고, 아이돌 팬들 사이에서 유행처럼 번지고 있습니다. 디지털 네이티브 세대는 이를 각 잡고 보는 게 아니라 숨 쉬듯이 사용하다 보니 친구 얼굴을 집어넣거나 가짜로 만들어도 그냥 웃고 마는 문화가 형성되었습니다.
하지만 이런 문화에는 심각한 문제가 내재되어 있습니다. 유명인의 퍼블리시티권과 상업권이 침해되는 심각한 상황임에도 불구하고 관련 처벌 근거법이 존재하지 않아 통제가 이루어지지 않고 있습니다. 누군가가 문제를 삼기 이전에는 '그래도 되는가 보다'라는 문화가 형성되어 버리는 것입니다. 한 딥페이크 제작자는 처음에는 재미로 시작했지만, 자신이 만든 합성 영상을 사람들이 진짜로 받아들이는 댓글들을 보며 "내가 의도하지 않았음에도 남들이 오해함으로써 또 다른 문제가 발생될 수 있겠구나"라는 두려움을 느꼈다고 고백했습니다.
미디어학과 학생 39명을 대상으로 한 실험에서 여섯 명의 인물 중 네 명이 딥페이크인 영상을 보여줬을 때, 정답을 모두 맞힌 학생은 단 세 명뿐이었습니다. 평소 AI나 딥페이크 콘텐츠를 접할 경험이 많고 페이크 구별법을 제법 잘 알고 있다는 학생들조차 절반 이상이 실패한 것입니다. 학생들은 "유튜브나 다른 미디어에서 각 잡고 보라고 하니까 얼굴 광도 보고 눈동자도 보게 되는데, 일상에서는 이 사람이 AI인지 아닌지 궁금하지 않으니까 의식하지 않아서 분간하는 마음도 안 들 것"이라고 말했습니다.
전문가들은 많은 거짓 정보를 일일이 다 제어하는 것은 어렵기 때문에 믿을 수 있는 정보로서 언론이 기능할 필요가 있으며, 정보 수용자 입장에서 미디어 리터러시를 함양할 수 있도록 미디어 교육 사업을 적극 확대해야 한다고 강조합니다. 개발자들이 갖춰야 할 기본 윤리 의식 중 가장 중요한 것은 "이것으로 사람을 해하지 않겠다"라는 기본 마음입니다. 의식을 가지고 주체적으로 판단할 수 있는 사람도 있지만, 집단이 모두 합성 영상을 올리면 "이 정도는 할 수 있는 거 아닌가"라고 생각하며 나쁜 쪽으로 절여지는 현상이 발생합니다. 이러한 문제를 방지하기 위해서는 교육이 필수적입니다.

결론

딥페이크 기술은 양날의 검입니다. 사진 한 장으로 독립운동가 윤봉길 의사를 복원한 영상은 디지털 시대 새로운 추모 방식으로 활용되었고, 러시아 성소수자 다큐멘터리에서는 출연자 보호를 위해 모자이크 대신 딥페이크가 사용되었습니다. 결국 사람을 해하는 과학과 이롭게 하는 과학의 차이는 모양이 아니라 만드는 사람의 의도와 윤리 의식에서 비롯됩니다. 기술 발전을 막을 수는 없지만, 개발자의 윤리적 책임, 언론의 신뢰 회복, 그리고 대중의 미디어 리터러시 향상이 함께 이루어질 때 비로소 딥페이크 기술을 올바르게 활용할 수 있을 것입니다.


[출처]
KBS 추적 60분 - 딥페이크의 두 얼굴 / KBS: https://www.youtube.com/watch?v=_I4a0BHaz30


소개 및 문의 · 개인정보처리방침 · 면책조항

© 2026 블로그 이름