▲ 지난 3일 밤 10시25분경 윤석열 대통령의 비상계엄 선포 후 인터넷 커뮤니티와 사회관계망서비스(SNS)에서 등장한 가짜 장갑차 사진. 왼쪽은 과거 군사훈련 때 촬영된 이미지이며, 오른쪽은 장갑차와 서울 시내를 합성한 딥페이크 사진으로 확인됐다. < SNS 갈무리 > |
[비즈니스포스트] 윤석열 대통령이 지난 3일 밤 10시25분경 비상계엄을 선포한 뒤 인터넷 커뮤니티와 사회관계망서비스(SNS)에서 계엄과 관련된 가짜 딥페이크 이미지가 급속히 퍼지며 혼란을 가중시킨 것으로 나타났다.
특히 과거 군사 훈련 장면 사진이나 합성된 장갑차 등장 사진들이 마치 계엄 선포에 따른 것이냥 인터넷에서 순식간에 확산해 국민 혼란을 부추겼다.
인공지능(AI) 사진·영상 합성 기술이 지속적으로 발전하는 상황에서 딥페이크 가짜 이미지나 영상에 대한 진위 여부 확인 기술과 무작위 배포를 막을 수 있는 대책이 시급하다는 지적이 나온다.
4일 IT업계 취재를 종합하면 비상계엄 상황과 맞물려 퍼져나간 가짜 이미지들이 혼란을 키웠지만, 이를 막을 기술적·제도적 대책이 부족하다는 지적이 쏟아지고 있다.
3일 밤부터 이날까지 확인된 딥페이크 이미지는 장갑차 사진 2종, 윤 대통령이 비상계엄에 따라 통행금지을 실시한다는 내용의 이미지 1종 등이다.
장갑차 사진 가운데 하나는 과거 시가 훈련 사진으로 추정된다. 사진 속 미니스톱 매장 간판이 나오는데, 미니스톱은 2024년 3월을 끝으로 국내에서 철수하거나 세븐일레븐으로 변경됐다.
다른 장갑차 사진은 주변 건물들 상호들을 보면 서울 마포구 도로 위를 지나고 있는 모습인데, 최종 장갑차 합성 사진으로 확인됐다.
또 비상계엄 선포 영상 하단에 '오후 11시 이후 통행시 불시검문·체포'라는 내용이 합성된 이미지도 퍼졌다.
최근 일반인 얼굴에 연애인 등 유명인사 얼굴을 합성하는 AI 딥페이크 이미지나 영상이 급증하며 사회적 파장을 키우고 있는 가운데 계엄 등 비상사태에 국민 혼란을 유발하는 AI 합성 이미지까지 등장해 이에 대한 기술적 방지책과 규제를 강화해야 하는 것 아니냐는 비판이 나온다.
국내에선 내년 6월부터 발효하는 이른바 '딥페이크 성범죄 방지법(성폭력처벌법 개정안)'이 관련 법안인데, 이는 주로 사람을 대상으로 한 '딥페이크' 문제와 성범죄 규제에 치중돼 있다.
▲ 윤석열 대통령이 지난 3일 밤 비상계엄을 선포하는 동영상에 '오후 11시 이후 통행 시 불시검문·체포'가 이뤄진다는 내용의 허위 자막을 단 딥페이크 이미지. < SNS 갈무리 > |
반면 세계적으로는 AI로 생성된 이미지나 영상에 대한 규제가 성폭력 방지 차원을 넘어 일반 딥페이크 분야로 강화되고 있다.
유럽연합(EU)은 2024년 8월1일부터 '인공지능법'을 발효, AI 등으로 생성한 콘텐츠에 워터마크, 메타데이터, 암호화 등 기계가 판독할 수 있는 표시를 부착하도록 의무화했다.
미국 정부는 2023년 10월30일 '인공지능의 안전하고 보안성 있는 개발과 활용을 위한 행정명령'을 내리고, AI 생성 콘텐츠 탐지와 공식 콘텐츠 인증 차원에서 각 부처 차원의 광범위한 이행사항을 규정했다.
중국 정부는 2023년 1월10일 '인터넷정보서비스 심층합성 관리규정'을 발표, 딥페이크와 생성형 AI 기술을 바탕으로 한 서비스에 관련 내용을 식별할 수 있는 표시를 의무화했다.
세계적 AI 딥페이크 규제 강화와 함께 AI로 생성된 콘텐츠의 진위를 판별할 수 있는 기술도 잇달아 등장하고 있다.
아마존웹서비스(AWS)는 오는 6일까지 미국 라스베이거스에서 개최하는 자체 AI 기술 발표회에서 '딥페이크 디텍션'이라는 기술을 공개했다. 이 기술은 AI를 바탕으로 원본과 픽셀(디지털 이미지의 최소 단위) 비율이 40% 이상 차이나는 것을 딥페이크로 규정할 수 있는 것이라고 회사 측은 설명했다.
미국 IT매체 나인투파이브맥에 따르면 애플은 AI 등을 활용해 사진을 조작할 때 이 사실을 사진 내부에 포함시켜 타인이 확인할 수 있도록 하는 기술을 최근 공개했다. 또 아이폰 등에 탑재된 '가상 이미지 생성 기능' 실행 시 사진처럼 사실적 결과 생성을 할 수 없도록 하고 있다.
어도비는 2019년부터 출처와 정보가 명확한 콘텐츠를 바탕으로 잘못된 디지털 정보를 해결해 나가는 '콘텐츠 진위 이니셔티브(CAI)'를 운영하고 있으며, 창작자가 자신의 콘텐츠를 자체 보증하는 '콘텐츠 자격증명' 기술도 도입했다.
업계 관계자는 "과거에는 가짜 이미지를 만들어내는데 상당한 기술이 필요했다면, 요즘은 일반인도 간단하게 딥페이크를 만들 수 있게 됐다"며 "딥페이크 이미지나 영상 확산을 방지하기 위한 기술적, 법적 대응을 조속히 마련할 필요가 있다"고 말했다. 이동현 기자