본문 바로가기

광고

광고닫기

광고

본문

광고

미래&과학미래

딥페이크 탐지기술, 가짜뉴스 해결사 될까?

등록 :2019-10-03 13:59수정 :2019-10-03 15:19

크게 작게

2019년 5월  러시아 인공지능연구소와 삼성전자가 공동으로 개발한 딥페이크 영상. 사진 이미지 한장을 이용해 자연스러운 동영상을 만들어냈다. 출처:Few-Shot Adversarial Learning of Realistic Neural Talking Head Models(arXive.org)
2019년 5월 러시아 인공지능연구소와 삼성전자가 공동으로 개발한 딥페이크 영상. 사진 이미지 한장을 이용해 자연스러운 동영상을 만들어냈다. 출처:Few-Shot Adversarial Learning of Realistic Neural Talking Head Models(arXive.org)
[구본권의사람과디지털]
딥페이크 사기 활용 등장 등 범죄악용 가시화
다르파, MS, 구글, 페이스북 등 탐지기술 경쟁
“자동화에 의존할수록 부정확과 검열 증대” 부작용
법적·사회적·교육적 방법 동원한 ‘장기대책’ 필요
감쪽같은 가짜를 만들어내는 ‘딥페이크(Deep Fake)’를 족집게처럼 잡아내는 기술이 등장하면 딥페이크는 해결될 수 있을까?

딥페이크 기술은 인공지능 심화신경망(딥러닝) 방식의 기계학습을 통해 진짜와 거의 구별되지 않는 ‘감쪽같은 가짜’를 만들어내는 기술인데, 오픈소스 형태로 제공되고 있어 손쉽게 활용이 가능하다. 지난 3월 영국에선 딥페이크 음성 조작으로 상사의 목소리를 만들어내 거액을 송금하라는 전화를 받은 에너지기업 대표가 속아 약 3억원을 사기당하는 일도 일어났다.

딥페이크는 개인들의 사기 피해를 넘어 사회가 기반하고 있는 공유된 사실에 대한 믿음을 파괴하기 때문에 대화와 합의를 바탕으로 하는 민주주의의 존립을 위협한다. 딥페이크의 위협이 현실화하자, 기술적 대응도 본격화하고 있다. 미국 정부는 국방부 고등방위계획국(DARPA)을 통해 딥페이크를 탐지하는 ‘미디어 포렌식’ 연구를 진행하고 있다. 페이스북과 마이크로소프트는 2020년 딥페이크 탐지 경진대회를 열기로 했다. 페이스북은 최근 딥페이크 영상 탐지 기술 연구에 1천만달러(약 120억원)를 투입하고, 내년도 탐지 대회를 위한 샘플 딥페이크 영상을 오는 12월말 공개하겠다고 밝혔다. 구글은 이미 지난달 24일 자신들이 그동안 개발해온 딥페이크 동영상 3000세트의 방대한 데이터베이스를 공개했다.

딥페이크 탐지기술 기술이 개발되어 해당 동영상·영상이 위조되었다는 사실을 ‘딥페이크’ 딱지를 통해 누구나 알 수 있게 만들면, 딥페이크로 인한 문제는 없어지게 되는 것일까?

구글은 2019년 9월24일 블로그를 통해, 인공지능 딥페이크 조작 영샹의 탐지 연구를 지원하기 위해 자신들이 그동안 만들어온 딥페이크 동영상 3000세트를 개방했다. 구글 제공.
구글은 2019년 9월24일 블로그를 통해, 인공지능 딥페이크 조작 영샹의 탐지 연구를 지원하기 위해 자신들이 그동안 만들어온 딥페이크 동영상 3000세트를 개방했다. 구글 제공.
2일(현지시각) 발간된 미국의 과학기술전문매체 <엠아이티(MIT) 테크놀로지 리뷰>는 탐지기술로는 딥페이크 문제를 해결할 수 없다며, 3가지 이유가 있다고 보도했다.

첫째, 딥페이크 탐지 기술이 해당 콘텐츠 삭제 여부를 판단해줄 수 없다.

미국 페이스북에서 문제가 된 낸시 펠로시 미국 하원의장의 조작 영상 처리가 대표적이다. 문제의 영상은 약간 느린 재생을 통해 펠로시를 술 취하고 정신이 이상한 것처럼 보이게 만들어, 가짜 뉴스라는 비난을 받았는데 페이스북은 해당 영상을 삭제하지 않기로 결정했다. 신문 만평은 정치인의 특징을 잡아 과장된 표현을 하지만, 부정적 관점에서 보면 의도적 이미지 조작을 통한 모욕이자 명예훼손이다. 풍자와 패러디, 상상과 조작의 경계선을 긋는 행위는 매우 복잡하고 미묘한 의사결정을 필요로 하기 때문에 기계에 의해 자동처리를 하기 어렵다. 세인트존스대학의 케이트 클로닉 교수는 ‘MIT테크놀로지리뷰’에 “자동화 도구에 더 많이 의존할수록 더 부정확한 결과를 얻게 되거나 검열을 하게 된다”며 딥페이크 탐지 기술의 한계를 지적했다. 대안으로는 기술에 의존하는 대신 전문적 콘텐츠 관리자를 양성하고 권한을 부여하는 방법이 제시된다.

2017년 미국의 반도체업체 엔비디아의 연구진이 공개한 인공지능 신경망(GAN)을 활용한 이미지 생성 사례. 초기 저해상도의 식별 불가능한 이미지가 데이터를 통한 자체 학습과 피드백 과정을 거치면서 나중에는 1024-1024 픽셀 크기의 선명한 이미지로 다듬어졌다. 미국 유명 영화배우 제니퍼 애니스톤을 닮았지만 완벽하게 같지는 않다. 엔비디아 제공
2017년 미국의 반도체업체 엔비디아의 연구진이 공개한 인공지능 신경망(GAN)을 활용한 이미지 생성 사례. 초기 저해상도의 식별 불가능한 이미지가 데이터를 통한 자체 학습과 피드백 과정을 거치면서 나중에는 1024-1024 픽셀 크기의 선명한 이미지로 다듬어졌다. 미국 유명 영화배우 제니퍼 애니스톤을 닮았지만 완벽하게 같지는 않다. 엔비디아 제공
둘째, 딥페이크 단속기술이 정작 보호가 필요한 사람들에게 도움이 되지 않을 수 있다.

새로운 기술은 위험성이 전면화하기 전에 대부분 여성, 성소수자, 유색인종 등과 같은 사회적 약자를 대상으로 사용되거나 차별하는 용도로 쓰여왔다. 딥페이크 등장 이전인 1990년대에도 여성 약자 등을 포르노 사진에 합성하는 일이 잦았다. 연구자들은 딥페이크가 선거판을 오염시키는 것보다 보통사람들을 괴롭히는 데 악용되는 것이 더 심각한 위협이라고 본다. 비영린 미디어연구조직인 위트니스(Witness)의 샘 그리고리는 ‘MIT테크놀로지리뷰’에 “일단 플랫폼의 구조가 만들어지면 시스템은 가장 소외된 사람들을 배제하고 차별하는데, 소외된 사람들에겐 구조를 변화시킬만한 목소리나 대리인이 없기 때문”이라고 지적했다. 기술로 인해 가장 큰 영향을 받을 사람들을 구조적 논의에 참여시키는 게 요구되는 이유다.

셋째, 딥페이크 탐지기술이 등장해도 피해자에게 이미 너무 늦다.

온라인에서는 일단 피해가 발생하면 ‘엎질러진 물’이다. 더욱이 현 법률체계는 딥페이크와 같은 첨단 기술로 인한 피해가 반영되어 있지 않기 때문에 제대로 된 처벌과 법적 대응이 불가능하다. 새로운 법이 요구되는 이유다. 미국에서는 캘리포니아와 텍사스주에서 딥페이크 금지법안이 제출돼 있고, 하원에는 ‘딥페이크 책무법(DeepFakes Accountability Act)’라는 연방법이 상정돼 있다. 이 법은 소셜미디어 기업들이 각사의 플랫폼에서 악의적 딥페이크를 쉽게 탐지하도록 만들어 처벌이 쉽게 이뤄지도록 하는 게 주된 내용이다.

딥페이크의 위협이 현실화하고 있지만, 딥페이크 탐지기술처럼 기술적 방법이 근원적 해결책이 되지 못한다는 ‘MIT테크놀로지리뷰’의 지적은 이 문제를 범사회적 차원에서 법적, 문화적, 교육적 방법을 동원해 장기적으로 해결할 문제라는 것을 다시 일깨운다.

구본권 선임기자 starry9@hani.co.kr

광고

광고

광고

미래&과학 많이 보는 기사

나사 탐사선, 3억km 거리의 소행성 베누 흙을 담았다 1.

나사 탐사선, 3억km 거리의 소행성 베누 흙을 담았다

비닐봉지의 역설…종이봉투와 생분해 플라스틱의 불편한 진실 2.

비닐봉지의 역설…종이봉투와 생분해 플라스틱의 불편한 진실

부부는 닮지 않는다...닮은 이끼리 만날 뿐 3.

부부는 닮지 않는다...닮은 이끼리 만날 뿐

폴리프로필렌 젖병에서 미세플라스틱 다량 검출 4.

폴리프로필렌 젖병에서 미세플라스틱 다량 검출

20배율 머리카락...과학과 예술이 만나다 5.

20배율 머리카락...과학과 예술이 만나다

NativeLab : PORTFOLIO

1/ 2/ 3


서비스 전체보기

전체
정치
사회
전국
경제 Weconomy
국제
문화
스포츠
미래과학
애니멀피플
오피니언
만화 | ESC | 토요판 | 한겨레 데이터베이스 | 뉴스그래픽 | 연재 | 이슈 | 함께하는교육 | 더나은사회 | 탐사보도 | 서울&
스페셜
포토
한겨레TV
뉴스서비스
매거진
사업

맨위로