일본산업뉴스요약

데이터의 세기(5): 난무하는 가짜 뉴스 -- 정보 오염시키는 대가, 엄하게 처벌
  • 카테고리사물인터넷/ ICT/ 제조·4.0
  • 기사일자 2018.7.20
  • 신문사 일본경제신문
  • 게재면 1면
  • 작성자hjtic
  • 날짜2018-07-26 22:54:50
  • 조회수560

데이터의 세기(世紀); ‘내’가 공격 당한다 (5)
난무하는 가짜 뉴스
정보를 오염시키는 대가, 엄하게 처벌해야

불법이민 문제로 시끄러운 미국. 6월, 인터넷 공간에서 이에 대한 논쟁이 일어났다.

-- 37만명, ‘좋아요’ --
“이러한 학대 행위를 묵인해서는 안 된다”. 미국의 유명한 여가수 제니퍼 로페스가 SNS에 한 영상을 올리자 순식간에 37만건의 ‘좋아요’가 이어졌다. 영상에는 흐느껴 우는 이민자의 여자아이의 모습이 비춰졌다. 이 영상은 트럼트 정권의 규제로 부모와 강제로 헤어지게 된 비극의 상징으로 인터넷 상에서 확산되었다. 하지만 나중에 아이의 아버지라고 주장하는 사람이 이 사실을 부정. 보수 언론들도 일제히 가짜 뉴스라고 보도하고 있다. 실제로 규제로 인해 일가족이 헤어져야 하는 이민자들은 많지만 이 여자아이 영상은 여론 갈등을 심화하는 결과만을 초래했다.

대량의 데이터가 왕래하는 ‘데이터 경제’에는 거짓 정보도 섞여 유통된다. 이러한 ‘정보 오염’이 확대된다면 인터넷을 이용한 정보 시스템 자체가 기능하지 못할 수도 있다. 현실과의 경계를 위협하는 기술도 나오기 시작하고 있다.

“벨기에 국민들이여, 위선을 버리고 파리협정에서 탈퇴하라”. 5월, 벨기에의 사회주의 정당 sp∙a가 트럼프의 이러한 연설 동영상을 올렸다. 연설에서 트럼프 대통령은 강한 어조로 지구온난화 방지를 위한 국제 협약에서 탈퇴하라고 주장했다. 그의 과격한 스타일은 여느 때와 다름 없다. 하지만 영상 속 그의 입 모양이 약간 부자연스럽다.

“트럼프야말로 위선자다!” 영상이 공개되자 SNS에서는 곧바로 반대 의견들이 쇄도했다. 이러한 상황에 당황한 것은 sp∙a이다. “이것은 재미로 만든 가짜 동영상이다”.

공개된 AI 모델에 동영상과 음성 데이터를 학습시키는 것만으로 자연스러운 가짜 동영상을 만들어낼 수 있다. 포르노용으로 사용되기 시작한 기술이지만 정치에 악용될 수 있다는 우려의 목소리도 나오고 있다.

자동으로 생성된 가짜 뉴스와 가짜 입소문도 확산되고 있다. 미국 싱크탱크 CDT의 조사에 따르면, 최첨단 자동 분석 기술을 이용한다고 해도 증오 표현 등의 문제성 게시글은 전체의 80%밖에는 제거할 수 없다. 이에 대한 진위 여부는 사람의 눈으로 판별하지 않으면 안 된다.

가짜 뉴스의 무대가 된 페이스북은 올해 안에 감시 요원을 2만 명으로 증원했다. 페이스북의 2017년 12월기의 영업 이익은 2조 3천억엔. 사원 수가 10배 이상인 도요타자동차에 육박하는 수익을 벌어들였지만, 앞으로는 이에 대한 대가가 요구될 것이다.

-- 정보의 ‘정화’에도 위험성 존재 --
비용을 들여 정보를 정화해도 위험성은 여전히 존재한다. 3월, 중동 두바이의 보안전시회. “문장을 자동 분석해 위험한 문구를 제거할 수 있다. 러시아 제품보다 효율적이다”. 전시회에서 주목 받은 것은 중국 정부와 군이 이용하는 여론 감시용의 SNS 분석기술이었다.

판로는 중동과 아프리카. 개인정보를 검열해 문제 발생률을 낮출 수 있다고 한다. 동남아시아에서는 이미 치안 유지를 명목으로 언론 통제가 확대되고 있다. 중국식 감시 사회가 세계에 수출되려 하고 있는 것이다.

“검열을 의무화한다면 중국과 무엇이 다른가?” 미국 스탠포드대학의 린 상급연구원은 한숨을 내쉬며 이렇게 말한다. “가짜 뉴스는 창작과 종이 한 장 차이. 표현의 자유를 보장하는 미국에서 규제하는 것은 어렵다”. 데이터 세기는 세계를 향해 무거운 과제를 안겨주고 있다.

전문가 수준의 가짜 동영상
개인도 낮은 비용으로 양산 가능

진짜와의 구별이 어려울 정도로 정교한 가짜 동영상을 만드는 기술 ‘딥페이크(Deepfake)’가 주목 받고 있다. 영화 제작 등에 이용되기 시작한 것이지만 기술이 진보하면서 전문가가 아니어도 낮은 비용으로 이용할 수 있게 되었다. 특정 정치인의 가짜 연설 동영상 등 악질의 가짜 뉴스로 이용될 경우, 민주주의를 위협할 수 있다는 지적도 있다.

딥페이크의 기반이 되는 것은 AI. 우선 유명인이나 정치인 등 원하는 인물의 영상과 음성 데이터를 수집해 AI에게 학습시킨 후, 다른 인물이 말하는 영상을 학습에 활용하면 AI는 영상의 차이를 보정하면서 진짜 영상을 자연스러운 가짜 동영상으로 합성해나간다.

실제로 본인이 한 마디도 하지 않은 내용도 가짜 동영상에서는 말할 수 있게 할 수 있다. 4월에는 미국의 뉴스 사이트가 ‘오바마가 하는 말, 믿을 수 있습니까?’라는 제목의 동영상을 만들어 화제가 되었다. 언뜻 보면 오바마의 연설 동영상이지만, 음성 및 표정은 전혀 다른 사람인 한 코미디언의 것이다. 가짜 동영상의 정교함에 주의하자는 취지에서 만들어졌다.

본인의 것처럼 만드는 포인트 중 하나가 입의 움직임이다. 크게 벌리거나 닫는 움직임과 음성을 교묘하게 중복시키면 자연스러워진다. 이전에는 고도의 동영상 합성은 전문 동영상 제작사가 고액의 비용을 들여 만들 수 있는 것이었다. 하지만 지금은 공개된 AI 모델을 학습시키는 지식만 있다면 개인도 자택에서 만들 수 있다고 한다.

이러한 가짜 동영상이 점점 늘어날 가능성도 있다. 오바마의 가짜 동영상에서 가짜 오바마는 이렇게 말한다. “적들이 누군가가 어떤 것에 대해 실제로 발언한 것처럼 멋대로 만들어낼 수 있는 시대가 되었다”.

 -- 연재 끝 --

목록