- AI가 가짜 뉴스 생성 -- 자연스러운 문장으로 여론 조작 가능
-
- 카테고리AI/ 로봇·드론/ VR
- 기사일자 2021.10.22
- 신문사 Nikkei X-TECH
- 게재면 online
- 작성자hjtic
- 날짜2021-10-31 20:28:36
- 조회수332
Nikkei X-TECH_2021.10.22
AI가 가짜 뉴스 생성
자연스러운 문장으로 여론 조작 가능
자연언어처리의 성능 향상이 현저하다. 그 중에서도 20년에 등장한 'GPT-3'(AI 개발 비영리단체인 미국 Open AI가 개발한 문장 작성에 특화된 언어 모델)는 놀라운 성능을 자랑한다. 이를 이용해 생성한 글은 이제 사람이 쓴 글과 손색없는 수준이다. 그런 GPT-3로 가짜 뉴스를 생성해 트위터 등의 SNS에 올리면 사람의 생각에 어떠한 영향을 미칠까?
이러한 가짜 정보의 확산 위험에 대해서, Andrew Lohn 씨(미국 Center for Security and Emerging Technology, Senior Fellow) 등의 연구 그룹이 검증을 진행하고, 그 결과를 21년 8월에 열린 보안 기술 컨퍼런스 ‘Black Hat USA 2021’에서 강연했다. 그 강연을 통해 고도의 자연언어처리를 악용할 경우의 위력이 드러났다.
연구 그룹은 GPT-3로 가짜 트위트를 자동 생성하는 툴을 개발. 이 툴을 사용해 마치 사람이 올린 것 같은 트위트를 용이하게 생성할 수 있다는 것을 선보였다. 절차도 간단하다.
우선 샘플(프롬프트)로서 5개의 트위트를 선택. 다음으로 트위트 내용의 랜덤성 정도와 한 번의 API 호출로 생성하는 트위트 수, 트위트 표시 속도 등의 항목을 설정한다. 이어서 실행 버튼을 누르면 트위트를 만들어 올린다. 트위트한 인물의 사진은 AI(인공지능)가 실제로 존재하지 않는 인물 사진을 만들어 이용했다.
이런 방식으로 마치 실재하는 인물처럼 트위트를 계속해서 올린다. 많은 트위트가 자연스러운 내용이 많지만, 개중에는 엉뚱한 내용도 있다. 그래서 자동 생성한 트위트 중에서 자연스러운 문장이라고 생각되는 것을 프롬프트로서 새로 추가하는 방법으로 출력 내용을 개선해, 보다 자연스러운 트위트를 늘릴 수 있는 모습을 강연에서 시연해 보였다.
다음에 연구 그룹을 소개한 것은, ‘극우 음모론 집단 ‘Q아논’이 올리는 문장을 GPT-3로 생성할 수 있을까?’ 하는 실험이다. 그 결과, Q아논의 문장 스타일과 흡사한 문장을 생성할 수 있었다. 이를 통해 사람들이 작성한 것처럼 보이는 음모론을 GPT-3로 대량 생성해 올리고, 이 중 어떤 주제의 음모론에 많은 사람이 반응을 보이는지 살펴볼 수 있다. 반응이 좋은 주제에 초점을 맞춘 음모론을 계속 올리게 되면, 그 음모론을 사람들에게 침투시키는 효과를 얻게 된다고 경종을 울렸다.
-- 사람의 의견을 좌우하는 문장 작성 가능 --
연구진은 ‘GPT-3로 작성한 문장으로 사람의 의견을 바꿀 수 있을까?’에 대해서도 시험했다. 예를 들어 '아프가니스탄에서 미군 완전 철수'와 '중국 제재'라는 2개의 주제에 대해 각각 찬성하는 문장과 반대하는 문장을 GPT-3로 생성하고, 이를 미국 아마존 웹 서비스(AWS)의 클라우드 소싱 서비스 'Amazon Mechanical Turk'를 통해 수집한 약 1,700명에게 앙케트를 실시. 응답자의 의견이 GPT-3의 문장을 읽기 전과 후에 어떻게 변화했는가를 살펴보았다. 즉, GPT-3가 작성한 문장의 설득력을 확인했다.
예를 들어 아프가니스탄 철군에 찬성하는 글을 보여준 후에, 보여주기 전과 비교해 전체 응답에서 찬성 의견의 비율이 높아졌다. 중국에 대한 제재에 대해서도 같은 경향을 보였다. 예를 들어 중국에 대한 제재에 반대하는 의견을 적은 글을 사람들에게 보여준 뒤에, 보여주기 전과 비교해 전체 응답에서 차지하는 반대 의견의 비율이 늘어났다.
글의 내용이 특별히 뛰어날 필요 없이, 자신들이 퍼뜨리고 싶은 내용을 지지하는 주장을 GPT-3를 통해 대량으로 생성할 수 있다는 점이 큰 위협이라고 말한다.
-- GPT-2는 가성비가 좋다 --
GPT-3는 악용되면 위협적이지만, 이를 이용하기 위해서는 넘어야 할 장벽이 있다. 그것은 계산 비용이 방대하다는 점이다. Lohn 씨에 의하면, 클라우드 상에 있는 하이엔드 GPU를 이용하면, 1시간 당 약 50달러가 된다. 이를 토대로 계산하면 1트위트에 약 2센트다. 전체 트위트의 1%(약 850만 트위트)를 가짜 정보로 채우기 위해서는 연 6,500만 달러(72억 8,000만 엔) 정도가 필요하다고 한다. 그러나 국가 차원이라면 이 비용은 문제가 되지 않는 수준이다.
오히려 과제는 계정 수라고 한다. 예를 들어 하루에 약 850만 개의 트위트를 하는 경우, 1계정 당 하루 약 2,400개 트위트를 한다면 약 3,500개 계정만 있으면 된다. 그러나 이렇게 하면 바로 인간이 아니라는 것이 드러난다. 그래서 하루 24개 트위트를 한다면 35만 개의 계정이 필요하고, 그 관리 비용이 방대해진다.
트위트 생성에 주목하면, 이전 버전인 GPT-2로 가짜 정보를 생성하는 것이 가성비가 높다고 한다. 강연에서는 무료 GPT-2 모델과, 미국 구글의 클라우드 서비스 ‘Google Colaboratory(Colab)’를 이용해 문장을 생성하는 시연을 공개했다. GPT-2에는 파라미터 수에 따라 몇 개의 버전이 있다.
15억 개의 ‘GPT-2 XL’은 충돌이 발생해 동작하지 않았다고 한다. 시연에서 이용한 것은 파라미터 수가 7억 7,400만 개인 ‘GPT-2 Large’이다. 파라미터 수가 낮아지는 만큼 문장의 수준이 떨어져 가짜 정보라고 간파되기 쉽다. 그러나 정기적으로 많은 정보를 저비용으로 계속 올릴 수 있다는 점이 문장 내용의 좋고 나쁨보다 위협이라고 지적한다.
무엇보다 계속해서 반도체의 성능이 향상되고 있어 머지않아 GPT-3도 현재의 GPT-2 수준의 비용으로 이용할 수 있을 가능성이 있다. SNS에 올라온 문장은 분간할 수 없다. 그래서 하루에 방대한 수의 트위트를 하는 유저를 감시하는 등 인프라 측에서의 대응이 필요하다고 Lohn 씨는 말한다.
-- 끝 --
Copyright © 2020 [Nikkei XTECH] / Nikkei Business Publications, Inc. All rights reserved.