- 사이버 공방, ‘AI 대 AI’ -- 얼굴인식으로 표적 식별 등 새로운 방법 등장
-
- 카테고리사물인터넷/ ICT/ 제조·4.0
- 기사일자 2019.1.29
- 신문사 일본경제신문
- 게재면 13면
- 작성자hjtic
- 날짜2019-02-06 22:31:26
- 조회수682
디지털 트렌드
사이버 공방, ‘AI 대 AI’
얼굴인식으로 표적 식별 등 새로운 방법 등장
인터넷 공간의 보안을 둘러싸고 인공지능(AI)을 이용한 공방이 시작되고 있다. 범죄자는 새로운 공격 방법을 AI로 모색하는 한편, 보안 회사는 공격 패턴을 파악하기 위해 AI를 활용하고 있다. 개인이나 기업에게 보안을 빠져나갈 방법이 보다 교묘해질 수 있을 것이라는 우려의 목소리가 높아지고 있다.
-- 스마트폰 카메라를 이용 --
방대한 회수의 재생을 반복하는 한 인터넷 동영상 서비스. 컴퓨터로 보려고 하자 갑자기 컴퓨터를 조작할 수 없게 되었다. 2018년 8월, 미국 IBM기초연구소가 미국 보안업계 최대 여름 이벤트 ‘블랙햇(Black Hat)’에서 AI가 도입된 바이러스 ‘딥락커(DeepLocker)’를 선보였다. AI를 이용한 정교한 바이러스 공격으로 관계자들은 크게 동요했다.
AI를 악용한 딥락커의 시스템은 우선 동영상 재생 소프트웨어에 바이러스를 숨겨둔다. 바이러스는 얼굴인식의 AI 기능을 가지고 있다. 몰래 컴퓨터나 스마트폰 카메라를 통해 개인의 얼굴을 분석해 표적으로 판단될 경우 해킹 프로그램을 작동시킨다. AI는 심층학습이라고 하는 최신 기술을 이용했다.
딥락커는 어디까지나 IBM의 시작(試作)품이다. IBM은 “범죄자가 이와 비슷한 바이러스를 개발해 특정 조직이나 개인을 노리는 표적형 공격에 악용하는 사태는 언제든 발생할 수 있다”고 경고한다.
좀 더 간단한 시스템의 경우 이미 AI의 악용 사례가 있다. 2017년 11월, 인도의 한 콜센터에 대량의 문의 전화가 쇄도했다. 오퍼레이터들이 대응을 감당하지 못하면서 회선은 마비. 조금 뒤 오퍼레이터들은 뭔가 이상하다는 사실을 감지하기 시작했다. 문의 내용이 거의 동일했기 때문이다.
“혹시 AI가 아닐까?” 콜센터의 책임자는 이를 확인하기 위해 여러 사항을 한꺼번에 확인하는 등 일부러 복잡한 대응을 하도록 오퍼레이터들에게 지시했다. 그러자 ‘고객’은 앞뒤가 맞지 않는 응답을 반복했다. 콜센터는 음성인식 등의 AI를 악용한 장난이라는 결론을 내렸다.
2017년에 세계적으로 맹위를 떨친 바이러스 ‘워너크라이(WannaCry)에도 AI를 악용한 흔적이 있다. 일본 IBM의 고케츠(纐纈) 집행위원은 워너크라이의 작성자가 대가를 요구하는 문장을 만들 때 구글의 AI 번역 서비스를 이용한 것을 발견. 그 근원을 거슬러 올라가자 중국 남방 특유의 표현이 담긴 중국어가 영어로 번역되었고 영어에서 일본어와 프랑스어로 바뀐 가능성이 높다고 말한다.
-- 90%를 자동 검색 --
한편, 사이버 공격에 대한 방어에서도 AI의 존재감이 높아지고 있다. 이미 알려진 바이러스의 검출 작업에서 이용이 추진되고 있다.
“이미 알려진 공격의 90%를 AI로 식별할 수 있게 되었다”. 시만텍 일본법인의 다키구치(滝口) 씨는 이렇게 말한다. 바이러스 움직임 등의 특징을 AI에게 학습시켜 높은 정밀도로 발견할 수 있도록 했다. 사람이 직접 검출하는 작업이 줄어 신종 바이러스 분석에 인력을 집중할 수 있게 되었다.
발생할 가능성이 있는 리스크를 사전에 막는다는 시점에서 AI를 활용하는 기업으로는 미국의 Recorded Future가 있다. 우선은 90만건 이상의 웹 사이트와 불법 사이트에 들어가 공격을 예고하는 리플 및 유통되고 있는 바이러스 정보를 수집. AI로 분석해 기업에 제공하고 있다.
AI가 움직임을 차단하는 대상은 바이러스만이 아니다. 사람도 그 대상에 포함된다. 지금 컴퓨터를 만지고 있는 사람은 본인인가, 아님 다른 사람인가? 미국 사일런스(Cylance)가 올해 안에 발매할 예정인 소프트웨어는 컴퓨터가 가동될 때 입력 속도 및 가동 중의 소프트웨어 종류 등을 AI로 분석한다. 평상시와 다른 점이 발견되어 타인이 조작하고 있다고 판단되면 바로 차단한다.
사일런스 일본법인의 오토베(乙部) 기술책임자는 방어하는 AI를 항상 업그레이드시켜야 할 필요가 있다는 것을 지적한다. “범죄자는 AI에게 방어하는 AI의 습관 등을 학습시켜 감시를 무사히 통과할 수 있는 바이러스를 개발할지도 모른다”. 이용자가 모르는 사이에 AI끼리 공방전을 펼치는 세계가 바로 눈 앞에 와있는 것이다.
-- 읽을 수 없는 움직임, 분석이 어려워질 것 --
현재의 AI 붐을 만들어낸 심층학습은 많은 계산을 통해 데이터의 특징을 찾아낸다. 방대한 사진 가운데 원하는 사진을 골라내는데 탁월하다. 최신 기술은 자동차나 고양이 등, 사물의 모든 특징을 입력하지 않아도 자동으로 찾아낼 수 있다.
문제는 AI가 대상을 파악할 때의 판단 흐름을 사람이 알 수 없다는 사실이다. 보안 전문가는 “앞으로는 침입한 AI 바이러스가 언제 어떤 판단으로 움직이는지에 대한 분석이 매우 어려워지게 될 것이다”라고 지적한다.
기업의 인프라 등을 노리는 사이버 공격이 증가하는 가운데, 점차 그 방법은 복잡해지게 될 것이다. “확대되는 공격을 얼마만큼 파악해나가느냐가 중요하다”. Trend Micro의 오카모토(岡本) 시큐리티 에반젤리스트는 이렇게 말하며 보안 분야에서 AI 인재의 중요성이 높아지는 것은 당연하지만, 사람들이 AI 바이러스에 대한 위험성을 인지하는 것이 무엇보다 중요하다고 지적한다.
-- 끝 --