책 커버 표지
일경비즈니스_2018/06/18_적은 데이터로 AI를 진화
  • 저자 : 日経BP社
  • 발행일 : 20180618
  • 페이지수/크기 : 98page/28cm

요약

Nikkei Business_2018.6.18 테크노 트렌드 (p62-64)

적은 데이터로 AI를 진화
화상인식, 기본은 ‘어린 아이’

인공지능(AI)의 성장은 데이터 양이 열쇠를 쥐고 있다. 그러나 이런 정설을 뒤집는 연구가 활발히 진행되고 있다. 미리 ‘상식’이나 ‘상상력’을 학습시키는 방법을 통해 대량의 데이터가 없어도 AI를 현명하게 육성할 수 있다. 특히 연구가 활발한 분야는 데이터 취득이 어려운 이상(異常) 감지 등의 분야다.

미국 알파벳(구글의 모회사)의 AI연구 자회사 딥마인드는 2016년, “아이는 기린 사진을 한 장만 보면 기린이 어떤 동물인지 알 수 있다. 최고의 심층학습 시스템도 수백, 수천 장의 데이터가 필요한데 말이다”라는 말로 시작하는 논문을 발표하였다. 연구 내용은 사람의 ‘원샷 학습’을 AI로 재현하는 방법의 고찰이다.

원샷 학습이라는 것은 유아 등의 학습기능을 가리키는 인지과학 용어다. 유아는 기린 사진을 한번만 보면 기린이 어떤 특징을 갖고 있는 동물인지를 파악하여 다른 동물과 구별할 수 있게 된다. 한편, 심층학습 AI는 대량의 기린 이미지를 학습시키지 않으면 기린을 판별할 수 없다.

심층학습은 사람의 뇌신경을 모방하여 개발되었는데 왜 유아를 모방할 수는 없을까? 이 문제를 오랫동안 연구하고 있는 미국 뉴욕대학의 인지과학자 브랜든 레이크 씨는 이렇게 말한다. “원샷 학습을 실현하지 못하면 기계는 진정한 지성을 획득할 수 없을 것이다”

원샷 학습의 위력을 나타내는 좋은 사례가 손으로 쓴 글자를 인식하는 것이다. 예를 들면 ‘부(夫)’라는 글자 이미지를 AI가 학습하여 다른 문자와 구별하게 되었다고 하자.

같은 서체로 쓰여진 ‘부(夫)’자를 구별하는 것은 문제 없다. 그러나 1획과 2획을 연결하여 쓴 행서체의 경우는 어떨까? 사람이라면 그래도 ‘부(夫)’라고 인식할 가능성이 높지만 AI는 ‘천(天)’이나 ‘대(大)’와 혼동할 지도 모른다. 일반적인 AI가 정확하게 판별하기 위해서는 다양한 서체의 ‘부(夫)’를 학습할 필요가 있다.

-- ‘상식’과 ‘상상력’이 열쇠 --
사람과 AI의 차이는 어디에서 오는 것일까? 프리퍼드 네트웍스(Preferred Networks, 도쿄)의 지적정보처리사업부 운노(海野) 부장은 “전제가 되는 ‘상식’을 갖고 있는가 그렇지 않은가의 차이다”라고 지적한다.

일본인은 초서체나 행서체처럼 한자 흘려쓰기에 대한 전제 지식을 어른이 될 때까지 학습한다. AI도 대량의 이미지를 학습하면 이와 같은 전제 지식을 습득할 수 있다. 그러나 ‘교사’ 데이터를 준비하는 일은 쉽지 않다.

그래서 프리퍼드는 도쿄대학의 대학원생과 공동으로 소량의 데이터로 AI에게 손으로 쓴 글자에 대한 ‘상식’을 학습시키는 방법 연구에 착수하였다. 작년에 발표한 결과에서는 손으로 쓴 ‘0’에서 ‘9’의 숫자를 인식하는 과제에서 정답률을 98.4%까지 향상시켰다. 다른 그룹의 연구와 비교하면 10분의 1로 오답을 줄였다.

미즈호정보총연의 이나가키(稲垣) 컨설턴트는 “원샷 학습의 대부분은 기초연구 단계지만 대량의 데이터를 얻기 어려운 분야에서 장래성이 높은 기술이다”라고 지적한다.

그 하나가 혼류 생산라인의 AI에 의한 자동화다. 새로운 부품을 라인에 보내기 위해, AI에게 대량의 이미지를 학습시켜서 작업 절차를 새롭게 짜는 것은 비효율적이다. 그래서 AI 벤처기업인 어센트 로보틱스(Ascent Robotics, 도쿄)는 한 장 또는 여러 장의 이미지를 보는 것 만으로 부품의 특징을 학습할 수 있는 AI 개발에 착수하고 있다.

앞에서 말한 프리퍼드가 ‘상식’의 강화에 착수하였다면, 어센트는 ‘상상력’을 AI에 탑재한다. 한 장의 이미지에서 색이나 표면의 질감, 배경 등을 랜덤으로 변경한 이미지를 자동적으로 생성하여 학습데이터로 한다. 사람이 기린 사진을 봤을 때 다른 각도나 먼 곳에서 본 기린의 모습도 상상하는 것과 같은 것이다.

‘사이클건’이라는 방법을 개량하여 도입하였다. 배경을 그대로 두고 초원을 달리는 백마를 얼룩말로 대체하는 것도 가능하며 정교한 시뮬레이션 이미지를 작성할 수 있다.

어센트에 따르면 소량의 이미지를 AI에게 학습시키면, 작은 전자부품의 경우도 95% 이상의 확률로 분류할 수 있다고 한다. 어센트의 연구자인 Sakyasingha Dasgupta 씨는 “고해상도 카메라를 사용하면 정밀도가 더욱 올라간다. 실용화 가능한 레벨이다”라고 말한다. 상세한 기술에 대해서는 6월에 열리는 이미지인식 국제회의 ‘CVPR’에서 발표한다.

-- 어떻게 ‘이상’을 인식하나? --
‘정답’을 찾는 원샷 학습에 대해 ‘이상(異常)’을 찾기 위한 방법도 진화하고 있다. 이상 감지는 심층학습 AI가 특히 자신 없어 하는 분야다. 이상이 발생하는 확률이 낮아 학습용 데이터를 수집하기 어렵기 때문이다. 실제로 NEC AI플랫폼사업부의 요코이(横井) 매니저는 “15년부터 전개하는 공업제품의 검품용 AI는 이상한 이미지 데이터가 1,000장 정도 있는 것이 바람직하지만 수십 장밖에 모으지 못하는 경우가 많았다”라고 말한다.

그래서 NEC는 불량품의 이미지 데이터가 없어도 불량품 데이터만으로 학습할 수 있는 방법을 개발하였다. 정상과 이상을 분류할 때에 한쪽 데이터만으로 학습하는 방법은 ‘원 클래스 분류 알고리즘’이라고 한다.

공업제품의 경우는 미리 아무런 상처나 흠이 없는 ‘정상’의 이미지만을 학습시켜 두면, 색깔 등의 큰 변화를 AI가 계측하여 특정 범위에서 벗어난 것을 ‘이상’이라고 판정한다. “3년 전부터 검품 AI를 운용하면서 누적된 데이터로 다종다양한 공업제품에서 볼 수 있는 상처 특징을 학습하였다”라고 요코이 매니저는 말한다.

시큐리티 분야에서는 다른 아이디어가 필요하다. 세콤은 공항의 감시카메라 이미지를 통해 폭탄을 쓰레기통에 숨기는 등의 이상 해동을 ‘원 클래스 분류 AI’로 감지해 보았다. 그러나 세콤 IS연구소의 구로카와(黒川) 부소장은 “뛰어다니는 아이까지 이상한 행동으로 판단하여 경보를 울리기 때문에 사용할 수 없었다”라고 말한다. 공업제품의 검품과 달리 ‘정상’으로 판단할 수 있는 모양이 여러 개면 원 클래스 분야는 기능하기 어렵다고 한다.

그래서 세콤은 방침을 변경. 심층학습 AI에게 ‘룰 베이스 AI’를 조합시키기로 하였다. 룰 베이스 AI는 ‘쓰레기통 앞에서 장시간 몸을 숙이고 있는 사람이 있으면 이상’과 같이 판단 조건을 사전에 설정해 두는 것이다. 심층학습 AI와 비교하면 구형이지만 대신에 대량의 학습 데이터가 필요하지 않고 판단 기준이 명확하고 수정이 쉽다는 이점도 있다.

세콤은 감시카메라로 촬영한 인체 이미지를 머리와 좌우 팔 등 10곳 정도로 분류한다. AI가 ‘이상’이라고 판단하는 움직임 패턴을 단순화하여, 프로그래밍 언어로 룰을 기술하는 작업을 경감하였다. 판단 기준에는 세콤의 베테랑 경비원의 지식을 활용하였다. 구로카와 부소장은 “단순화된 룰 베이스 AI라면 어떤 각도에서 촬영한 이미지라도 이상 행동을 놓치지 않는다”라고 강조한다.

학습데이터를 늘릴수록 AI는 똑똑해진다. 그러나 구글처럼 방대한 양의 데이터를 활용할 수 있는 기업은 많지 않다. 데이터 양에 의존하지 않는 학습방법이 진화하면 많은 일본 기업에게 이점이 있다.

  -- 끝 --

목차