일경 비즈니스_2017/11/13_감정인식 AI

책 커버 표지
목차

요약

Nikkei Business_2017.11.13 테크노스코프 (p126~128)

감정인식 AI
사람보다도 ‘분위기’를 잘 읽는다
[도요타자동사] [돗판인쇄] [파나소닉] [NTT레조난트] [후지쓰]

인간의 감정을 인식하는 AI를 개발하는 기업이 점차 늘고 있다. 감정에는 정확한 ‘답’이 존재하지 않기 때문에 AI를 발전시키기 위한 데이터를 수집하기 어렵다. 데이터 해석 방법 등의 연구가 진행되면서 부분적으로 사람의 능력을 초월하는 AI가 등장하기 시작하였다. 도요타자동차는 이번 가을에 열린 ‘2017 도쿄모터쇼’에서 감정인식 AI인 ‘Yui’를 탑재한 EV(전기자동차)를 전시하였다. Yui는 작년에 설립한 미국 자회사인 도요타 리서치 인스티튜트(TRI)가 개발하였다. 운전자의 기분에 맞춘 드라이브 코스 등을 제시한다.

개발 담당자인 이도(井戸) 씨는 “드라이버의 표정을 관찰함으로써 조기에 졸음을 감지하는 것이 핵심 기능이다”라고 설명한다. 하품 등 징후를 통해 본인 스스로가 졸음을 자각하기 전에 Yui가 징후를 먼저 감지한다. 음악을 트는 등 정신을 차리게 하여 사고를 미연에 방지한다고 한다. 어떻게 이런 일이 가능한 것일까? 일반적으로는 AI가 사람을 초월하는 감정인식 능력을 갖추는 것은 매우 어려운 일이다. 왜냐하면 AI를 발전시키는 ‘훈련데이터’의 준비가 어렵기 때문이다.

AI 붐의 선구자 역할을 한 ‘화상인식’과 비교하면 이해하기 쉽다. 당시에는 고양이 화상을 보고 “이것은 고양이입니다”라고 회답하는 간단한 과제에 사용되었다. 지금은 선글라스나 마스크로 얼굴을 가린 범죄자를 방범 카메라의 화상으로 찾아내는 등의 용도에 사용되기 시작하였다. 그것이 가능한 이유는 얼굴을 가린 화상이라는 ‘문제’와, 그것이 누구인가라는 ‘해답’을 세트로 한 훈련데이터를 갖출 수 있었기 때문이다. 일상에서 생겨나는 대량의 데이터를 가지고 문제와 해답을 반복적으로 학습함으로써, AI는 처음 접하는 ‘응용 문제’도 풀 수 있게 된다.

한편으로 감정인식 AI의 경우는 ‘졸린 얼굴’이나 ‘놀란 얼굴’이라는 ‘문제’를 수집하려 해도 사람이 감정을 표출하는 순간을 촬영하는 것은 어렵다. 표정의 배후에 어떤 감정이 숨겨져 있는가라는 ‘정답’도 애매하며 개인차가 있다. 그 때문에 사람이 명확하게 판단할 수 있는 알기 쉬운 표정의 화상을 훈련데이터로 사용하게 된다. 사람이 판단할 수 있는 훈련데이터로만 학습하게 되면 AI는 사람을 초월할 수 없다. 그래서 도요타자동차는 2단계로 훈련데이터를 입력시켰다. 우선은 사람도 확실하게 알 수 있는 ‘졸리다’라는 표정의 훈련데이터를 판독한다. 이것으로 AI는 하품을 한다거나 눈을 깜박한다거나 하는 표정을 ‘졸리다’라고 판별할 수 있게 된다.

다음으로 ‘정답’에 대한 판단이 어려운 표정도 모두 입력시킨다. 그러면 AI는 확실하게 ‘졸리다'라고 알 수 있는 표정과 알기 어려운 표정의 상관성을 분석한다. 사람이 ‘졸리다’라는 표정을 나타내기 전에는 ‘입을 우물우물한다’라는 동작이 공통적으로 나타난다는 사실을 발견하게 되었다. AI는 이러한 특징을 ‘졸음을 자각하기 전의 표정’이라고 인식한다. 도요타자동차는 앞으로 애매한 표정에서 ‘기쁨’이나 ‘분노’ 등의 표정도 인식할 수 있도록 AI를 발전시켜 나갈 계획이다. 훈련데이터를 어떻게 수집할 것인가? 감정인식 AI에 공통되는 이 과제에 대해 각 사는 다양한 어프로치를 시작하고 있다.

-- 표정 근육의 움직임을 통해 감정을 추정 --
돗판인쇄가 시스템 개발 기업인 CAC, 미국의 벤처 기업인 Affectiva와 협력하여 실용화를 추진하고 있는 AI의 경우는, 특출한 능력을 가진 표정 분석 전문가를 활용하여 훈련데이터를 수집하고 있다. 1970년대에 미국의 심리학자가 개발한 ‘FACS’라고 불리는 학술 체계를 이용한다. 얼굴의 근육을 40이상의 유닛으로 정리, 각각의 움직임의 크기로 표정을 정의한다. 감정과 표정 근육의 연동성을 해석한다. FACS의 정식 자격증을 갖춘 사람이 불과 0.2초 정도의 표정 변화인 ‘미세 표정’을 인식한다. 만들어낸 웃음 등 거짓 표정도 분간한다.

어펙티바는 세계에서 약 500명 밖에 없다고 하는 FACS의 전문가를 사내에 10명 정도 확보하고 있다. 그들이 해석한 75개국 약 600만 명의 훈련데이터를 사용하여 일반 사람이 놓칠 수 있는 미세 표정도 포착할 수 있게 되었다. 이 AI는 감정을 추정하는데 어려움을 겪고 있는 자폐증 환자의 표정 읽기 훈련에도 이용되고 있다. 환자가 AI와 연동시킨 안경을 쓰면, 대화 상대의 표정이 무엇을 의미하고 있는지 일러스트나 문자로 안경 렌즈에 표시된다.
 
이론적으로는 뇌파 등의 생체 정보를 계측하여 감정을 수량적으로 파악하는 것도 가능하다. 이렇게 생성한 훈련데이터는 사람이 ‘정답’을 판단하는 것보다 정밀하게 판단할 수 있다. 이 데이터를 사용하여 학습하면 AI의 감정인식 능력은 사람을 크게 능가할 가능성이 있다. 그러나 이 경우는 다른 문제가 발생한다. 생체 데이터를 계측하기 위한 센서를 준비하는 데는 많은 비용이 필요하다. 또한 많은 데이터를 수집하기 어렵다.

--범용 카메라로 맥박 파악 --
파나소닉이 이 문제에 도전하고 있다. 파나소닉이 개발한 AI는 혈류에 맞춰서 극히 미세하게 변화하는 피부 색을 통해 맥박을 계측하여 감정인식에 이용한다. 사용하는 것은 카메라뿐이다. “비접촉으로 생체 정보를 입수할 수 있다는 점이 강점이다. 휴대전화나 컴퓨터 카메라로 충분히 기능한다”라고 개발자인 구스카메(楠亀) 씨는 말한다.

서모그래피도 병용할 경우, 에어컨의 개발로 축적한 체온추정 기술을 이용하여 이용자가 옷을 입고 있어도 ‘온도감각’을 측정할 수 있다. 맥박이나 온도감각은 표정에 따라 감정인식을 보충하는 데이터가 된다. 구스카메 씨는 “무표정이 졸음의 전조인지, 긴장을 나타내는 것인지를 판별할 수 있다”라고 말한다.

후지쓰는 콜센터의 대응 개선에 이용하기 위해 목소리 높이나 크기만으로 만족도를 평가하는 AI를 개발하였다. “훈련데이터를 수집하기 위해 새로운 시스템을 도입해야 한다면 보급은 진행되지 못한다. 이용 목적에 따라 심플한 구성의 AI를 그때 그때 개발한다”(AI 서비스 사업본부)는 생각이다.

포털사이트 ‘goo’를 운영하는 NTT레조난트의 AI는 타사와는 선을 긋고 있다. 감정을 이해하지 못해도 사람의 마음에 감동을 주는 문장을 쓸 수 있는 AI다. NTT레조난트는 작년 9월부터 연애 상담에 대응하는 AI ‘오시에루’를 goo의 질문∙회답 사이트에서 운용하고 있다. 오시에루의 훈련데이터는 약 3,000만 건에 달하는 goo의 질문∙회답 사이트의 답글이다. 검색사이트에서 축적해 온 자연언어해석 기술을 활용하여 답글을 단어로 분해한다. 그리고 어느 단어에 대해 어느 단어가 회답에 많이 사용되는지 ‘상호연관성’을 분석하였다.

오시에루는 질문을 받으면 단어 별 상호연관성을 바탕으로 회답 문장을 만들어 나간다. 이 때 질문의 의미는 고려하지 않는다. 그래도 오시에루의 회답은 이용자의 인기를 얻고 있다. 올 10월 말 시점에서 약 1만 5,000건의 회답을 처리하였다. 질문자로부터 “베스트 회답”에 선정된 것이 약 1,000번, 이용자로부터 ‘good’이라고 평가 받은 것이 약 3,000번에 달한다. AI기 때문에 느슨하게 채점할 가능성은 있지만, good의 비율은 평균을 웃돌고 있다.

소프트뱅크는 2015년에 인간다운 행동을 장점으로 내세운 로봇 ‘페퍼’를 일반 판매하였다. 타사보다 한발 빠르게 AI를 통한 감정인식을 내세웠다. 그러나 AI에 적합한 GPU(화상처리반도체) 등이 등장하면서, 각 사는 감정인식 AI에 사람을 초월하는 능력을 부여하기 시작하였다. 소프트뱅크도 혼다 등과 협력하여 AI를 더욱 발전시키기 위해 노력하고 있다.

AI 개발을 담당하는 소프트뱅크 자회사인 cocoro SB의 오우라(大浦) 이사는 “생산성만을 추구하는 로봇은 무서운 존재가 될 수도 있다. 그러나 사람의 감정을 이해하는 AI 기술은 다양한 비즈니스에 전용될 것이다”라고 지적한다.

  -- 끝 --

TOP

목차

TOP