일경비즈니스_2019/02/04_XAI, 설명이 가능한 인공지능

책 커버 표지
목차

요약

Nikkei Business_2019. 2.4 테크노 트렌드 (p76~78)

XAI, 설명이 가능한 인공지능
근거를 알 수 있는 ‘화이트박스형’ AI

현재의 AI 붐을 일으킨 ‘심층학습(딥러닝)’은 화상인식 등으로 고정밀도의 판단이 가능한 AI를 만들어냈다. 그러나 심층학습의 결과, AI가 실행하는 계산은 복잡해져 인간이 이해하기 어려운 ‘블랙박스’가 되었다. 이 결점을 해소하기 위해 ‘XAI(Explainable AI = 설명이 가능한 인공지능)’를 개발하려는 움직임이 진행되고 있다.

아사히맥주는 AI(인공지능)를 통해 매일의 수요 변동을 예측하는 업무를 시작했다. 기존에는 과거의 매출 및 기후, 요일, 체인점에서의 취급 상황 등의 데이터를 기반으로 베테랑의 마케팅 담당자가 직감과 경험을 통해 수치를 산출하고 있었다. 그러나 최근에는 각 맥주 업체가 계절 한정판의 상품 등을 잇따라 출시하고 있다. 예측의 난이도는 해를 거듭할 수록 높아져 그 작업을 자동화해야 할 필요성이 생겼다.

그러나 AI가 산출한 예측치를 그대로 생산에 적용하지는 않는다. 영업 담당자는 기회손실을 막기 위해 가급적 수중에 상품을 가지고 있기를 원한다. 한편, 물류 담당자는 재고가 쌓이는 것을 막기 위해 최대한 잉여재고를 줄이려고 한다. 양쪽의 힘겨루기를 통해 실제의 생산량이 정해지지만, 그 기반이 되는 예측치에 대한 근거가 불투명하다면 논의는 진전되기 힘들다.

따라서 당사는 NEC가 개발한 ‘화이트박스형 AI’를 수요 예측에 채택했다. 아사히맥주 디지털전략부의 스즈키(鈴木) 주임은 “AI의 판단 과정을 인간이 이해할 수 있기 때문에 상품이 팔린 이유를 나중에 피드백 할 수 있어 유용하다”라고 말한다. 올해 안에 ‘화이트박스형 AI’의 본격적인 운용을 시작할 예정이다.

‘심층학습(딥러닝)’기술을 사용한 AI는 인간이 그 판단에 대한 근거를 이해하기 힘든 ‘블랙박스’가 되기 쉽다. 과거의 AI와는 달리 ‘중간층’의 인과관계가 다수 존재하기 때문이다. 각각의 중간층에서는 그 전 단계로부터 전송된 수치를 조합해 계산이 이루어지며 다음 단계로 결과가 보내진다. 따라서 중간층이 늘어날수록 계산식은 복잡해진다. 마지막 결과를 산출해 내는 계산식은 인간에게 있어 그 의미를 알 수 없는 것이 되어버린다.

그런 반면, 아사히맥주의 AI는 '의사결정나무(Decision Tree)'나 ‘선형 회귀(Linear Regression)’라고 불리는 2가지 모델을 조합시킨 심플한 것이다. 의사결정나무라고 하는 것은 두 가지로 대답할 수 있는 질문을 반복하는 방법. 선형회귀는 입력치에 정수를 곱한 뒤에 합산하기만 하면 되는 단순한 계산식을 이끌어 내는 것. 두 가지 모두 옛날 방식으로 복잡한 계산은 불가능하지만, 그렇기 때문에 인간에게 있어서는 해석이 쉬운 모델이라고 할 수 있다.

아사히맥주의 AI는 ‘기온이 20도이상인 주말’, ‘기온이 20도 이하인 평일’과 같은 의사결정나무에 의해 나눠진 상황마다 별도의 선형 회귀의 계산식을 준비한다. 2개의 계산 모델을 동시에 학습시켜 최적화함으로써 일정한 정밀도가 유지되어 해석성(解釋性)을 확보했다.

-- 부정 감지 및 고장 예측에도 활용 --
NEC의 모토하시(本橋) 시니어 데이터분석가는 “마케팅에는 의외로 참고할 수 있는 데이터가 적으며 심층학습 AI를 사용해도 높은 정밀도를 기대하기는 어렵다. 이런 사례에 화이트박스형 AI를 이용한다면 심층학습과 동일한 정밀도가 나올 뿐만 아니라 해석도 가능하다”라고 말한다.

마케팅과 더불어 모토하시 씨가 화이트박스형 AI의 주요 용도로 상정하고 있는 사례는 2가지가 있다. 우선 ‘부정 감지 및 인사, 금융 등의 심사’가 있다. AI가 불이익이 되는 판단을 내렸을 경우, 대상자로부터 그 판단의 근거에 대한 설명을 요구 받는 경우가 있다. 주택 담보대출의 심사에서 NEC의 AI를 활용하는 미쓰비시(三菱)파이넨셜 그룹의 담당자는 “판단 근거를 알 수 있으면 실제 업무에 맞춰 AI를 효율적으로 개선할 수 있다”고 주장한다.

다른 하나는, ‘인프라 등의 고장 예측’이다. 예를 들어 화학플랜트의 배관 구조 중에서 어디가 고장이 나기 쉬운지를 AI가 찾아냈다고 가정하자. 그러나 대상 장소의 응급 처치를 반복하는 것만으로는 유지보수의 비용을 크게 줄일 수는 없다. 고장을 일으키는 근본적인 원인을 찾아내어 대처하기 위해서는 AI가 판단한 근거를 인간이 이해해야 할 필요가 있다.

인간이 판단 근거를 이해할 수 있는 AI는 일반적으로 ‘XAI’로 불린다. ‘설명 가능한 인공지능(Explainable AI)’의 약자이다. XAI를 실현하는 방법은 크게 2가지 있다. 하나는 NEC처럼 심층학습을 이용하지 않고 고정밀도를 지향하는 방법. 다른 하나는 심층학습을 이용하면서 일정한 판단 근거를 제시할 수 있는 시스템을 이용하는 방법이다. 후자의 방법은 후지쓰(富士通)가 도입하고 있다.

후지쓰가 작년에 발표한 XAI가 활약하는 경우는 사람과 사람간의 관계 및 기업 간의 관계 등 네트워크형 데이터를 해석할 때이다. 예를 들어, 금융기관이 어느 기업의 융자 여부를 판단할 경우, 심사 대상과 융자 및 출자 관계가 있는 기업뿐만 아니라, 그 기업과 관련된 타기업 등 그물코 모양으로 퍼지는 기업 네트워크의 데이터를 해석해 대출이 회수 가능한지 등을 검토한다.

그 경우, AI가 판단한 융자 가부(可否)의 근거를 분석하는 것이 ‘지식 그래프’이다. 웹사이트 및 신문 기사, 논문 등 대량의 문헌으로부터 지식을 수집해, 그 관계성을 네트워크 형으로 배치한 것이다. 그 중에서 가장 유명한 것은 미국 구글이 개발하고 있는 지식 그래프일 것이다. 구글에서 ‘닛케이(日経)BP’를 검색하면 일반적인 검색 결과 옆에 관련회사 및 동(同)업종의 타사도 함께 표시된다. 이것은 닛케이BP와의 관련성이 지식 그래프 안에 포함되어 있기 때문에 가능한 것이다.

후지쓰는 XAI의 이용 목적에 맞춰 개별적으로 지식 그래프를 구축. 심층학습 AI와 조합시켜 XAI를 구현하고 있다. 앞에서 거론한 금융기관의 경우, ‘신용도가 높은 그룹과 겸임하고 있는 임원의 존재’ 등의 정보를 XAI는 표시해 준다.

-- AI에 의한 바이어스(편향성)을 배제 --
미국 IBM도 심층학습에 해석 성능을 부가한 시스템을 개발했다. 작년 12월부터 제공하기 시작한 ‘'AI 오픈스케일(AI OpenScale)'은 운용하고 있는 AI의 입력 데이터와 출력 결과를 비교해 AI의 판단 근거를 모색하는 툴이다. 간단한 방법으로 타사가 개발한 AI에도 적용할 수 있다고 한다.

예를 들어 보험의 가입심사. 특정 대상자를 기준으로 프로필이 조금씩 다른 사람을 다수 모아 AI가 어떤 심사를 했는지를 분석한다. 연령 및 직업과 같은 데이터가 AI의 판단에 얼마나 영향을 미쳤는지의 ‘기여도’를 수치화한다. 또한 특정 지역의 거주자가 불리한 심사 결과를 받는 등 차별로 이어지는 듯한 편향성이 발생되었는지 여부도 검증. 문제가 있는 경우에는 그것을 제거하기 위한 방법도 자동으로 제시된다.

일본 IBM에서 AI 오픈스케일의 영업을 담당하는 다나카(田中) 씨는 “수요 예측 및 심사 등 AI가 판단을 맡게 되는 경우가 늘어나고 있는 가운데, AI 거동을 감시하는 툴의 필요성이 커진다”라고 설명한다.

AI의 거동을 둘러싼 논의가 최근 자주 일어나고 있다. 미국 마이크로소프트가 2016년에 공개한 자동 응답 AI는 트위터 유저와의 대화를 통해 학습을 한 결과, 인종차별적인 발언을 반복해 긴급으로 정지되었다. 2018년 3월에는 미국 테슬라의 자율주행 기능이 탑재된 자동차에 의해 사망사고가 발생. 이런 사건의 책임은 AI를 이용한 유저 측에 있는 것일까, 아니면 AI 시스템 자체에 있는 것일까? 검증을 위해서는 AI가 설명을 할 수 있는 것이 중요하다.

XAI를 개발하는 독일 보쉬(Bosch)에서 AI센터의 글로벌 책임자를 맡고 있는 크리스토퍼 파이로 씨는 “AI를 안전하고 건전하게, 설명이 가능한 것으로 만드는 것이 보쉬에게 있어서 중요한 목표이다”라고 말한다. “특히 자율주행과 같이 사람 목숨과 관련된 AI에 대해서는 각국 정부가 설명 가능성을 요구하게 될 것이 분명하다”.

실제, 일본 정부의 전문가회의가 2018년 말에 정리한 AI활용 7원칙 중에서도 ‘설명 책임’이 포함되어 있다. XAI의 필요성을 제기하는 목소리는 앞으로도 점점 더 고조될 전망이다.

 -- 끝 --

TOP

목차

TOP