근거를 알 수 있는 ‘화이트박스형’ AI
현재의 AI 붐을 일으킨 ‘심층학습(딥러닝)’은 화상인식 등으로 고정밀도의 판단이 가능한 AI를 만들어냈다. 그러나 심층학습의 결과, AI가 실행하는 계산은 복잡해져 인간이 이해하기 어려운 ‘블랙박스’가 되었다. 이 결점을 해소하기 위해 ‘XAI(Explainable AI = 설명이 가능한 인공지능)’를 개발하려는 움직임이 진행되고 있다.
아사히맥주는 AI를 통해 매일의 수요 변동을 예측하는 업무를 시작했다. 기존에는 과거의 매출 및 기후, 요일, 체인점에서의 취급 상황 등의 데이터를 기반으로 베테랑의 마케팅 담당자가 직감과 경험을 통해 수치를 산출하고 있었다. 그러나 최근에는 각 맥주 업체가 계절 한정판의 상품 등을 잇따라 출시하고 있다. 예측의 난이도는 해를 거듭할 수록 높아져 그 작업을 자동화해야 할 필요성이 생겼다.
그러나 AI가 산출한 예측치를 그대로 생산에 적용하지는 않는다. 영업 담당자는 기회손실을 막기 위해 가급적 수중에 상품을 가지고 있기를 원한다. 한편, 물류 담당자는 재고가 쌓이는 것을 막기 위해 최대한 잉여재고를 줄이려고 한다. 양쪽의 힘겨루기를 통해 실제의 생산량이 정해지지만, 그 기반이 되는 예측치에 대한 근거가 불투명하다면 논의는 진전되기 힘들다.
|