- 설득되는 인간, 설명하는 AI : '사람의 납득' 어떻게 이끌어낼까? -- 인사∙경영
-
- 카테고리AI/ 로봇·드론/ VR
- 기사일자 2018.3.21
- 신문사 일간공업신문
- 게재면 20면
- 작성자hjtic
- 날짜2018-03-27 13:54:57
- 조회수620
설득되는 인간, 설명하는 AI
'사람의 납득' 어떻게 이끌어낼까?
인사∙경영 AI로 의사결정, 유저 설득보다 조력
설명하는 AI, 설득되는 인간. 의료나 인사 등 어려운 판단이 필요한 곳에서 AI를 활용하기 위해 AI의 판단을 설명하는 기술이 개발되고 있다. 그러나 이러한 기술을 실제로 유용하게 활용하기 위해서는 인간을 설득하는 기술과의 융합이 필요하다. 지금까지는 선택지를 3개로하여 중간을 선택하게 하는 등 인간의 감정이나 습관을 이용하는 일이 많았다. AI가 인사나 경영 등의 고도의 의사결정을 지원하기 위해서는 좀더 연구가 필요하다.
▶데이터가 증가해도
판단이 블랙박스, 사람의 지식과의 융합 유효
“인사지원의 경우, AI의 판단을 납득할 수 없다면 도입을 결단할 수 없다”라고 미쓰비시총합연구소의 야마노(山野) 주임연구원은 지적한다. 신규 채용은 인사담당자도 판단 기준을 설명하기가 상당히 어려운 업무다. 학생 측과 기업 측의 양쪽이 납득하는 채용은 간단하지 않다. 그러나 AI를 서비스로서 제공하는 이상 설명책임이나 설득이 요구된다.
미쓰비시총연은 입사지원서나 적성검사, 과거의 채용이력 등을 학습하여 인재와 포스트를 매칭하는 AI서비스를 제공한다. ‘설득’을 이끌어내기 위해 기업 담당자의 채용방침을 반영하기 쉽도록 유저인터페이스를 설계하였다. 원하는 인재상에 맞춰서 ‘업계 내 지망도’ ‘커뮤니케이션’ ‘리더십’ 등 약 100항목의 우선순위를 유저가 조정할 수 있다.
유저가 스스로 파라미터를 조정하여, 그 때마다 AI가 우선적으로 평가해야 한다고 제안하는 인재들을 확인한다. 서비스에 유저를 포함시킴으로써 납득 정도를 높이고 있다. 야마노 주임연구원은 “심층학습에서 데이터 양을 무모하게 늘려도 그 판단은 블랙박스가 되어 버린다. 그것보다도 인사 관련 지식과 AI를 조합하는 하이브리드형이 유효하다”라고 설명한다.
시스템의 의사결정에 유저를 포함시켜, 유저가 스스로 선택한 것처럼 느끼게 하는 기술은 강력하다. 오사카대학의 이시구로(石黒) 교수와 동영상 사이트 운영업체인 드왕고(DWANGO)가 개발한 ‘연애실험신사(神社)’는 처음 만나는 남녀가 로맨틱코미디와 같은 대화를 즐기는 게임이다. 미리 스토리는 정해져 있으며 ‘당신은 내가 좋아하는 타입’ ‘싫지 않아요’ 등의 선택을 고른다. 미리 준비된 스토리라고 알고는 있어도 상대방에 대한 인상이 좋아진다. 이시구로 교수에 따르면 커플 성립률은 80%라고 한다.
AI가 최고의 선택지라고 설명하기보다도 유저의 의사결정을 유도하는 편이 서비스 만족도는 향상될지도 모른다. 특히 프라이버시에 관한 생활 분야는 설명보다도 유도하는 편이 적절하다.
예를 들면 EC(전자상거래) 사이트의 경우, 기술적으로는 유저의 냉장고 속 우유나 화장실의 휴지가 얼마 남았는지를 구입이력을 통해 추정할 수 있게 된다. 재고량에 따라서 상품구입을 제안하는 것은 가능하다. 그러나 유저에게 냉장고 속을 설명하게 되면 유저는 당혹감을 느낄지도 모른다. 그 때문에 ‘다른 유저도 구입하고 있다’와 같이 동조에 대한 압력을 가하는 방법을 선택하고 있다.
▶사람의 의도를 파악하다
AI측이 저자세로 대응, 만족도 높이는 시스템으로
인간의 의도를 파악하여 이용하는 연구도 진행되고 있다. 도쿄대학의 나루미(鳴海) 교수는 캐릭터를 점프시켜서 코인을 얻는 게임에서, 게임 시스템 측이 점프 궤도를 조정하여 고득점을 올리게 하였다. 유저가 이러한 시스템의 도움을 눈치채지 못하도록 하면서 만족도를 향상시켰다. 이 지식은 자율주행 기술에도 응용할 수 있다. 핸들 등의 움직임을 통해 좌회전∙우회전이나 추월 의사를 감지하여 실제 차량의 궤도는 자율주행이 담당하는 방식이다.
이미 급브레이크 시의 Tire Lock을 방지하는 등 브레이크 어시스트 기능은 실용화되고 있다. 보다 고도의 운전지원을 도입할 때에 지원 타이밍이나 레벨의 조정에 응용한다. 나루미 교수는 “자율주행은 안심과 쾌적이 반드시 일치하지 않는다. 왜 지금 회피 기능이 작동했는지 알 수 없으면 쾌적하지 않게 된다”라고 지적한다. 스스로 차량을 컨트롤하고 있다는 납득을 유지한 채 고도의 지원을 하는 것을 목표한다.
현재의 AI는 유저가 알기 쉽도록 설명하는 것이 어렵고, 100% 올바른 판단을 내리는 것도 곤란하다. 반드시 불확실함이 포함되며 AI의 제안이 빗나갈 경우 만족도를 크게 손상시킨다. 메이지대학의 고마쓰(小松) 교수는 로봇의 어미(語尾)의 비프음을 올리거나 내리는 등의 방법으로 AI의 판단에 대한 유저의 허용도를 넓히는 기술을 연구한다.
예를 들면 길 안내 AI가 “오른쪽 루트가 빨리 도착할 가능성 65%”라고 설명하는 것이 아니라 ‘빨리 도착한다 삐↘’라고 소극적으로 표현하는 방법을 제안한다. 고마쓰 교수는 “AI가 자신 없음을 말로 전달하기보다도 비프음으로 전달하는 편이 받는 측에서는 순순히 그 정보를 받아들이기 쉽다. 또한 해석에 걸리는 시간이 짧다는 이점이 있다”라고 말한다.
순순히 받아들일 수 있다면 AI 서비스에 대해 쉽게 초조해하거나 하지 않게 된다. 앞으로 AI와의 잡담이 증가하게 되면, 잡담에는 대답이 없는 질문이 많기 때문에 성실한 답변만으로는 대화가 진행되기 어렵다. 고마쓰 교수는 “비프음과 같은 보조적인 표현이 (AI의) 냉철한 이미지를 경감하는데 공헌할 것이다”라고 기대한다.
유저를 납득시키는 기술은 AI측이 저자세로 나오고, 이를 통해 유저의 자발적인 의사를 도출하는 방법이 성공을 거두고 있다. 산업기술총합연구소 인공지능연구센터의 아소(麻生) 부센터장은 “무리하게 AI가 설득하기보다도 의사결정의 흐름이 정해져 있는 분야에서는 그것을 지원하는 편이 현실적이다”라고 지적한다.
의사의 진료 가이드라인이나 품질관리 활동의 QC 7가지 도구 등 특정 의사결정 플로우가 있다면 AI를 도입하기 쉽다. 기존에는 설명에 대해 납득할 수 있는지의 여부보다도 비즈니스나 경쟁에 이길 수 있는지의 여부로 신기술을 도입해 왔다. 로봇이나 AI는 도구였다.
앞으로는 보다 고도의 의사결정이나 정답이 없는 영역에도 AI가 도입된다. 이시구로 교수는 “AI도 틀릴 수 있다는 전제에 서면, 보다 인간답게, 살아 있는 듯한 느낌의 시스템이어야 받아들일 수 있게 된다”라고 지적한다. 설명하는 AI기술과 인간에게서 납득을 도출하는 기술의 융합이 요구된다.
-- 끝 --