일본산업뉴스요약

설명하는 AI, 설득되는 인간 : AI의 제안, 어떻게 이해할까 -- 판단 근거 알기
  • 카테고리AI/ 로봇·드론/ VR
  • 기사일자 2018.3.20
  • 신문사 일간공업신문
  • 게재면 32면
  • 작성자hjtic
  • 날짜2018-03-27 09:17:22
  • 조회수634

설명하는 AI, 설득되는 인간
AI의 제안, 어떻게 이해할까?
판단 근거를 알기 쉽게 제시

설명하는 인공지능(AI). AI기술은 이미지 인식 등의 정밀도를 비약적으로 향상시켰지만 인간은 그 판단 과정을 해석하지 못했다. 의료 등의 중대한 의사 결정에 있어서 AI의 판단 근거를 알지 못한 채 제안을 그대로 받아들일 수는 없다. 그래서 AI의 판단 근거를 알기 쉽도록 제시하는 연구가 진행되고 있다.

▶심층학습 투명하게
AI의 실수 박멸에 필요, 계층 별로 인자 추정
‘심층학습을 투명하게’는 AI 연구에 있어서 가장 뜨거운 화제다. 심층학습은 내용이 보이지 않는 블랙박스에 비유된다. 대량의 데이터를 학습시킴으로써 식별 성능은 비약적으로 높아졌지만 왜 정밀도가 향상되는지를 설명할 이론 체계는 아직 확립되지 않았다.

심층학습 연구는 아직 실험 단계로 각 연구자들은 시행착오를 겪고 있다. 그 때문에 작은 개량을 포함하여 대량의 논문이 발표되고 있어 연구자도 모든 논문을 읽을 수 없게 되었다. 이론적인 한계도 학습 내용도 불투명한 채로 성능만 경신되는 상태가 이어지고 있다.

AI 연구자에 있어서 학습 내용의 해석은 오랫동안 연구해 온 테마다. 산업기술총합연구소 인공지능연구센터의 아소(麻生) 부센터장은 “기술의 탄생과 동시에 연구가 시작되었다”라고 회상한다.

AI의 정밀도를 높이기 위해서는 어느 인자가 중요했는가를 특정해야 개선할 수 있기 때문이다. 중요 인자를 알 수 있으면 정밀도가 향상되고 판단의 근거를 알 수 있다. 반대로 AI의 실수 박멸을 위해서도 중요 인자의 특정이 필요했다.

이화학연구소 혁신지능통합연구센터의 스즈키(鈴木) 팀 리더(도쿄대학 교수)는, 심층학습의 계층별로 학습 결과나 중시한 인자를 추정하는 기술을 개발하였다. 심층학습에서는 뇌의 신경세포 네트워크를 모방하여 십수에서 수백 층의 계산 유닛을 층층이 겹쳐서 거대한 네트워크 상태의 학습 모델을 이용한다.

이 층마다 커널법이라는 수학 방법으로 관수로 변환, 얻어진 고유 벡터에서 어느 정보를 중시했는가를, 고유치에서 중요도를 추정한다. 고유 벡터와 고유치에서 심층학습의 몇 층까지 학습이 완료되었는가를 알 수 있다.

예를 들면 20층의 학습모델의 1-16층에서 학습이 거의 종료되었다는 것을 알 수 있으면 나머지 4층은 에러 정정에 특화된 학습에 주력시키는 것도 가능하다. 용도에 따라서 층을 교체하는 ‘전이학습’에서는 대체 층의 궁합을 판단할 수 있게 된다. 스즈키 팀 리더는 “이론연구는 지금 급속하게 진화되고 있다. 5년 후에는 심층학습을 해명할 수 있을 것이다”라고 기대한다.

그러나 이 연구는 AI 기술자가 아니면 이해할 수 없다. 의사나 인사담당자 등의 각 분야의 전문가가 사용하기 위해서는 각각의 전문가가 이해할 수 있는 말과 용어로 학습내용을 표현할 필요가 있다. 이 부분은 AI기술의 비즈니스 도입에 있어서 큰 장벽이었기 때문에 전자기기 기업들이 주력하고 있다.

▶의료∙금융에서 응용
제안의 신뢰성을 높인다
히타치제작소는 심층학습의 거대 네트워크 안에서 특정의 설명 인자를 추출하는 기술을 개발하였다. 예를 들면 환자의 병상 추이나 체중, 연령, 혈당치, 유전자 변이 등의 빅데이터를 학습시켜, 그 안에서 진료 가이드라인의 판단 기준에 사용하는 인자를 추출한다. 빅데이터로 심층학습의 정밀도를 확보한다. 학습내용은 진료 가이드라인에 따라서 설명할 수 있다.

시바라하(柴原) 연구원은 “의사로부터 빅데이터의 단편적인 설명은 의사결정에는 사용할 수 없다는 말을 들어왔다. 가이드라인에 따라서 설명할 수 있다면 환자에게도 설명이 가능하다”라고 말한다. 히타치제작소는 30만 인자를 학습할 수 있다는 것을 확인하였다. 주요 유전자 변이를 모두 학습시킴으로써 질환을 설명시키는 것도 가능해진다.

후지쓰연구소는 전문가가 설명에 사용하는 인식체계와 심층학습을 융합시켰다. 각 전문분야에는 진료 가이드라인이나 업무 매뉴얼과 같은 지식체계가 존재하고, 지식체계도 네트워크 상태의 구조를 갖고 있다. 그래서 심층학습에서 네트워크 상태의 데이터를 학습하는 방법을 개발하였다.

한번, ‘텐서’라는 숫자 표현으로 데이터를 고쳐서 심층학습을 돌린다. 심층학습에서 중시된 인자가 지식체계의 어느 지식에 해당하는지를 대조한다.

심층학습과 지식체계를 대응시켜 전문가의 해석을 촉구하는 구조다. 이가타(井形) 인공지능 연구소 프로젝트 디렉터는 “의료나 금융 등 신뢰성이 요구되는 분야일수록 AI의 설명 가능성이 중시된다”라고 말한다.

▶자율주행 실황 중계
자동차의 ‘마음’을 만든다
이용자의 생명을 맡고 있는 자율주행도 마찬가지다. 도요타자동차의 미국 연구자회사인 도요타 리서치 인스티튜트(TRI)는 미국 매사추세츠공과대학(MIT)과 자율주행 AI가 자차의 상태를 설명하는 기술을 개발하고 있다. 설명의 대상이 일반인이기 때문에 전문 용어나 수치로 표현할 수 없다는 것이 어려운 점이다. 센서 등의 계측 상황을 표시해도 모니터를 주시하지 않으면 안 된다. 그래서 주의환기 단계부터 쉬운 말로 설명할 필요가 있었다.

연구 팀은 차량의 부품모델과 차체운동모델을 작성하여 차량에서 액셀이나 타이어 등의 데이터를 수집하였다. 데이터를 모델과 대조하여 부품의 연동이나 차체의 가속도, 노면 마찰 등을 추정하여 상황을 파악한다.

아직 기초연구이지만 운전 하는 동안에 운전 상황을 실황 중계할 수 있다. 그러나 운전 상황에 대한 보고를 지속적으로 받는다면 시끄럽다고 느낄지도 모른다. 실장 시에는 형식이 바뀔 수도 있다. 연구팀의 목표는 이야기를 공유할 수 있는 자동차의 ‘마음’을 만드는 것이다.

AI의 유저의 레벨에 따른 설명 기술이 개발되고 있다. 문제는 AI의 설명이 적절해도 유저가 납득할 수 있는가의 여부다. 설득하는 기술과의 융합이 요구된다.

  -- 끝 --

목록