- AI의 판단 근거 해명을 위한 개발 경쟁 격화 -- ‘XAI’로 탈(脫)블랙박스화
-
- 카테고리AI/ 로봇·드론/ VR
- 기사일자 2019.7.23
- 신문사 일본경제신문
- 게재면 16면
- 작성자hjtic
- 날짜2019-07-29 16:56:19
- 조회수400
AI의 판단 근거 해명을 위한 개발 경쟁 격화
‘XAI’로 탈(脫)블랙박스화
▶심층학습(딥러닝): 사람의 뇌 기능을 모방한 AI 기술로, 대량의 데이터를 학습해 높은 정밀도로 분석할 수 있다. 영상인식 등에서는 사람의 능력보다 뛰어나다고 알려져 있다. 하지만 계산 처리가 복잡해 결론에 도달하게 된 과정이 ‘블랙박스화’되기 쉽다.
AI의 활용을 추진하고 있는 많은 기업들이 AI의 ‘블랙박스화’에 대해 고심하고 있다. ‘심층학습’을 이용할 경우 고도의 분석이 가능하지만 AI 판단 근거가 불투명하기 때문에 인명 등을 좌우하는 분야에서는 이용이 어렵다. 이를 해결할 방법으로 주목 받고 있는 것이 ‘XAI(설명 가능한 AI)’이다. NEC와 후지쓰뿐만 아니라 세계적 IT기업들도 기술 개발을 가속화하고 있다.
“현시점에서 AI를 전면적으로 도입하는 것은 어렵다”. 한 대형 화학제조사의 인사 담당자는 이렇게 털어놓는다. 이 회사는 작년부터 Humanage(도쿄)가 운영하는 채용관리시스템 ‘i-web’의 AI 기능을 시험적으로 도입하고 있다. 담당자의 판단으로 떨어뜨린 학생들 가운데 AI가 복수의 유망 후보를 발굴, 그 중 한 명이 올해 신규 사원으로 입사했다.
이러한 실적은 있지만 아직까지 시험 도입에 머물러 있는 것에는 이유가 있다. AI는 학생이 채용 사이트를 방문한 빈도나 설명회 등의 출석률 등 방대한 데이터를 통해 합격, 불합격을 판단한다. 하지만 AI가 어떤 정보를 중시했는지는 불분명하다. “합격의 근거에 대해 상사가 물어봐도 설명할 수 없다”라고 담당자는 말한다.
최근 AI가 보급되고 있는 가운데 ‘설명’이 요구되는 상황이 늘고 있다. 인재 채용은 경영의 핵심이다. 의료 행위에서는 AI의 판단이 인명을 좌우할 수 있다.
하지만 현재 AI 붐의 계기가 된 심층학습 기술에는 큰 문제가 있다. AI가 독자적인 기준으로 복잡한 계산을 반복하기 때문에 결론을 도출하는 과정이 블랙박스화 되기 쉽다. ‘왜 이러한 결론에 도달했는가?’를 사람의 두뇌로 검증하는 것은 어렵다.
가령 자율주행차가 사고를 일으켰을 경우, AI의 판단 근거가 블랙박스화 되어 있으면 원인 해명이 불가능해 ‘설명 책임’이 요구된다.
이러한 문제를 극복할 수 있게 된다면 기업들의 AI 활용이 가속화될 수 있어 IT기업들이 개발 경쟁을 펼치고 있다. 그것이 ‘EXPLAINABLE(설명 가능한)AI’의 영문 표기를 줄여 ‘XAI’라고 불리는 기술이다.
-- NEC, 음료의 수요 예측 --
XAI의 사업화에서 한 발 앞서고 있는 곳이 NEC. 심층학습보다 이전 기술을 응용해 분석 결과의 근거를 보여주는 ‘화이트박스형 AI’로서 판매하고 있다. 아사히맥주가 음료 수요 예측에 활용하는 등 도입 사례가 늘고 있다. NEC의 AI 애널리틱스사업부의 이케다(池田) 사업부장은 “상담 건수는 2018년 말 시점에서 약 480건에 달한다”라고 말한다.
-- 후지쓰, 질병 리스크 산출 --
후지쓰는 NEC와는 대조적으로 많은 고객들이 이용하는 심층학습 개선을 추진하고 있다. 4월, 국내 복수 대학들과 실증실험을 시작했다. 18만 건의 유전자 변이 데이터를 AI의 심층학습을 통해 질병 발생 리스크를 산출하고 또 한편으로는 기존 기술을 이용해 다른 방법으로도 의학 논문 등을 분석. 이 2가지 결과로 ‘정답 맞추기’를 하며 AI의 판단 근거를 유추한다.
이 방법은 금융기관의 금융 판단 등으로도 이용될 수 있을 것으로 후지쓰는 전망하고 있다. AI 관련에서는 2022년까지 5년 간 누계 4,000억엔의 매출을 목표로 하고 있다. “투명성과 설명 책임 확보가 중요해질 것이다”라고 AI 비즈니스총괄부의 하시모토(橋本) 총괄부장은 말한다.
히타치제작소도 미국의 의료기관과 XAI의 실용화를 모색하고 있다. 전자 진료기록카드 등을 활용해 의료시스템을 고도화할 수 있을 것으로 보고 있다.
XAI를 추진하고 있는 곳은 일본 기업들뿐만이 아니다. 미국 국방총성의 국방고등연구계획부(DARPA)는 XAI 등의 연구에 20억달러(약 2,200억엔)을 투입한다고 표명. 미국 IBM도 2018년, AI의 거동을 분석해 판단 근거를 찾는 툴을 발매했다.
각국 정부의 규범 책정 움직임도 그 배경에 있다. 일본 정부는 3월, ‘인간 중심의 AI사회 원칙’에 ‘설명 책임 확보’를 포함시켰다. EU도 4월, AI 윤리지침에서 설명 책임을 요구했다. 판단 근거를 제시하지 않는 블랙박스 AI는 앞으로 기업뿐만 아니라 정부기관으로의 도입에 제약이 가해질 가능성이 있다.
미국 맥킨지는 AI가 2030년까지 전세계적으로 13조달러의 경제 효과를 가져다 줄 것으로 예측했다. 심층학습에서는 다소 뒤처진 일본의 IT업계이지만 XAI의 경쟁은 이제부터 시작이다.
-- 차별적 표현 등, 논란 빈번 --
설명 책임과 함께 ‘윤리’에 대한 논의도 AI 보급에는 반드시 필요하다. 감정이 없는 AI가 문제를 일으키는 케이스도 빈번하게 발생하고 있다.
미국 구글이 2015년, 사진 검색에서 영상인식 AI를 도입한 결과, 흑인을 ‘고릴라’라고 판단했다. 2016년에는 미국 마이크로소프트의 대화형 AI가 악의가 있는 인터넷 이용자에게 부적절한 언어를 배워 트위터에서 차별적 발언을 연발했다.
채용 서류 심사를 AI에게 맡겨 실패한 곳은 미국 아마존닷컴이다. 과거 이력서 데이터를 AI를 학습시킨 결과, 대부분의 응모자가 남자였던 관계로 여성에 대해 차별적 평가를 내리게 되었다고 한다.
어떠한 데이터를 학습시키는가에 따라 AI는 천사로 또는 악마로 돌변할 수 있다. “윤리적 문제는 기업 대표가 추진해야 할 경영 과제이다”라고 AI 동향에 대해 잘 아는 산부(三部) 변호사는 지적한다. 소니와 NEC 등 윤리 지침을 공개하는 기업들도 잇따라 나오고 있다.
AI에게 윤리를 학습시키기 위해서는 사고 회로를 사람이 이해할 필요가 있다. 사회의 다양한 분야에서 활용하기 위해서라도 XAI 개발이 시급하다.
▶AI가 일으킨 주요 사건
2015년 |
미국 구글 |
사진을 자동으로 분류하는 기능을 AI에게 도입한 결과 흑인을 ‘고릴라’라고 판단 |
2016년 |
미국 마이크로소프트 |
트위터에 사람과 대화할 수 있는 AI를 공개했지만 차별적 발언을 연발해 운용이 정지 |
2018년 |
미국 아마존닷컴 |
인사 채용의 서류 심사를 AI에게 맡긴 결과 남성을 우대. 프로젝트가 중지되었다고 보고 |
2018년 |
미국 우버 테크놀로지스 |
자율주행차가 미국에서의 일반도로 시험주행 중에 도로를 횡단하던 보행자와 충돌, 보행자가 사망하는 사고 |
-- 끝 --