- AI에 ‘설명 책임’ 능력 추가 -- 경제산업성, 판단 근거를 명시한다
-
- CategoryAI/ 로봇·드론/ VR
- 기사일자 2018.10.12
- 신문사 일간공업신문
- 게재면 1면
- Writerhjtic
- Date2018-10-20 08:55:27
- Pageview440
AI에 ‘설명 책임’ 능력 추가
경제산업성, 판단 근거를 명시한다
경제산업성은 인공지능(AI)에 의한 판단의 근거와 판단까지의 과정 등을 명시하는 ‘설명 가능한 AI’의 개발 프로젝트를 2019년도에 출범한다. 의료, 사법, 금융, 국방이라는 설명 책임이 요구되는 영역에서의 AI 이용의 확대 등을 내다보고 최적의 기술 개발을 촉진시킨다. AI는 판단 근거를 명시할 수 없는 ‘블랙박스 방식’이 주류이기에 사회∙경제에 커다란 영향을 주는 판단은 맡기기 어려운 것이 실정이다. 경제산업성은 5년 계획으로 개발을 지원하여 AI 이용 영역 확대로 연결한다.
설명 능력은 차세대 AI에 요구되는 새로운 조건이 된다. 예를 들어 의료 현장에서의 진료를 AI로 자동화하는 경우 근거를 명시할 수 없다면 환자는 안심할 수 없다. 해외에서는 이미 미국 국방고등연구계획국(DARPA)가 설명 가능한 AI의 개발 프로젝트를 시작했다. 일본에서도 히타치제작소와 후지쯔 등 민간 기업에서 연구가 추진된다.
경제산업성은 국가 프로젝트로 만듦으로써 차세대 AI를 이용해 사회 과제 해결 및 산업 경쟁력 강화로 연결한다. 신에너지산업기술종합개발기구(NEDO)를 통한 위탁 사업으로써 2019년도 처음으로 프로젝트를 공모하고 총 10건 정도를 채택할 계획이다.
설명 내용은 AI의 성능을 평가하는 재료로써 기대된다. AI는 데이터를 제공하면 할수록 분석 등의 능력이 높아지는 측면도 있기 때문에 성능 평가와 품질 보증이 어렵지만, 설명 가능한 AI가 있다면 판단에 도달한 경위 등을 통해 성능을 명확히 할 수 있게 되는 것이 기대된다.
-- 끝 --