일본산업뉴스요약

AI 사각지대 (중) : 불투명한 ‘사고에 공포감 -- 판단 기준의 해석 어려워
  • CategoryAI/ 로봇·드론/ VR
  • 기사일자 2018.2.12
  • 신문사 일본경제신문
  • 게재면 9면
  • Writerhjtic
  • Date2018-02-18 21:28:04
  • Pageview527

AI의 사각지대 (중)
불투명한 ‘사고(思考) 공포감
판단 기준의 해석 어려워

“인공지능(AI)에 의한 개인 프로파일링이 과다하게 진행되면 거부 반응으로 AI 보급에 제동이 걸릴 가능성이 있다”. 게이오기주쿠(慶応義塾) 대학의 구로사카 조교수는 위구심(危惧心)을 드러냈 ; 다.

프로파일링이란 AI가 빅데이터를 해석하여 개인의 ‘인물상’을 추정하는 기술이다. 인터넷 기업이 유저가 선호하는 상품의 광고를 보내는 등에 사용된다. 금융 기관이 융자 판단의 참고로, 이용자의 신용 능력을 AI로 산출하는 시도를 시작했다.

의사 못지 않는 정확도로 병을 판단하는 등, AI는 인간을 능가하는 능력을 보여준다. 그러나 판단 과정은 잘 알 수 없다. 불투명한 ‘사고(思考)’는 섬뜩함을 자아낸다. 그대로 비즈니스나 서비스에 이용한다면 사람들의 불안감을 불러일으키지 않을 수 없다.

AI에게 잘못 보였다가는 낭패를 당한다---. 앞으로의 AI 프로파일링에 대해 법률 전문인 게이오 대학의 야마모토(山本) 교수는 이와 같은 위험성을 지적한다. 대학생 X는 입사를 희망하는 Y사에 이력서를 보냈다. Y사는 지원자의 적성을 AI로 예측하지만, 판단 구조는 비공개이다. 불합격의 통지를 받은 X는 ‘혹시 교류 사이트에서 만난 시민 운동가와 친분이 있기 때문에 떨어진 것은 아닐까?’ 등으로 고민하게 된다.

불합격 이유를 알지 못하는 것은 상대가 사람일 경우도 마찬가지이다. 문제는 여기서부터이다. 같은 AI시스템을 도입하고 있는 다른 회사에서도 불합격이 이어져, 대학생 X는 ‘AI에게 미움을 받는 이유’를 모른 체 아르바이트를 전전한다---.

야마모토 교수는 “AI는 사람의 정체성을 단락적으로 판단하기 쉽다”라고 말한다. AI가 ‘인물상’을 추정한 근거를 외부에서는 알 수가 없다. AI의 편견이 기성 사실이 될 우려가 있다. AI붐을 뒷받침하는 심층학습(답 러닝)에서도 처리 과정의 ‘블랙 박스화’을 초래하고 있다.

일반 컴퓨터 프로그램은 그 내용을 조사하면 처리과정을 알 수 있다. 그러나 뇌의 움직임을 모방한 뉴럴 네트워크(신경 회로망)를 겹겹이 쌓아 만든 심층학습의 경우에는 그곳에서 ‘논리’를 읽어낼 수 없다.

“의사가 환자에게 설명할 때 ‘AI가 이렇게 말하고 있기 때문에’라는 말은 통하지 않는다. 근거를 제시할 수 있도록 AI의 판단을 훤히 알 수 있게 만드는 연구가 필요하다”. 산업기술 종합연구소에서 창약 AI의 개발에 힘쓰고 있는 제제(瀬瀬) 연구팀장은 이렇게 말한다.

도요타자동차의 AI 연구 자회사인 도요타 리서치 인스티튜는 ‘설명할 수 있는 자율주행 AI’의 개발을 목표로 세우고 있다. 운전으로 주위를 파악하는 ‘인지’와 조작을 담당하는 ‘행동’의 2가지로 나누어 후자에는 일반 프로그램을 탑재하여 문제가 발생 시에는 나중에 조작을 해석할 수 있게 한다.

경제산업성은 2017년 10월, AI의 보급에서 직면하게 될 법적 문제를 검토하는 전문 가 모임을 설립했다. 예를 들어 자율주행차의 사고가 발생했을 때, 제조업체 및 시스템 개발 회사, 이용자의 책임 소재를 명확히 한다.

AI의 보급에는 설명 책임을 AI식으로 나타낼 필요가 있다. 제도 면에서도 사회와의 마찰을 피할 수 있는 연구가 중요하다.

 -- (하)로 계속 --

List