- 행동을 AI로 식별하여 언어화 -- 오사카대학, 개호(간병) 일지 작성 목표
-
- Category바이오/ 농생명/ 의료·헬스케어
- 기사일자 2019.10.23
- 신문사 일간공업신문
- 게재면 8면
- Writerhjtic
- Date2019-11-01 08:54:43
- Pageview305
행동을 AI로 식별하여 언어화
오사카대학, 개호(간병) 일지 작성 목표
오사카대학의 다카노(高野) 특임교수는 도요타자동차와 공동으로 개호(간병) 현장에서 일하는 사람의 행동을 식별해 언어화하는 인공지능(AI) 기술을 개발했다. 카메라로 신체 골격의 움직임만을 식별해 행동을 식별한다. 복장이나 개인의 차이에 좌우되지 않고 식별할 수 있게 된다. 입거자의 하루 생활을 정리한 일지 작성 지원을 목표한다.
-- 신체 동작 데이터 활용 --
AI 기술로 카메라의 영상에서 인체의 어깨나 팔꿈치, 무릎, 발 등의 18곳의 위치를 추정해 신체 동작 데이터를 만든다. 이 신체 동작 데이터와 ‘테이블에 앉는다’ ‘머리부터 일어난다’ ‘의자에서 휠체어로 옮겨 앉는다’ 등의 개호 시설에서 이루어지는 21개 종류의 행동과의 적합성을 계산한다.
우선 입거자 2명이 21개 행동을 각각 5회 시행해 210개의 영상을 촬영했다. 영상에서 신체 동작 데이터를 추출해 행동을 설명한 단문과 연결한다. 신체 동작의 식별률은 70%. 행동 설명문은 ‘휠체어로 이동’이나 ‘휠체어로 방향 전환’ 등 겹치는 표현이 있기 때문에 AI로 생성한 문장의 정답률은 93%였다.
신체 동작 데이터를 이용하면 영상 데이터를 그대로 행동 식별에 사용하는 방법보다 복장 등의 외형의 영향을 쉽게 받지 않는다. 신체 동작 데이터에서 근육의 부하나 소비 칼로리로 등도 추정할 수 있다.
현재는 심플한 행동의 단문 생성으로 식별률을 높이고 있는 단계다. 앞으로 생성문의 요약이나 ‘대화가 즐거웠다’ 등의 감정을 포함하는 문장의 생성도 추진한다.
카메라 영상을 보고 일지를 작성하는 것은 스태프의 업무 부담이 되고 있다.
-- 끝 --