- 2차원 카메라 화상 AI로 해석 -- 피사체 3차원 거리 추측, 보안 로봇에 도입
-
- CategoryAI/ 로봇·드론/ VR
- 기사일자 2017.10.11
- 신문사 일간공업신문
- 게재면 8면
- Writerhjtic
- Date2017-10-17 09:34:14
- Pageview691
2차원 카메라 화상 AI로 해석
피사체의 3차원 거리 추측, 보안 로봇에 도입
지능기술(오사카, 오쓰(大津) 사장)은 AI 기술을 사용하여 2차원의 카메라 화상으로 3차원 거리를 추측하는 시스템을 시작(試作)하였다. 수천 엔의 웹카메라 화상과 시판 컴퓨터에서 작동하는 AI로 구성된다. 100만 엔 정도의 산업용 3차원 거리 계측에는 미치지는 못한다. 그러나 일정 정밀도는 확보하고 있으며 AI의 도입 장벽을 낮출 수 있다. 2018년 안에 자사의 공장용 보안 로봇이나 서비스로봇 등에 도입한다.
심층학습을 사용하여 화상에 비친 물체를 우선 식별한다. 그리고 각 물체가 바로 앞에 있는지 뒤쪽에 있는지를 판정하는 구조로, 거리를 추측한다.
수탁 설계하는 자율이동로봇에 내장하면, 사람이나 스스로의 위치를 검출하여 이동할 수 있게 된다. 우선은 거리 5m에서 ±30mm의 정밀도를 목표로 한다. 장기적으로는 100m 앞까지 식별 가능하게 하여, 자율주행 시스템에 대한 응용도 목표로 한다.
물체인식의 기초로서 가위바위보에서 상대가 내는「가위∙바위∙보」를 96.7%의 확률로 정확하게 식별하는 기술은 이미 확립하였다. 손가락의 크기에 차이가 있어도 판정이 가능하다. 판정 속도는 30만 엔 정도의 게임용 컴퓨터로 0.02초, 5,000엔 정도의 소형 컴퓨터「라즈베리파이」로도 2초로 계산처리에 대한 부담이 가볍다.
현재, 3차원 거리 측정은 동물의 두 눈처럼 카메라 여러 대를 사용하는 스테레오 카메라나 빛의 반사 시간으로 거리를 계측하는 TOF 센서를 사용한다. 계측 거리의 제한이나 고가의 단말 가격과 같은 과제가 있다.
-- 끝 --