책 커버 표지
일경 오토모티브_2016/07_자율주행 자동차
  • 저자 : 日経BP社
  • 발행일 : 20160611
  • 페이지수/크기 : 106page/28cm

요약

Nikkei Automotive_2016.07. 특집 (p62~66)

소프트웨어로 차이가 벌어지는
자율주행 자동차


인공지능(AI)는 분명히 꿈의 기술이다.
그런데, AI를 사용한 자동운전 자동차는 간단히 실현되는 것이 아니다.
자율주행 소프트웨어의 성능을 높여야 하므로, 도요타자동차를 시작한 메이커 각 사가 착실한 대응을 시작하고 있다. 소프트웨어의 마무리가 자동차 성능을 좌우하는 시대에 돌입했다. 

「이것은 지성을 다투는 레이스다」---. 자동운전 자동차를 사용한 레이스「ROBORACE」가, 빠르면 2016년 가을에는 시작한다. 차량에 사람이 타지 않고, 인공지능(AI)을 사용한 소프트웨어가 자동차를 조정한다. 레이스에 출장하는 모든 차량이 동일한 하드웨어를 사용하기 때문에, 자동운전 소프트웨어의 우열을 가릴 수 있다.

ROBORACE의 Denis Sverdlov CEO는, 지금까지의 자동차레이스와는 한 획을 긋는 시스템을 모두와 같이 표현했다. 레이스에는 10개팀이 2대씩, 합계 20대를 주행시킬 계획이다. ROBORACE가 제시하는 것은 자동차의 미래이다. 20대의 머신이 앞서거니 뒤서거니 격심한 허들을 전개한다. 서로 충돌을 일으키거나, 서로 견제를 심하게 해서 레이스의 속도가 올라가기 않는 등의 가능성도 충분히 있다.

과거, 자동차는 하드웨어의 덩어리였지만, 그것이 나날이 소프트웨어의 비중이 커지게 되었고, 자동운전시대에는 소프트웨어의 성능으로 주역의 자리를 차지할 것이 틀림이 없다. 그러나, AI는 마법이 아니다. 하나 하나씩 문제를 해결해 나가기 위해, 자동운전 소프트웨어의 실질적인 개발이 움직이기 시작했다.

-- 학습기능이야말로 AI의 본질 --
지금까지, 자동차의 제어소프트웨어의 개발은 Rule Base가 대전제였다. 다양한 대상 물체와 상황에 대해 정해를 인간이 규정해 간다. 그런데, 자동차와 사람의 예기치 않은 동작, 비나 눈 등의 악천후, 각국의 상이한 교통 룰과 매너 등, 모든 조건을 도출해 내는 것은 불가능하다. 거리의 모습도 시시각각으로 변모한다. 인력으로는 넘어설 수 없는 벽이 있다.   

여기에 등장하는 기술이야말로, 학습능력을 갖춘 AI이다. AI는 딥러닝(심층학습)과 강화학습 등의 기술을 사용하여 점점 더 현명하게 된다. 대량의 데이터를 입력하여 컴퓨터를 훈련시키면, AI는 인간에 가까운 판단력을 가지게 된다. 보다 많은 데이터를 넣어「경험」을 축적하면, 자동운전의 능력을 높일 수 있게 된다.

AI가 갖고 있는 엄청난 가능성에, 자동차 메이커들이 깨닫기 시작했다. 도요타는 2016년 1월에 AI연구 자회사인 Toyota Rearch Institute(TRI)를 설립. Volvo는 본사가 있는 스웨덴과 중국, 영국에서 자동운전차의 일반도로에 실증을 시작해서 경험치의 획득에 나섰다. 미 Ford는 눈이 휘날리는 험한 환경에 도전한다.

AI를 이용한 자동운전 소프트웨어의 “교육”을 막 시작했다. 2016년 4월에 GPU(Graphics Processing Unit) 메이커인 미 NVIDIA사가 개최한 개발자회의「GPU Technology Conference(GTC) 2016」에서는, 자동운전 소프트웨어의 대응을 각 사가 발표하였다.

-- AI와 Rule Base의 조합으로 --
AI를 이용한 자동운전시스템 개발에 지금, 특히 힘을 기울이고 있는 곳이 도요타이다. TRI사를 설비하는 외에, AI학습에 필요한 주행데이터의 수집도 본격화 하고 있다. 

AI는 인간의 뇌의「Neural Network(신경회로)」를 모방하고 있는데, 내부는 블랙박스에 가깝다. 때문에, AI를 이용한 자동운전 소프트웨어에 목숨을 건다는 것에 불안을 느끼는 사람도 많다. 잘 못되어 학습되면 커다란 사고가 난다. 이점에 관해서 TRI사의 Gill Pratt CEO는,「(걱정을 불식시키기 위해) AI와 Rule Base를 조합하는 것으로 될 것이다」고 생각을 나타냈다.

TRI사의 James Kuffner CTO는,「행동을 결정하는 Logic의 최상위는 항상 인간이 프로그램을 해야한다」고 보충 설명한다. AI에 많은 것을 맡긴다고는 하나, 안전을 담보하는 최후의 보루는 인간이라는 것이다. Pratt 씨는 또 하나,「교통사고를 줄이기 위해서는 시뮬레이션에 의한 검증이 필요하다」고도 지적한다. 개발한 자동운전 소프트웨어를, 가상공간과 실제의 테스트코스와 일반도로 등에서의 능력을 확인해야 한다는 것이다.

이러한 생각 하에, TRI사는 새롭게 미국 미시간주의 아나바에 거점을 개설. 캘리포니아주 파로알트와 매사츄세츠주 캠브리지에 이은 TRI의 3번째 거점이 된다.
3거점은, 대응테마가 각기 다르다. 아나바는, 주로 완전자동운전의 연구에 주력할 방침이다. 파로알트는 운전자를 자동차가 필요에 따라 지원하는 기술을, 캠브리지는 시뮬레이션과 딥러닝의 영역을 중심으로 대응한다.

-- 눈길을 달리는 Ford사 --   
2017년에 대규모의 도로실증에 나서는 곳은 Volve다.「XC-90」베이스의 자동운전차 100대를 준비하여, 스웨덴의 일반도로를 달리게 할 계획이다. 실증에서는, 차량의 최고속도를 70km/h로 제한하여, 자동운전 레벨을 교통상황에 따라서 변화시킨다.「(우천 등의) 날씨가 나쁠 때는 자동운전을 하지 않는다」(동사 Henric Lind 씨)고 한다.

Lind 씨의 발언은, 역으로 Volvo사의 자동운전차의 실력을 보이고 있다. 상기와 같은 “과보호”한 상황에서만 안전하게 주행할 수 밖에 없다는 것이다. 현상의 제어 소프트웨어에서는, 물방울을 장해물로 인식할 위험성이 잇다. 도로의 백선이나 표식 등의 인식율도 저하되고, 내 차의 위치를 추정하지 못하는 일도 생긴다.

악천후에의 대응에 선행하고 있는 곳이, Ford사다. 동사는 이번 겨울,「Fusion Hybrid」베이스의 자동운전차를, 눈이 휘날리는 미국 미시간주에서 달리게 하는데 성공했다. 실현 가능하게 된 최대의 요인은, 3차원 적외선 레이저스캐너(LIDAR: Light Detection and Ranging)를 사용하여, 고 정도의 내 차의 위치를 추정하는 소프트웨어를 개발했기 때문이다.

자차 위치추정은, LIDAR로 측정한 특정한 작은 물체까지의 거리와, 미리 준비한 지도데이터의 조회에 의해 실시한다. Ford사는 이번에 이 지도데이터를 혼합 가우스 모델(GMM: Gaussian Mixture Model)으로 불리는 방법을 이용하여 모델화 하였다. 목적은, 위치 추정 시의 계산을 가볍게 하기 위해서다.

종래방법에 비교하면 계산이 용이하게 된 만큼,「특정한 작은 물체의 인식대상을 늘렸다. 눈이 일부의 작은 물체의 인식을 방해하지만, GMM의 적용으로, 위치를 추정하기 위한 충분한 정보를 얻을 수 있게 되었다」(Ford Technical Autonomous Vehicle의 Mark Crawford 씨). 이 자동운전 시스템에는 AI를 사용하지 않았지만,「향후에는 딥러닝을 적용하여, 보다 많은 특정의 작은 물체를 인식해 간다」(동 씨)

-- 지도도 제어도 신뢰성이 제일 --              
고 정도의 인식을 실현시키기 위해서는, 정교한 3차원지도 데이터가 빠질 수 없다. 대형 지도업체인 네덜란드의 TomTom사는, 「도로표식만으로 세계에 9100만종류 이상이 있다」(동사 HEAD OF Product Office의 Qillem Strijbosch 씨). 이를 위해, 정확한 3D 지도데이터 구축에는「딥러닝이 필수로, 이것에 의해 특정 물체의 인식 성이 크게 향상되었다」(동 씨)고 한다.

차량의 주변감시의 정도를 높이기 위해서는, 센서의 수를 늘리는 것이 우선 빠르다. 그런데, 늘어난 만큼 계산 량이 늘어나, 제어의 리얼타임 성을 확보하기 어렵게 된다. 이러한 Trade Off의 관계를, 딥러닝으로 타개하고자 하는 움직임이 나오기 시작했다. 대응하는 곳은, 네덜란드 도로에서 2016년 1월에 달리기 시작한 자동운전 버스「WEpod」의 개발진이다. WEpod의 자동운전 소프트웨어를 개발한 것은, 네덜란드의 델프 공과대학이다.       

현상에서는, WEpod는 카메라와 밀리파레이더, 거기에 LIDAR도 탑재하는데, 동대 Researcher의 Floris Gaisser 씨는,「장래적으로는, LIDAR가 없이 운전운전 가능하게 한다」고 의욕을 보인다. 이미, 카메라와 밀리파레이더의 정보를 나선형으로 저장하는 Neural Network(CNN: Convolutional Neural Network)를 사용하여 처리하는 것으로, 화상의 인식 정도를 높이고 있다. 인식성능이 향상되어 가면, LIDAR가 필요 없게 될 것 같다.

AI를 이용한 자동운전 소프트웨어의 신뢰성에 관해서는,독일 Volkswagen사e도 그 중요성을 이야기 한다. 동사의 미국 자회사의 Project Leader인 Martin Hempel 씨는,「AI와 같은 Neural Network는 자동차를 크게 변화시킨다. 그래서, 기능안전의 관점을 넣은 검증프로세스를 구축해야 한다」고 말하고, 표준화를 위한 대응을 시사했다. 

-- 화가 나 있을 때는 자동운전으로 --
AI는, 자동운전차를 보다 안전하게 운용할 때도 사용될 것이다.「운전자의 감정을 인식할 수 있다면, 운전을 보다 안전한 것으로 만든다」---. 이렇게 이야기 하는 것은, 안면인식 기술을 개발하는 미 벤처인 Eyeris사의 Madar Alaoui 씨다.  동사는 “감정인식”을 자동차에 적용하는 기술을 개발 중에 있다. 125만화소의 훈련화상을 준비하여 딥러닝을 실행하여, 7종류의 감정을 판정 가능하게 했다. 감정이 불안정할 때는 자동운전모드로 전환하도록 하는 사용방법을 생각할 수 있다.

미 운수성 도로교통안전국(NHTSA)에 의하면, 미국에서 사고의 80%가 운전자의 부주의나 화나 있는 표정에 의해 일어나고 있다고 한다. 운전자의 시선이나 졸음의 등의 상태를 검지하는 기술의 연구는 진전되고 있는데,「당사는 분노를 시작으로 하는 감정을 탐지하는 것에 착안하였다」(Alaoui 씨)고 한다.

[NVIDIA사는 자동차 업계를 포위하는가]
「세계 최초의 딥러닝용 슈퍼컴퓨터다」---. NVIDIA사의 Jen-Hsun Huang CEO는 이렇게 말하며, GTC 2016의 기조연설에서 신제품「DGX-1」을 발표했다. 대량의 데이터를 사용한 딥러닝에 뛰어난 것이다. 동사가 2015년에 발표한 제품으로 25시간 걸렸던 학습을, 불과 2시간에 마칠 수 있다고 한다. 이 영역에서 현재, 맣은 연구현장이 동사의 GPU를 사용하고 있다. NVIDIA사는 DGX-1을 무기로 단단한 체제구축을 노린다.

  자동운전차의 “두뇌”로서 차량에 탑재하는 제품도, NVIDIA사는 준비하고 있다.「NVIDIA DRIVE PX-2」가 그것이다.이미 자동차메이커가 사용하기 시작했는데, PX-2는 소비전력이 250W로 상당히 크다. NVIDIA사의 담당자는,「PX-2는 어디까지나 개발플랫폼으로, 최적화하면 대폭 줄일 수 있을 것」이라고 주장한다.

이 영역에는 아직 왕자가 없고, 많은 반도체메이커가 뜨거운 시선을 보내고 있다.예로서 이스라엘의 Mobileye사는, 제 5세대 SoC「EyeQ5」를 개발하여, 2018년에  샘플출하를 시작한다. 12T(Terabyte)명령/초의 처리를 5W이하로 실현 가능하다. 처리능력과 함께, 소비전력의 낮음을 소구하는 전력이다.


    -- 끝 --

목차