일본산업뉴스요약

애플, ‘Apple Glass’로의 착실한 포석 마련 -- 입체 음향 및 AR의 새로운 기능
  • 카테고리AI/ 로봇·드론/ VR
  • 기사일자 2020.6.26
  • 신문사 Nikkei X-TECH
  • 게재면 online
  • 작성자hjtic
  • 날짜2020-07-06 13:10:21
  • 조회수252

Nikkei X-TECH_2020.6.26

애플, ‘Apple Glass’로의 착실한 포석 마련
입체 음향 및 AR의 새로운 기능

‘사운드에 감싸이는 느낌을 체험하게 된다’---. 2020년 6월 22일에 시작한 미국 애플의 개발자를 위한 이벤트 ‘WWDC20’에서 애플은 완전 무선 이어폰 ‘AirPods Pro’ 전용의 입체 음향 기술을 발표했다. 입체 음향 기술은 애플이 최근 몇 년 간 주력 하고 있는 AR에 빠질 수 없는 요소다. 새로운 AR 기능도 많이 추가되어 개발 중인 것으로 알려져 있는 AR 글래스 ‘Apple Glass’로의 기반 다지기가 순조롭게 진행되고 있다.

새롭게 추가된 입체 음향 기술 ‘Spatial Audio(공간감 오디오)’를 사용하는 것으로, 좌우 이어폰의 2개의 스피커만으로 360도 방향에서 소리가 들리게 된다. 구조는 우선 가상 스피커를 주위에 배치한 상태로 만들어 거기에서 귓가까지의 전달 함수를 시뮬레이션 한다. 그 전달 함수 수치를 미리 곱한 값의 소리로 재생시킴으로써 마치 그 스피커에서 소리가 들리는 것 같이 느낄 수 있다.

Spatial Audio에서는 AirPods Pro에 탑재한 가속도 센서나 자이로 센서를 이용해 머리의 움직임을 검출하고 머리 방향에 맞추어 소리가 들리는 방향을 조정한다. 다시 말해, 뒤에서 목소리가 들려올 때 뒤를 돌아 보면 정확하게 정면에서 들리게 된다.

그 밖에 차량 등에서의 이동 중에 신체 전체의 방향이 바뀌면서 센서가 머리 방향을 잘못 인식해 소리의 방향이 바뀌지 않도록 화면과 머리의 상대관계를 파악하는 기능도 탑재한다고 한다.

-- 사운드 방향과 임장감(臨場感) 부여 --
Spatial Audio 등 입체 음향 기술이 AR에 필요 불가결한 이유는 AR 공간에서 소리의 방향을 알 수 있게 해 주기 때문이다. 예를 들어 현실공간에서는 뒤에서 차가 다가오는 것을 소리로 알아차리는 것처럼 소리의 방향은 정보로서 중요한 역할을 한다.

AR 공간에서 소리를 사용할 경우, 그 방향이 중요한 부가 정보가 된다. 예를 들어, 화면에 안내를 표시하는 내비게이션 용도의 경우, 화면에 일일이 영상을 AR로 표시하지 않아도 소리만으로 방향과 지시를 안내할 수 있어 화면을 주시하지 않아도 된다. AR 게임이라면 아이템 등을 찾을 때 단말기를 빙빙 돌릴 필요가 없어져 소리에 의해 찾는다는 게임성이 창출된다.

애플이 Spatial Audio에 대응한 이유는 AR 말고도 또 다른 이유를 찾을 수 있다. 그것은 영상 전달 서비스의 시청 체험을 향상하기 위한 것이다.

입체 음향 기술의 주된 역할은 이전부터 몰입감이나 임장감 등을 높이는 것에 있었다. 입체 음향 기술을 쓰면 만약 집에서 영화를 본다고 해도 마치 극장에 있는 것 같은 임장감을 느낄 수 있게 된다.

Spatial Audio는 5.1채널이나 7.1채널 서라운드, 미국 Dolby Laboratories의 ‘Dolby Atmos’와 같은 입체 음향 형식에 대응한다. 애플이 제공하는 영상 전달 서비스 ‘Apple TV+’와 제휴해 이러한 형식에 대응한 콘텐츠를 전송하면 경합 서비스에는 없는 강점을 손에 넣을 수 있다.

-- ‘AR 클라우드’ 실현을 위한 정밀한 공간 파악과 공유를 가능하게 --
애플이 제공하는 AR 라이브러리 ‘ARKit’도 ARKit 4로 버전업 되었다. ARKit 4에서는 주로 3개의 새로운 기능이 추가되었다. (1)'Depth API', (2)'Location Anchors', (3)얼굴 인식 의 기능 강화의 3가지이다.

이 중에서 주목해야 할 기능은 (2)의 Location Anchors이다. 왜냐하면 여러 단말기에서 동일한 AR 공간을 공유할 수 있게 되는 ‘AR 클라우드’를 실현할 수 있게 되기 때문이다. ‘포켓몬 GO’ 등으로 유명한 미국 Niantic(나이언텍) 등도 같은 기능의 개발에 주력 하고 있다.

AR 클라우드란 현실의 공간정보를 디지털화하여 클라우드에 저장하고 여러 대의 단말기(스마트폰 등)로 동일한 AR 공간을 공유하기 위한 기술 기반을 가리킨다. 기존의 AR에서는 AR 마커나 화상 인식의 결과로부터 주위의 장소를 특정하는 것이 많아, 그 공간을 공통의 좌표계로 나타내 보여 다른 단말기와 공유하는 방법이 과제였다.

이 과제를 해결하기 위해 애플은 LiDAR 센서로 얻은 정밀한 점군 데이터와 GPS 정보, 그리고 애플의 지도 데이터의 3개를 조합한 ‘위치 추적술(Geotracking)’이라는 수법을 도입했다.

위치 추적술에서는, 단말의 LiDAR 센서로 취득한 주위의 점군 데이터와 ‘Apple Maps’을 위해 수집한 3D 지도 데이터를 클라우드로부터 취득∙조회해 본인이 있는 장소를 특정한다. AR로 표시할 가상 객체는 위도, 경도, 고도 3가지 값을 지정하여 현실공간에 배치한다. 단말기의 GPS 정보를 사용해 위치를 보정함으로써 정확도를 높인다고 한다.

이 기능은 GPS와 iPhone XS에서 처음으로 탑재한 ‘A12 바이오닉(Bionic) 칩’ 이후 버전을 채택한 단말기로 이용할 수 있다. 하지만 사전에 해당 지역의 3D 지도 데이터를 수집해야 하기 때문에 현재는 미국 내 5개 도시에서만 이용할 수 있다. 향후, 서포트 지역이 확대된다면 세계 각지에서 이용할 수 있게 되어 AR 클라우드를 강화하는 유력한 플랫폼으로 이어질 것이다.

이 밖에, Depth API도 LiDAR 센서용 신기능 중 하나이다. Depth API를 이용하면 LiDAR 센서가 계측한 심도(深度) 정보를 픽셀 단위로 이용할 수 있게 된다. LiDAR 센서는 주위의 환경 인식 및 맵핑 뿐만 아니라 자연스러운 AR 표시가 가능하도록 현실 공간의 물체와 가상 객체의 전후 관계를 파악하는 ‘오클루전(Occlusion)’ 기능의 정확도 향상에도 활용할 수 있다.

물론 애플은 화상 인식에 의한 AR 기능의 성능도 향상시키고 있다. 예를 들어 얼굴 인식은 지금까지 Face ID에 사용하는 True Depth 카메라가 없으면 이용할 수 없었지만, ARKit 4부터는 A12 바이오닉 칩 이후 버전을 탑재하고 있으면 프런트 카메라만으로 얼굴 인식이 가능하게 되었다.

-- ‘Apple Glass’로의 기반 다지기가 진행 --
애플이 AR기술 개발에 나선 것은 현재 개발 중인 AR 글래스 ‘Apple Glass’ 때문인 것으로 추정된다. 거기에 탑재되는 핵심 부품은 2020년 3월 발매의 ‘iPad Pro’에 탑재되기 시작한 LiDAR 센서로 보여진다. ARKit 4에서의 기능 추가가 눈에 띄며, 앞으로는 아이폰 등에도 탑재가 진행될 것으로 보이기 때문이다.

애플이 목표로 하는 것은 B to C를 위한 시장인 것으로 사료된다. 이미 B to B 전용에서는 미국 Microsoft가 압도적인 점유율을 자랑한다. Microsoft의 HMD(헤드 마운트 디스플레이) ‘HoloLens’ 시리즈와 클라우드 서비스 ‘Microsoft Azure’의 제휴에 의해 디바이스에서 애플리케이션에 이르기까지 일관된 플랫폼 전개가 가능한 것이 압도적인 점유율을 차지하는 요인 중 하나가 되고 있다.

애플은 AR 기반 기술에 있어서 착실히 거대한 플랫폼을 형성하고 있다. 지금까지는 구글의 AR 라이브러리 ‘ARCore’와 대등한 존재였지만, 현재는 애플이 한 발 더 앞서 나간 상태다. 개발자가 AR 어플리케이션을 개발하기 쉬운 토양을 만들어 이용 환경으로서 디바이스를 제공하게 되면 견고한 플랫폼이 완성된다. 그것을 위한 기반 다지기를 애플은 착실하게 진행하고 있는 단계에 있다.

 -- 끝 --

Copyright © 2020 [Nikkei XTECH] / Nikkei Business Publications, Inc. All rights reserved.

목록