- 챗GPT 수준 AI를 스마트폰과 VR 디바이스에 구현 -- 퀄컴과 메타, 2024년 이후 온디바이스에서 이용 가능
-
- CategoryAI/ 로봇·드론/ VR
- 기사일자 2023.8.4
- 신문사 Nikkei X-TECH
- 게재면 online
- Writerhjtic
- Date2023-08-15 22:59:41
- Pageview299
Nikkei X-TECH_2023.8.4
챗GPT 수준 AI를 스마트폰과 VR 디바이스에 구현
퀄컴과 메타, 2024년 이후 온디바이스에서 이용 가능
미국의 퀄컴(Qualcomm Technologies)은 메타(Meta)의 대규모 언어 모델(LLM) ‘라마(Llama) 2’를 기반으로 한 AI(인공지능) 기술을 2024년 이후 온디바이스에서 이용 가능하게 할 방침이다. 대상은 스마트폰과 PC, VR(가상현실)/AR(증강현실)용 디바이스 등이다. 메타에 따르면, 라마 2를 이용한 채팅 모델을 사람이 평가한 결과, ‘챗GPT(Chat GPT)’ 수준의 성능을 보였다고 한다.
개발자는 퀄컴의 반도체 플랫폼 ‘스냅드래곤(Snapdragon)’을 이용해 생성 AI 앱을 유저에게 제공할 수 있게 된다. 예를 들면, 가상 어시스턴트나 생산성 향상 앱, 콘텐츠 제작 툴 등이다.
-- 양사에 이점 있어 --
대규모 언어 모델 개발은 비용과 시간이 많이 소요된다. 양사의 협업을 통해 퀄컴은 자사의 반도체 플랫폼에서 대규모 언어 모델을 신속하고 저렴한 비용으로 구현할 수 있게 된다.
메타에게도 이점이 있다. 메타가 주력하고 있는 VR 헤드셋 제품과 개발을 추진하고 있는 AR 글래스에 대규모 언어 모델을 구현하기 쉬워진다.
이전부터 퀄컴과 메타의 관계는 깊었다. 메타의 VR 헤드셋 '퀘스트 2(Quest 2)'에는 퀄컴의 반도체 제품이 채택되어 있다. 올해 출시될 예정인 신제품 ‘퀘스트 3’도 마찬가지이다. 또한, 개발 중인 AR 글래스에도 퀄컴의 제품이 탑재될 가능성이 높다.
VR 헤드셋이나 AR 글래스에서 중요한 것은 카메라 등 센서를 통해 주변 환경과 유저의 상황을 정확히 파악해 그것에 대응하는 기능을 유저에게 제공하는 기술이다. 또한, 제스처나 음성 등 컨트롤러를 이용하지 않는 입력 기술도 강하게 요구되고 있다. 대규모 언어 모델이 구현된다면 이러한 요소 기술의 정밀도 향상 등으로 이어질 수 있게 된다. 이번 제휴는 VR/AR용 디바이스 보급에 기여할 수 있을 것으로 보인다.
■ 키워드
대규모 언어모델(LLM): 수 백 억~수 천 억이라는 방대한 매개변수의 수를 가진 언어모델이다. 자연어 처리용이지만 어느 규모까지 거대화된 언어 모델이라면 다양한 목적으로 이용이 가능하다. 화상(畵像)이나 음악 제작과 같은 창작 분야, 단백질이나 화학물질의 생성이나 DNA나 RNA의 배열 해석 등 화학 분야 및 생물학 분야, 로봇 제어와 같은 제조업 분야 등 다방면에 걸쳐 이용할 수 있다.
-- 끝 --
Copyright © 2020 [Nikkei XTECH] / Nikkei Business Publications, Inc. All rights reserved.