- 일경 일렉트로닉스_2017/01_AI Chip 창세기Nikkei Electroincs
-
- 저자 : 日経BP社
- 발행일 : 20161210
- 페이지수/크기 : 162page/28cm
요약
Nikkei Electronics_2017.1. Breakthrough특집요약 (p31~53)
AI Chip 창세기
거대한 잠재시장에 대한 기대
Part 1. 시작된 진화
엣지는 초지각(超知覺), 클라우드는 예지(叡智)의 엔진으로
인공지능(AI)의 처리를 고속화하는 전용 칩의 개발이 전세계에서 시작되었다. 엣지 용은 사람의 오감을 뛰어넘는 지각의 실현, 클라우드 용은 빅데이터에 잠재되어 있다고 알려진 예지를 발굴하는 엔진이 된다는 것이 당면한 목표이다. 단 그 아키텍처는, 연구개발의 진보에 따라 크게 바뀔 가능성이 있다.
미국의 Intel이 말하고 싶었던 것은, 지금이 컴퓨터의 역사를 구분 짓는 전환점이다라는 것이다. 2016년 11월 17일, 이 회사는 미국 샌프란시스코에서「Intel Al Day」를 개최했다. 인공지능(AI)의 실행을 위해 신형 칩을 소개하고, 직접 AI의 시장을 이끌어갈 것이라고 소리 높여 선언했다. 예전부터 PC와 서버기기, 클라우드 라고 하는 종목마다 패권을 쥔 자부심을 보였다.
이와 같은 목표를 가진 것은 인텔만이 아니다. AI의 처리를 가속하는 신형 프로세서의 개발에, 유명한 기업들이 참여하고 있다. 2016년 10월 말, 삼성전자가 심층학습 프로세서를 개발하는 영국의 Graphcore에 출자한 것이 판명되었다. 11월 말에는 후지츠가 신개발의 심층학습 칩을 2018년도에 발매한다고 발표했다. 미국 구글은, 직접 설계한「TPU(Tensor Precessing Unit)」가, 바둑의 최고 기사에게 압승한 소프트웨어「알파고」에 사용된 것을 같은 해 5월에 이미 공표했다.
인공지능의 추론과 학습을 고속으로 실행 가능한「AI 칩」의 진화가 시작되었다. 크게 두 가지 방향으로, 시장의 개척이 진행될 전망이다. IoT의 에지 측과 클라우드 측이 있다. 각각이 AI 칩에 요구하는 특성은 크게 다르고, 각기 다른 진화의 경로를 나아갈 것이다. 어떤 용도에서도, 현재 주류인 GPU를 능가할 성능을 목표로 하는 다양한 제안이 있다. 무엇이 주류가 될지는 아무도 모른다. 미래의 전자기기의 두뇌를 둘러싼, 치열한 레이스가 시작되었다.
-- 엣지는 추론, 클라우드는 학습 --
각 회사를 움직이는 것은 거대한 잠재시장에 대한 기대이다. 미국의 조사회사 Tractica는, 심층학습용 프로세서 등을 포함하는 AI 용 CPU의 시장은, 2016년의 약 11억달러에서 2025년에는 574억 달러가 넘는, 50배 이상으로 성장한다고 본다.
대시장을 예상하는 근거는, 기존의 기술로 불가능했던 기능을, AI의 진보로 실현하는 가능성이 있다는 것이다. 그 원동력이, 현재의 AI 붐의 주역이라고 말할 수 있는 심층학습이다. 심층학습 기술로 학습시킨 딥 뉴럴 네트워크(DNN)은, 화상과 음성을 포함한 다양한 패턴 인식으로 사람을 뛰어넘는 특성을 획득해나가고 있다. 학습의 알고리즘에는 범용성이 있고, 할당된 데이터를 바꾸는 것으로 많은 용도로 전개할 수 있다.
AI 칩의 목표의 한 가지는, DNN의 높은 인식능력은 에지 측의 기기에 부여하는 것이다. 센서에 직접 연결한 AI 칩으로 높은 정확도의 패턴 인식이 가능하다면, 기존에 불가능했던 제어와 정보처리가 가능하게 된다. 대표적인 예가, 자율주행차와 자율주행로봇, 침입자를 발견할 수 있는 감시카메라와, 직접 고장을 판단하는 공작기계 등이 있다.
다양한 종류의 센서와 AI 칩을 조합하는 것으로, 기계의 지각은 사람의 오감을 뛰어넘을 것이다. 즉「초지각」을 전자기기에 전수하는 것이, 에지 측의 AI 칩의 첫 번째 목표이다. 그러기 위해서는 DNN을 사용한 추론을 저전력이며 고속으로 실행하는 것이 중요해진다.
심층학습의 또 한가지 대단한 점은, 데이터에 잠재된 중요한 패턴을 직접 발견해내는 것이다. 심층학습 시킨 화상인식용 DNN이, 처음 본 사진에서도 사람과 고양이를 판별할 수 있는 것은, 학습에 사용한 대량의 데이터에서, 사람과 고양이의 화상의 특징을 자동적으로 유출하여 활용하고 있기 때문이다. 숨겨진 특징을 발견해내는 능력을 빅데이터의 해석에 활용한다면, 지금까지 사람이 눈치채지 못했던 새로운 지식이 탄생할 수도 있다. 질병의 원인규명과 신재료의 개발이라고 하는 수많은 난문의 돌파구가 될 것이다.
클라우드 측의 AI 칩에 요구되는 것은, 지식을 발견해내는 능력을, 고속의 연산성능으로 인해 큰 폭으로 가속화하는 것이다. 새로운 예지를 발견하는 엔진 역할을 AI 칩이 담당하는 것이다. 그러기 위해서 필수적인 것이, 대규모이며 복잡한 DNN을, 방대한 데이터를 사용하여 고속으로 학습시키는 성능이다.
-- 자율주행차가 기폭제로 --
-- FPGA와 클라우드 칩도 노린다 --
-- 학습의 초고속화가 AI진화의 열쇠 --
-- 아키텍처는 연구에 달려있다 --
Part 2. 엣지
자율주행차의 시각을 강화, 차량용과 범용품이 경쟁
뉴럴 네트워크(Neural network)를 활용한 화상인식을, 자동차에서 이용하기 위한 반도체 제품이 갖춰지기 시작했다. 차량용을 전면에 내세운 제품과, 다양한 화상처리에 사용할 수 있는 범용적인 제품으로 크게 두 가지로 나뉘어진다. 이 시장에서 살아남은 제품이, 에지 측의 AI 칩의 모델이 될 전망이다.
뉴럴 네트워크를 사용한 화상인식은 계산 부하가 상당히 크다. 예를 들어 NTT COMWARE가 감시 카메라 용으로 개발한 DNN(Deep Neural network)은, GPU보드가 들어간 일반 PC를 사용하여 인식시킨 경우에, 한 장의 화상을 처리하는 데에 0.25초가 걸린다고 한다.
자동차 용의 화상인식은, 이것보다도 고속, 저전력으로 실행해야만 한다. 시속 100km로 주행하고 있는 자동차는, 1초간에 28m를 이동한다. 만일의 사고를 피하기 위해서는 수 십ms 단위의 인식속도가 필요하다. 게다가, 차내에 어디에 두는가에 달려있지만, 어디에 있더라도 냉각 팬 없이 구동하기 위해서 전력은 5W 이하로 할 필요가 있다고 한다.
이러한 엄격한 조건을 충족시키고, 에지 용 AI 칩의 모델을 목표로 하는 제품이 잇따라 나오고 있다. 크게 나누어서, 차량을 전제로 하는 제품과, 차량을 포함한 폭 넓은 용도를 목표로 하는 제품의 두 가지가 있다. 전자는 DNN의 설계를 포함한 소프트웨어 개발의 부담을 경감시킬 수 있지만, 제공된 소프트웨어를 사용하는 것 만으로는 타사제품과 차별화가 어려워진다. 후자의 제품은 자유도가 높은 만큼, DNN 개발의 능력을 자사에서 갖춰야만 한다. 어떤 제품이 우세인지를 파악하기 위해서는, 2020년 이후로 보여지는「레벨 4」급의 자율주행차의 실용화 동향을 지켜봐야 할 필요가 있을 것이다.
-- 자율주행 소프트웨어 까지 준비 --
-- 기존의 화상인식기술도 병용 --
-- 군웅할거의 IP 코어 --
-- DNN의 자사 개발이 필요로 --
-- GPU와 전용회로를 조합시킨다 --
-- FPGA의 활용도 활발 --
-- 소프트웨어로 대응할 수 있는 경우도 --
Part 3. 클라우드
두뇌에 근접한 아성을 공략, 독자의 아키텍처 속출
DNN의 학습을 고속 실행하는 전용 프로세서의 개발 경쟁이 치열하다. 미국의 Intel을 필두로, 후지츠와 국내외의 벤처기업이, 독자의 아키텍처로 경쟁한다. 현재 시장을 지배하는 미국의 NVIDIA를 추격하고, 확대되는 시장의 톱이 되는 것을 목표로 한다.
세계최대의 반도체 회사가, 알 만한 사람은 다 아는 벤처기업의 이름에 자사의 미래를 맡기는 일은 아주 드문 일이다. 인텔은 2016년 11월, 인공지능 용의 제품군을「Intel Nervana」포트폴리오라고 명명했다. 동시에, 이름의 유래가 된 미국의 Nervana Systems의 심층학습 용 LSI를,「Lake Crest」의 명칭으로 주력제품의 한 가지로 정의했다. 목적은 DNN의 학습용도에서 독주하는 엔비디아의 추격이다. 그러기 위해서는 기존제품의 강화만으로는 부족하고, 이번의 사례의 발표로 이어졌다.
DNN의 학습용 칩의 시장을 노리고, 전용 칩의 개발 프로젝트가 차례차례로 부상하고 있다. 일본에서는 후지츠와 벤처 기업의 Deep Insights, 해외에서는 삼성전자가 출자하는 영국의 Graphcore와, 미국 NASA의 장관을 지낸 Daniel Goldin씨가 창업하여 1억달러의 자금을 모은 미국 KnuEdge 등, 개성적인 회사들이 모였다. 각자가 채용하는 아키텍처도 독특하다. 각 회사의 제품이 갖추어지는 2017년 이후에, 확대를 시작한「예지의 엔진」의 시장에서 경쟁을 펼칠 전망이다. “심층학습을 하드웨어에 효율적으로 실장하는 방법은 몇 가지나 있다. 아직 만회할 수 있다.”(고베대학 이학연구과 마키노 교수)
-- 대규모 병렬과 국소 메모리가 열쇠 --
-- 수 십만 칩을 접속 --
-- 자계결합과 데이터 플로 형도--
●FPGA를 범용 액셀러레이터로, 언젠가는 이종 프로세서 종합환경도
서버 기기의 범용적인 연산 액셀러레이터로써 FPGA를 이용하기 위한 기술 개발이 추진되고 있다. 미국 마이크로소프트는, FPGA를 데이터 센터에서 활용하기 위한 새로운 아키텍처「Configurable Cloud」를 2016년 10월에 발표했다. 그 유력한 용도의 한 가지로 보는 것이, DNN의 추론처리이다.
이 회사는 2014년에 FPGA를 액셀러레이터로 사용하는 기술「Catapult」를 이미 발표했다. 이번의 발표에서는, 하드웨어의 구성을 일신했다. FPGA를 서버 기기의 네트워크 카드와 그것들이 연결되는 스위치의 사이에 삽입하고, 그 위에 PCI Express로 프로세서와도 연결하는 형태를 채용했다. 이것으로 인해, FPGA를 연산 액셀러레이터와 네트워크의 액셀러레이터의 양쪽으로 이용할 수 있고, 거기에 네트워크 상에 분산하는 FPGA를, 다양한 서버에서 유연하게 이용 가능하게 된다고 한다. 이 회사의 데이터센터에 순차 도입해 나갈 계획이다.
-- 심층학습 칩, FPGA, GPU 등을 혼재 --
마이크로소프트가 이러한 연구를 하는 것은, 무어의 법칙이 무너진 후에 성능을 높이는 한 수단으로 정의하고 있기 때문이다. FPGA에 한정되지 않고, 언젠가는 특정의 처리를 위한 복수의 전용회로를 조합시켜 성능을 높이는 수단이 확산될 가능성이 있다.
이러한 미래를 상정하는 것이, 신에너지∙산업기술종합개발기구(NEDO)의「에너지절약 AI 엔전과 이종 엔진 통합 클라우드로 인한 인공지능 플랫폼」프로젝트이다. 다양한 전용 하드웨어를 통일적으로 다루는 서버 기기의 하드웨어와 소프트웨어의 아키텍처를 찾는다. 이 프로젝트의 일환으로 디지털 미디어 프로페셔널(DMP)이 개발하는 DNN의 추론과 학습용의 전용 칩에 더해, FPGA와 메모리, 미래에 등장할 양자 컴퓨터, 두뇌형 칩 등의 자원을 자유로이 조합시켜 사용하는 것을 상정한다. 데이터의 흐름에 따라 이것들을 최적으로 접속시키는 것으로, OS 등의 불필요한 처리를 개재하지 않고 고속 동작을 가능하게 한다고 한다. 프로젝트의 최종연도(2020년도)까지 샘플을 개발할 예정이다.
Part 4. 인터뷰
열려있는 세계 최고속 AI 기반, 그곳에 일본의 승기가 있다
산업기술종합연구소 인공지능연구센터 마츠오카 씨
2017년도 4분기를 기준으로, 인공지능(AI)의 학습에서 세계 최고속의 환경을 클라우드 위에 구축하고, 일본의 관련산업을 진흥한다. 산업기술종합연구소가 내놓은 계획은, 지금까지는 해외 기업에 뒤쳐져 있다는 위기감의 반증이다. 계획을 주도한 산업기술종합연구소에서 도쿄공업대학교수인 마츠오카 씨에게, 일련의 계획의 목적과 승산을 물었다.
-- 끝 --
목차