니케이 일렉트로닉스 2023/12(1) 뜨겁게 달아오르고 있는 AI 반도체 시장

책 커버 표지
목차

요약

Nikkei Electronics_2023.12 특집 요약 (p422~65)

뜨겁게 달아오르는 AI 반도체 시장
10가지 의문을 통해 본질에 접근

세상은 그야말로 ‘대규모 언어 모델(LLM)의 시대’이다. 이러한 흐름에 힘입어 매출을 크게 늘리고 있는 것이 ‘H100 Tensor Core GPU’를 가진 미국의 엔비디아(NVIDIA)이다. 하지만, 엔비디아의 허점도 드러나기 시작했다.

LLM로 인해 GPU 이용이 폭발적으로 확산되면 전력 공급이 따라가지 못할 가능성이 있다는 것. 최근 전세계 기업들이 전력 효율이 좋고 코스트가 낮은 프로세서 개발에 나서고 있다. 10가지 의문을 통해 그 기술 및 동향을 살펴보자.

Q1. AI 반도체 시장은 확대되고 있을까?

A. 생성 AI에 대한 수요로 인해 AI 반도체 시장은 급속하게 확대되고 있다. 2027년에는 AI 반도체 시장 매출액이 2023년의 2배 이상인 약 18조 엔에 달할 전망이다. 시장을 견인하는 것은 엔비디아이다.

엔비디아가 2022년 10월에 출하를 개시한 ‘H100 Tensor Core GPU’의 대량 도입은 현재 생성 AI 서비스에서 경쟁하고 있는 기업에게 경쟁력의 원천이 되고 있다. GPU의 메인 무대는 게이밍 그래픽스에서 AI로 바뀌고 있는 것이다.

이러한 경향의 변화는 엔비디아의 결산에서 여실히 드러나고 있다. 엔비디아의 매출액은 미국 오픈AI의 '챗GPT'와 같은 생성 AI 관련 서비스로 인해 급성장하고 있다. 엔비디아의 2020년(2019년 2월~2020년 1월) 매출액은 약 110억 달러(약 1조 6,500억엔)였다. 2020년을 기준으로 하면 다음 해인 2021년에는 약 1.5배, 2022년과 2023년에는 약 2.5배 증가했다.

AI 반도체 시장 전체에서도 NVIDIA 제품이 차지하는 비율은 높다. 가트너에 따르면, 2023년 세계 AI 반도체 시장에 있어서의 예상 매출액은 534억 달러(약 8조 엔)로, 전년 대비 약 21% 증가했다. 이 수치를 통해 대략적으로 계산하면, 시장의 약 30%가 NVIDIA의 데이터센터용 GPU가 차지하게 된다.

AI 반도체 시장은 앞으로도 급격한 확대가 지속될 전망이다. 가트너는 ‘2027년에는 1,194억 달러(약 18조 엔)에 이를 것’이라고 예측. 2023년의 시장 규모와 비교해 2배 이상이 된다고 한다.

이러한 수요를 뒷받침하는 것은 우후죽순처럼 등장하고 있는 생성 AI 관련 서비스이다. 생성 AI를 이용한 대화형 서비스는 2022년의 챗GPT 서비스 개시에 이어 2023년 2월에는 마이크로소프트가 'NewBing', 구글이 'Bard'를 잇달아 제공하기 시작했다.

생성 AI의 용도는 대화뿐만 아니라, ‘DALL·E2’, ‘Midjourney’, ‘Stable Diffusion’과 같은 화상 및 동영상이나 음성, 프로그래밍 코드의 생성 등 다양하다. 2022년에 챗GPT와 Midjourney가 일반적인 이용이 가능해지면서 단숨에 주목 받게 되었다.

-- ASIC가 GPU를 대체할 것이라는 예측도 --
GPU뿐 아니라 심층학습의 학습/추론에 특화해 설계된 반도체인 AI처리용 칩(ASIC) 시장도 형성되기 시작하고 있다.

미국 거대 IT기업들이 앞다퉈 개발을 추진. 구글과 아마존닷컴은 이미 ASIC를 실용화하고 있다. 메타플랫폼(Meta Platforms, 구 페이스북)은 올 5월에 추론용 ASIC ‘MTIA’를 발표했다. 또한 복수의 미국 미디어에 따르면, 마이크로소프트도 ‘Athena 개발을 추진하고 있다.

화상 처리용 GPU와 비교해 ASIC는 효율적으로 추론/학습을 위한 계산 처리를 할 수 있다. 제품이나 계산에 소요되는 코스트에 대해서도 낮은 가격을 강점으로 내세우는 제품이 많다. “특히 생성 AI에 기반한 계산 처리에서는 현재의 주류인 범용 GPU에서 ASIC의 대규모 도입으로 전환될 것으로 보인다”라고 가트너는 예측한다.

Q2. 심층학습 처리는 무엇인가?

A. 동물의 신경회로를 참고한 기계학습 기법인 심층학습. 이것을 수학적 모델로 표현한 것이 벡터를 입력값으로 하고 그것에 행렬로 표현되는 ‘무게’를 곱한다는 것. 이 계산에서는 적화(積和) 연산이 방대하게 시행된다.

심층학습 모델이 응용하는 것은 동물의 뇌신경회로를 모방한 '뉴럴네트워크'이다. 뉴런이라고 부르는 단위가 전 단계에서 후 단계를 향해 연결되어 정보를 전달하는 네트워크이다. 다단계(다층)의 경우, 특히 딥뉴럴네트워크(DNN)와 이것을 이용한 기계학습이 심층학습(딥러닝)이라 불린다.

뇌신경회로에서는 전 단계에 있는 복수의 뉴런으로부터의 전기신호를 다음 뉴런이 받는다. 받은 신호의 총합이 기준인 임계치를 초과할 경우, 뉴런이 ‘발화’해 뉴런에 신호를 보낸다. 임계치를 초과하지 않을 경우, 신호는 보내지지 않는다.

이 모델을 컴퓨터상에서 처리하기 위해 입력을 숫자의 열(列)인 벡터로, 뉴런간 접속의 ‘무게’(연결 강도)를 행렬로 나타낸다. 심층학습에서는 이 벡터와 행렬의 곱을 계산하고 여기서 뉴런 발화의 용이성인 바이어스(Bias) 값을 뺀다. 이 결과가 양의 값이면 1, 음이면 0이 출력된다. 벡터와 행렬 곱의 계산은 요소간을 곱셈(積)하여 그 합(和)을 취하게 되므로 방대한 적화연산이 필요하다.

Q3. AI 반도체란 무엇인가?

A. 임의의 심층학습 모델에 적합한 계산 처리가 가능한 프로세서이다. 주로 GPU와 FPGA, ASIC가 있다. 대규모 언어모델(LLM)의 등장으로 계산량이 폭발적으로 증가해 초병렬·고효율로 처리할 수 있는 하드웨어가 요구되고 있다.

AI 반도체를 한마디로 표현하면 심층학습 모델 처리에 적합한 프로세서이다. 구체적으로는 GPU와 FPGA, AI처리 전용 칩(ASIC)을 가리키며, CPU를 포함하는 경우가 있다.

심층학습 모델 처리에서는 Q2에서 설명한 것처럼 행렬의 곱을 더하는 적화연산을 대량으로 실행한다. 심층학습 모델의 층이 깊어질수록 적화연산의 양은 늘어난다. LLM과 같은 500층 이상 모델을 처리하려면 초병렬 처리에 적합한 프로세서가 필요하다.

그래서 현재 많이 사용되는 것이 GPU이다. 심층학습 모델 처리에 GPU가 본격적으로 사용되게 된 것은 2012년부터. 심층학습 모델의 역사는 후쿠시마(福島) 박사가 1979년에 제창한 ‘네오코그니트론(Neocognitron)’부터 시작되어 길지만, GPU 이전에는 주로 CPU가 사용되었다.

Q4. 어떤 기업들이 AI 반도체를 개발하고 있는가?

A. 엔비디아의 GPU가 AI 분야에서 큰 성공을 거두자 강호인 AMD와 인텔이 심층학습 기능을 강화한 GPU를 개발하고 있다. ASIC는 미국의 거대 IT 기업군뿐만 아니라 전세계적으로 관련 스타트업이 생겨나고 있다.

엔비디아가 이끄는 AI 반도체 시장의 이면에서 AI처리 전용 칩(ASIC) 개발이 가속화되고 있다. 미국의 거대 IT 기업군은 자사의 제품이나 서비스의 용도에 최적화된 효율적인 프로세서를 개발. 전세계 스타트업들도 GPU보다 빠르고 전력 효율이 뛰어난 ASIC로 엔비디아의 패권에 도전장을 내밀고 있다.

ASIC에서는 반도체 제조사가 아닌 대기업들도 활발하게 개발을 추진하고 있다. 그것을 선도한 것은 구글이 2016년에 발표한 ‘Tensor Processing Unit(TPU)’이다. 처음에는 자사의 데이터센터용으로 개발했지만, 2018년부터는 'Cloud TPU'로서 외부에 클라우드를 통해 제공하기 시작했다.

자사 제품용으로 ASIC를 개발하는 기업들도 있다. 예를 들면, 메타플랫폼스가 개발한 ‘MTIA’는 메타플랫폼스의 SNS ‘페이스북’ 등에서의 추천 기능 강화용, 테슬라는 자율주행용으로 ‘D1’을 개발했다.

스타트업 기업들의 상당수는 엣지 추론용으로 개발을 추진하고 있다. 그 이유는 GPU가 전력을 확보하기 쉬운 클라우드용에서 압도적인 점유율을 가지고 있기 때문이다. 엣지에서는 전력효율이 가장 중요한 사항이 된다.

Q5. 엔비디아는 왜 AI 반도체에서 독주하고 있을까?

A. 주로 AI처리 용도에서의 선행자 이익과 우수한 성능 때문에 채택이 확대되고 있다. 2006년부터 GP(범용) GPU 개발 환경 ‘CUDA’를 제공하고 있다. 구글의 Transformer는 NVIDIA의 GPU를 전제로 설계되었다.

선행자 이익은 엔비디아가 AI 반도체 시장에서 독주하는 가장 큰 이유 중 하나이다. 엔비디아는 2006년부터 CUDA(Compute Unified Device Architecture)를 공개해 일찌감치 GPU를 과학 계산 용도로 확대했다. 이것이 심층학습 연구 개발에서도 활용. 2022년에 LLM용으로 'H100 Tensor Core GPU'를 출하하기 시작, 전세계적으로 H100 부족 현상을 일으키기까지 했다.

그 힘의 원천 중 하나인 CUDA는 무엇인가? 단적으로 말하면, CPU(MPU)에서 엔비디아의 GPU에 대해 초병렬 처리 명령을 보내 실행 처리를 할 수 있도록 하기 위한 소프트웨어 개발 환경이다. C언어로의 개발 환경과 함께 GPU·MPU간의 데이터 통신 기능과 단순한 반복 명령을 초병렬 처리로 대체하는 기능이 추가되었다.

Q6. Transformer란 ?

A. 2017년 구글의 연구자가 제창한 심층학습 모델로, '챗GPT' 등에 사용되고 있다. ‘어디에 주목할 것인가?’를 중시함으로써, 자연어 처리에서의 정밀도 및 처리 속도를 대폭 높였다.

오픈AI의 '챗GPT'는 2022년에 공개되자마자 그 정밀도에 세계가 충격을 받았다. 이 챗GPT는 오픈AI의 LLM인 ‘GPT(Chat Generative Pre-trained Transformer)’를 기반으로 한다. Transformer야말로 LLM의 근간이라고 할 수 있다.

Transformer는 인코더(부호기)와 디코더(복호기)로 구성되어 있으며, ‘어디에 주목할 것인가’를 중시하는 어텐션을 중심으로 하고 있다. 대규모 병렬 처리를 위한 모델로, GPU에서의 처리를 상정해 설계되었다.

Q7. 왜 AI 처리 전용 칩이 필요한가?

A. 전력이나 코스트 측면에서의 과제로 인해 심층학습 모델 처리에 최적화된 프로세서가 필요하다.

AI 처리 전용 칩(ASIC)은 기존의 GPU가 가진 과제 해소를 위한 프로세서이다. 심층학습 모델의 정밀도가 향상되면서 산업에서의 본격적인 활용이 시작된 2010년대 후반부터 등장하기 시작했다.

ASIC 제조사가 경쟁하고 있는 GPU란 엔비디아의 GPU, 특히 최근에는 ‘H100 Tensor Core GPU’를 가리키는 경우가 대부분이다. 이것이 가지고 있는 과제는 크게 나누어 2가지가 있다. (1)제품 가격과 전력 소비에 수반되는 전기요금이 비싸다 (2)GPU는 심층학습에 최적화되어 있지 않다.

(1)의 경우, Q5에서 언급했듯이 H100은 고가이다. H100이 탑재된 서버 ‘DGX H100’의 최대 소비전력은 10.2kW로 크고, 전기요금도 그만큼 많이 든다.

(2)의 경우, GPU는 원래 화상 처리용이지만, 현재 범용적인 과학기술 계산을 지원하기 때문에 심층학습 모델 처리에 불필요한 회로도 많다. LLM에서는 파라미터 수가 현격히 늘었지만 그 내용을 보면 대부분이 0이다. 이른바 희소성이 높아 GPU와 같은 범용적인 처리에는 적합하지 않다.

“2010년대의 심층학습은 대량의 소규모 밀집행렬 연산(Dense Matrix)이라고 하는 GPU가 강한 분야였다. 2020년대의 LLM부터는 소성이 높은 연산, 성긴행렬 연산(Sparse Matrix)이 주를 이루고 있어 GPU에서는 대량으로 쓸데없는 계산을 해 버린다”라고 ASIC를 개발하는 미국 SambaNova Systems APAC의 구지라오카(鯨岡) 제너럴 매니저는 설명한다.

Q8. 일본 기업의 AI 처리 전용 칩 개발 동향은?

A. 국내 스타트업 수는 아직 적지만, 전력 효율성에 주력한 ASIC를 개발하는 기업들이 눈에 띈다. LLM 전용 ASIC에서는 Preferred Networks와 LeapMind가 개발을 추진하고 있다.

일본 정부도 AI 관련 개발 지원에 나서기 시작했다. 2019년부터 약 1,000억 엔을 유지하고 있던 AI 관련 예산이 2024년도 개산 요구액에서 약 1,600억 엔으로 증액되었다. AI 반도체에는 165억 엔을 배정해 국내 업계 저변을 넓힐 방침이다.

Q9. CiM(Computation in Memory)은 어떤 기술?

A. 메모리와 연산기를 일체화함으로써 기존의 과제인 메모리의 데이터 이동에 사용되는 전력을 대폭 낮출 수 있는 기술이다. ASIC 스타트업 외에도 TSMC와 삼성전자가 연구개발을 추진하고 있다.

“연산 성능 향상을 방해하는 주된 요인은 (이제는) 트랜지스터의 집적도가 아니라, 전력이다”. 미국 Stanford University는 2014년의 국제 학회 ‘IEEE International Solid-State Circuits Conference’에서 전력이라고 하는 새로운 반도체의 율속(律速) 요인을 언급했다. GPU와 같은 기존의 프로세서에서는 그 전력의 대부분이 메모리 간의 데이터 이동에 사용된다. 전력 효율을 비약적으로 높이기 위해 CiM과 같은 기술로 메모리 액세스의 본질을 바꿀 필요가 나오고 있다.

Q10. 시장은 앞으로 어떻게 되는가?

A. 데이터의 이동을 최대한 억제할 수 있는 프로세서 개발이 가속화될 것이다. AI 반도체 시장은 현재 학습용이 주를 이루고 있지만 산업에서의 수요 확대에 의해 엣지에서의 추론용 시장이 급격하게 확대될 전망이다.

“GPU의 성능이 단번에 향상된 것은 2010년경이지만, 1개의 아키텍처의 수명은 15~20년으로 여겨지고 있다. 이제는 GPU를 대체할 새로운 아키텍처가 나올 시기” 라고 
병렬 연산 슈퍼컴퓨터 ‘GRAPE’ 시리즈 개발자로 알려진 고베(神戶)대학 이학연구과 행성학 전공의 마키노(牧野) 교수는 예측하고 있다. 

LLM의 탄생으로 AI 업계는 크게 변모했다. Q7에서 언급한 것처럼 LLM 데이터의 높은 희소성에 기인하는 메모리 용량이나 계산의 낭비, GPU와 메모리간의 데이터 이동에 드는 대규모 전력 등의 과제가 부각되고 있다. AI처리 전용 칩(ASIC)이 에코시스템 형성 등 장벽을 넘을 수 있다면 단번에 보급으로 이어질 수 있다.

원문: 沸騰、AI半導体 | 日経クロステック(xTECH) (nikkei.com)

 -- 끝 --

Copyright © 2020 [Nikkei Electronics] / Nikkei Business Publications, Inc. All rights reserved.

TOP

목차

Hot News
• 마이크론의 D램에 소니의 센서, 경쟁사도 사용하는 갤럭시 S23 울트라
이번 타깃: 삼성전자의 ‘갤럭시 S23 울트라’
• 일본 최초의 주행 중 급전 공공도로 실증실험, 도쿄대학 등이 지바 현 가시와 시에서 개시
2028년에 오사카 시내버스를 이용한 실증 추진
• 도요타와 이즈미츠(出光)가 전고체 배터리 협업, 양산기술 개발부터 사업화까지
초급속충전과 고에너지밀도를 목표로
• 파나소닉홀딩스가 전고체 배터리 개발, 3분만에 충전 가능
당초 용도는 조사용 드론용일까?
• 훙하이(鴻海)의 자회사와 캐나다의 배터리 업체 제휴, 2026년에 전고체 양산할까?
히터 불필요, 고에너지 밀도의 4세대 제품을 목표로
• 유기EL의 레이저 버전이 2026년에 실용화, 발광색 자유자재
30년에 걸쳐 과제 하나씩 극복
• 라퓨타로보가 개발한 자유 레이아웃의 자동 창고, 높이 8cm 슬림형 로봇이 종횡무진  기존 시설에도 설치 가능, 피킹 작업의 시간 낭비를 제로로
• 인텔이 12월에 PC용 차기 MPU 출시, 구성 칩렛의 4분의 3이 TSMC 제품
CPU 코어가 3종류, AI/비전 처리용의 새로운 코어도 내장
• 마이크로파로 도전성 섬유를 극도로 가늘게, 투명 도전 필름을 고성능으로
대일본인쇄와 마이크로파화학, LiDAR용으로 공급
• OKI와 신에츠화학(信越化学)이 GaN의 박리 접합 기술 개발, 세로형 파워 디바이스
8인치 이상의 대구경화의 길 열어
• 덴소와 미쓰비시전기가 SiC기판 확보 추진, 미국 Coherent에 총액 1,500억 엔 출자
SiC 사업체 주식의 12.5%씩 보유
Breakthrough 特集1
• 뜨겁게 끓어오르는 AI 반도체
~10의 의문으로 본질에 다가선다~
• Q1. AI 반도체 시장은 활성화되고 있나?
• Q2. 심층학습 처리는 어떤 것인가?
• Q3. AI 반도체란 무엇인가?
• Q4. 어떤 기업이 AI 반도체를 개발하고 있나?
• Q5. 엔비디아가 AI 반도체에서 독주하는 이유는 무엇인가?
• Q6. Transformer란 무엇인가?
• Q7. 왜 AI 처리 전용 칩이 필요한가?
• Q8. 일본 기업의 AI 처리 전용 칩 개발 동향은?
• Q9. CiM(Computation in Memory)은 어떤 기술인가?
• Q10. 시장의 앞으로의 동향은?
Emerging Tech&Biz
• 그린 연료 -- 그린암모니아 계획 급증, 광저우자동차그룹이 연소 엔진 개발
• 로봇 -- 프리퍼드의 가사 도우미 로봇이 보여주는 가까운 미래, API 공개와 생성 AI 활용으로 여는 새로운 경지
• 실험 -- 아이폰15 시리즈는 정말 발열이 심할까? 서모그래피 카메라로 조사
닛케이크로스텍의 호평 기사 순위
• 2023년 10월의 닛케이크로스텍 호평 기사 순위
New Products Digest
•' X in 1'이 대형 부품공급 업체에까지 파급, 발레오가 6개 부품 통합한 전동 액슬 개발
Readers' Voice
• EV로의 광무선 급전에 대한 기대


TOP