- 일경컴퓨터_2020/09/03(2)_세계 최고의 AI 분야 슈퍼컴퓨터는? -- 구글日経コンピュータ
-
- 저자 : 日経BP社
- 발행일 : 20200903
- 페이지수/크기 : 98page/28cm
요약
Nikkei Computer_2020.9.3 GAFA심층기사 (p97)
세계 최고의 AI 분야 슈퍼컴퓨터는?
구글의 도전장을 분석
슈퍼컴퓨터 랭킹은 매년 6월과 11월에 발표되는 TOP500이 유명하다. 이번에도 일본의 활약이 화제가 되었다. 그러나 인공지능(AI) 분야에서는 다른 슈퍼컴퓨터 랭킹이 유명하다는 것을 알고 있는가? 20년 7월 말에 공개된 기계학습 벤치마크 ‘MLPerf’의 최신 결과에서는 미국 구글의 좋은 성적이 눈에 띄었다.
MLPerf는 구글과 중국 바이두, 미국의 하버드대학, 스탠포드대학, 캘리포니아 대학교 버클리의 주도로 18년에 만들어진 ‘MLPerf 컨소시엄’이 책정하는 기계학습 벤치마크다. 기계학습 성능을 훈련(트레이닝)과 추론으로 분리해 계측할 수 있도록 복수의 태스크를 준비하고 있다. 그 트레이닝에 관한 최신 결과가 20년 7월 29일에 공개되었다.
구글은 7월 30일, 그 결과를 바탕으로 “기계학습의 트레이닝용에서는 세계 최속의 슈퍼컴퓨터를 사용해 AI 성능의 기록을 경신했다”라고 발표했다. 최신 MLPerf Training v0.7에는 이미지 분류, 물체 인식, 기계번역, 자연언어처리, 레커멘데이션, 강화학습이라는 태스크에 관한 8종류의 벤치마크가 있다. 구글은 8종류 중의 6종류의 벤치마크에서 최고 성능을 기록한 것을 근거로 자사의 AI 슈퍼컴퓨터를 ‘세계 최속’이라고 주장하고 있다.
-- 연간 횟수로는 측정하지 못한다 --
MLPerf가 생겨난 목적은 다양한 기업이 개발하는 AI 전용 칩의 성능을 비교하는 데 있었다. AI 전용 칩은 CPU나 GPU와 구조가 크게 다르기 때문에 단순한 연산 횟수만으로 성능을 비교하는 것은 어려웠기 때문이다.
또한 기계학습의 경우, 연산효율과 추론정밀도(기계학습 모델의 정밀도)에는 트레이드오프의 관계가 존재한다. 예를 들면 모델을 트레이닝할 때의 배치 사이즈(Batch Size, 학습 데이터의 사이즈)를 늘리면 트레이닝의 효율(스루풋)은 오르지만 대신에 모델의 정밀도는 떨어진다. 트레이닝을 분산 처리하는 것에 의해서도 정밀도가 떨어지는 일이 있다. 즉 정밀도를 희생해 트레이닝 시간의 짧음을 경쟁해도 의미는 없다는 것이다.
그래서 MLPerf에서는 기계학습 모델의 정밀도를 ‘그 시점에서의 최고 수준’에 고정하고, 트레이닝 시간의 짧음을 경쟁시킨다. 또한 기계학습 모델의 정밀도를 맞추기 위해 기계학습 모델의 방식이나 트레이닝에 사용하는 데이터 세트도 고정한다.
또한 MLPerf의 벤치마크의 내용을 매년 경신하고 있다. 이번 계측부터 사용되기 시작한 MLPerf Training v0.7에서는 자연언어처리를 극적으로 바꾸기 시작한 BERT가 벤치마크에 처음 채용되었다.
슈퍼컴퓨터의 세계에서 벤치마크로서 사용되는 LINPACK나 SPEC에 관해서는 ‘어디까지나 벤치마크이며, 실제 어플리케이션의 성능을 알 수 없다’는 비판이 따른다. 그에 대해 MLPerf는 ‘지금, 기계학습의 실무 담당자가 사용하고 싶은 태스크’에 관해 성능을 측정하려 하고 있다. 구글이 MLPerf의 결과를 중시하는 것은, ‘실제 성능에서 AI 슈퍼컴퓨터 세계 제일’이라고 주장하는데 있을 것이다.
구글은 이번에 자사 개발한 AI 칩 TPU v3를 탑재한 슈퍼컴퓨터만이 아니라 AI 칩의 차세대판으로 상세 내용을 공개하지 않는 TPU v4를 탑재한 슈퍼컴퓨터의 벤치마크도 공개했다. TPU v3를 4,096개 탑재한 슈퍼컴퓨터와 TPU v4를 256개 탑재한 슈퍼컴퓨터를 비교. 전체 성능에서는 전자의 슈퍼컴퓨터가 웃돌지만 칩 수를 64개로 맞추면 TPU v4의 성능은 TPU v3와 비교해 2.2~3.7배나 향상됐다고 한다. AI 슈퍼컴퓨터 세계 제일을 둘러싼 레이스는 앞으로도 계속될 것으로 보인다.
-- 끝 --
Copyright © 2020 [Nikkei Computer] / Nikkei Business Publications, Inc. All rights reserved.
목차