구글의 Switch Transformer, 엄청난 전기를 필요로 하는 AI의 남용은 비도덕적
인간 뇌가 소비하는 에너지는 전력으로 환산하면 불과 20와트 정도로, 소비전력 수 백 와트의 GPU 수 백~수 천 개를 학습에 사용하는 최첨단 AI(인공지능)에 비하면 훨씬 에너지 효율이 뛰어나다. 이에 뇌의 움직임을 모방해 AI의 에너지효율을 도모하려는 움직임이 시작되고 있다. 그 대표적인 예가 구글의 언어 모델 Switch Transformer이다.
언어 모델은 최근 크게 주목 받고 있는 자연어 처리용 AI이다. 미국의 Open AI 재단이 2020년 6월에 발표한 언어 모델인 GPT-3는 마치 인간이 쓴 듯한 자연스러운 문장을 만들어 큰 화제가 되었다. 그러나 GPT-3는 엄청난 에너지를 소비한다.
GPT-3가 고성능인 것은 1,750억 개의 파라미터를 갖춘 기계학습모델에 45테라바이트(TB), 4,100억 단어로 이루어진 거대한 문서를 학습시켰기 때문이다. 이 학습에는 마이크로소프트가 개발한 세계 톱 5 안에 들어가는 규모의 슈퍼컴퓨터가 사용된다. 슈퍼컴퓨터에 탑재된 CPU 코어 수는 28만5,000개, GPU는 1만 개이며, GPT-3의 학습에 필요한 전력은 1,287MWh에 달한다.
스가(菅) 총리는 4월, 이산화탄소 등 온실가스 배출량을 2030년도까지 2013년 대비 46% 삭감하겠다는 목표를 공표했다. 일본을 포함한 전세계 국가들이 이산화탄소 배출량 감축을 목표로 하고 있는 상황에서 엄청난 전기를 소모하는 AI를 잇달아 만들어 남용하는 것은 비도덕적인 행위라고까지 말할 수 있을 것이다.
|