일본산업뉴스요약

‘AI 과격파’의 대두와 대립 -- 오픈AI의 집안 싸움으로 부각
  • 카테고리AI/ 로봇·드론/ VR
  • 기사일자 2023.11.24
  • 신문사 Nikkei X-TECH
  • 게재면 online
  • 작성자hjtic
  • 날짜2023-12-03 21:04:16
  • 조회수167

Nikkei X-TECH_2023.11.24

‘AI 과격파’의 대두와 대립
오픈AI의 집안 싸움으로 부각

11월 17일(미국 시간)부터 시작된 오픈AI(OpenAI)의 집안 싸움. 사람들이 당혹스러워하는 것은 왜 이사회가 알트먼 CEO를 해임했는지, 그 이유를 알 수 없기 때문이다. 이 수수께끼는 알트먼의 CEO 복귀가 발표된 본 컬럼 집필 시점에서도 아직 밝혀지지 않았다.

“이사회가 알트먼 CEO를 해임한 이유는 안전성에 관한 의견 차이가 아니다. 전혀 다른 이유가 있었다”. 이사회가 11월 19일에 새로운 임시 CEO로 선임한 게임 실황 전송 서비스 ‘Twitch’의 전 CEO인 시어는 X(구 트위터)에서 이렇게 말했다.

시어는 X에서 이번 문제에 대해 독립된 조사위원회가 30일 이내에 보고서를 낼 것이라고 밝혔다. 하지만 일부러 ‘AI(인공지능)의 안전성에 관한 의견 차이가 원인은 아니다’라고 언급한 것은 그것이 알트만 CEO의 해임 이유라는 견해가 외부에서 많았기 때문이다.

그렇게 추측된 가장 큰 이유는 알트먼에게 CEO 해임을 통보한 사람이 오픈AI의 수석 사이언티스트인 수츠케버였다는 점이다. 이 사실은 알트먼과 함께 이사회에서 해임된 브록맨(그때까지 오픈AI의 회장 겸 사장)이 X에서 밝혔다.

-- 해임을 알린 수츠케버는 어떤 인물인가? --
알트먼, 브록맨과 함께 2015년에 오픈AI를 공동 창설한 수츠케버는 딥러닝(심층학습) 분야의 저명한 연구자이다. 딥러닝의 아버지로 불리는 힌튼 교수의 제자로, 딥러닝에 GPU(영상처리반도체)를 응용해 큰 성과를 거둔 ‘AlexNet’을 공동 개발한 것과 딥러닝을 응용한 문장 생성 AI의 선구자인 ‘seq2seq’를 공동 개발한 것 등으로 알려져 있다.

이러한 수츠케버가 최근 주력해온 것이 AI의 안전성이다. 오픈AI는 올 7월, 수츠케버를 공동 리더로 하는 슈퍼얼라인먼트(Superalignment)팀을 창단했다고 발표했다. AI 기술에 있어 얼라인먼트란 사람이 의도한 목표와 AI가 달성하는 목표를 일치(얼라인먼트)시키는 것을 의미한다.

오픈AI는 사람보다 훨씬 똑똑한 슈퍼인텔리전스(Superintelligence, 초지능)가 앞으로 10년 안에 실현될 것으로 보고 있다. 슈퍼인텔리전스의 얼라인먼트이기 때문에 슈퍼얼라인먼트라고 부른 것이다. AI를 안전하게 사용하는 데 있어 얼라인먼트는 불가결한 기술이다.

무엇보다 사람보다 똑똑한 AI를 사람이 감독하는 것은 더 이상 불가능하다고 한다. 이에 수츠케버가 이끄는 슈퍼얼라인먼트팀은 향후 4년간 오픈AI가 확보한 컴퓨터 리소스의 20%를 투입해 AI를 자동으로 얼라인먼트할 수 있는 기술을 개발하겠다고 밝혔다.

이러한 수츠케버가 알트만 CEO의 해임을 주도한 것으로 알려졌기 때문에 해임 이유가 AI 안전성에 관한 의견 차이일 것이라는 추측이 나온 것이다. 그러나 수츠케버는 11월 20일, “이번 이사회의 행동에 참가한 것을 깊이 후회하고 있다”고 X에 투고. 현재의 이사회 멤버의 퇴임과 알트만의 복귀를 요구하는 직원들의 서명에도 이름을 올린 것으로 알려졌다. 즉, 안전성의 문제가 주된 이유가 아니라는 것이다.

결국 이사회가 무엇을 문제 삼았는지에 대해서는 아직도 밝혀지지 않고 있다. 필자는 이번 건에 관한 논쟁을 취재하는 과정에서 '한 사고방식'을 알게 되어 당혹감을 감출 수 없었다.

--‘e/acc’와 ‘EA’는 뭐지? --
필자가 당혹감을 느낀 것은 알트만과 이사회의 대립에 대해 ‘e/acc’와 ‘EA’라고 불리는 개념 및 사람들의 대립이라고 하는 말들이 해외 기술자나 기업가들 사이에서 나오고 있다는 것이었다.

필자는 e/acc와 EA라는 단어를 이번에 처음 알게 되었는데, e/acc는 ‘Effective Accelerationism(효과적 가속주의)’, EA는 ‘Effective Altruism(효과적 이타주의)’의 약칭이라고 한다. e/acc는 AI 등의 기술 진화를 무엇보다 우선시하는 사람들로, 최근에는 실리콘밸리의 기업가나 기술자 중에도 e/acc를 신봉하는 사람들이 늘고 있는 것 같다.

e/acc를 신봉하는 사람들에게는 비영리단체로 시작된 오픈AI가 내걸고 있는 ‘인류를 위해 공헌한다’라고 하는 가치관이나, AI의 안전성 등을 중시하는 자세는 AI의 진화를 늦추는 것이기 때문에 반감을 느끼는 것 같다.

이 때문에 AI의 안전성을 중시하거나 오픈AI를 비영리로 유지하려는 생각을 효과적 이타주의 발상에 근거한 것으로 보고 격렬하게 비판하는 움직임이 e/acc를 신봉하는 사람들 사이에서 나오고 있다는 것을 이번 소동을 통해 알 수 있었다.

e/acc 측 주장 중에는 AI의 안전성을 중시하거나, AI에 대한 규제를 요구하는 사람들을 'Doomers'나 'Decel'이라고 부르며 야유하는 것도 있었다. Doomers는 파멸/종말론자, Decel은 Decelerationism의 약자로 Accelerationism(가속주의)의 반대말, 즉 감속주의라는 뜻이다.

Doomers의 Doom은 '최후의 심판'이나 '파멸'을 말하며, e/acc 측의 의미로는 '사람보다 똑똑한 초지능의 실현이 인류를 파멸로 이끌 것이라는 생각을 가진 사람들'이 된다.

실제로 초지능이나 AGI(인공범용지능)가 실현되었을 때의 리스크는 많은 과학자들이 심각하게 우려하는 문제이다. 그러나 e/acc 측 사람들은 이러한 우려를 가진 사람들을 Doomers라고 야유하는 것이다. 마찬가지로 Decel에도 모멸적인 의미가 담겨 있다.

필자는 이번 소동을 통해 AI의 안전성을 중시하는 사람들을 격한 언어로 비판하는 세력이 대두되고 있음을 알게 되었다. AI의 진보와 안전성은 어느 한쪽을 선택하는 것이 아니라 양립시켜 나가야 하는 것이다. e/acc와 같은 사고방식의 대두와 과격화는 AI의 미래를 생각하는데 있어서 우려해야 할 것이다.

비영리단체로 시작된 오픈AI는 AI의 안전성을 중시해온 조직이기도 했다. 이러한 조직을 이끌어 온 알트만도 e/acc 측의 논리에 서지는 않을 것이다. 이번 소동으로 오픈AI의 이념이 사라지지 않기를 바랄 뿐이다.

 -- 끝 --

Copyright © 2020 [Nikkei XTECH] / Nikkei Business Publications, Inc. All rights reserved.

목록