일본산업뉴스요약

일본에서도 검토되기 시작하고 있는 AI 법규 -- 개발 속도를 늦추지 않는 열쇠는 교육에 있어
  • 카테고리AI/ 로봇·드론/ VR
  • 기사일자 2024.7.11
  • 신문사 Nikkei X-TECH
  • 게재면 Online
  • 작성자hjtic
  • 날짜2024-07-31 18:03:45
  • 조회수163

Nikkei X-TECH_2024.7.11

일본에서도 검토되기 시작하고 있는 AI 법규
개발 속도를 늦추지 않는 열쇠는 교육에 있어

일본산 생성 AI(인공지능) 시장이 뜨거워지고 있다. 2023년 여름 경부터 국내 학계 및 스타트업을 포함해 다양한 플레이어들이 AI 모델을 공개하기 시작한 것이다. 올 봄에는 NEC와 NTT 등 IT 대기업들도 대규모언어모델(LLM) 개발 전선에 참가해 앞서 있는 해외 기업들을 따라잡기 위해 총력을 다하고 있다.

특히 NEC와 NTT가 제공하는 LLM에는 일본다움을 느낄 수 있다. 국내 기업들은 LLM에 대해 각 기업별로 커스터마이징해 사용하고 싶다고 하는 니즈가 있다. 또한 정보 유출 리스크를 우려해 온프레미스로 LLM을 가동시키고 싶다는 니즈도 강하다. 이에 대해 NEC와 NTT가 개발하는 일본산 LLM은 파라미터 사이즈를 축소하는 것으로 대응했다.

이와 같이 독자적인 형태의 진화가 시작되고 있는 일본의 LLM 시장에서 멀지 않은 미래에 벌칙이 부가된 법제도가 생겨날지도 모른다. 일본 정부가 올 6월에 각의 결정한 ‘통합 이노베이션 전략 2024’에서는 ‘올 여름, AI 전략 회의 아래 새롭게 개최되는 ‘AI 제도 연구회(가칭)’에서 제도의 형태에 대한 검토에 착수한다’라고 명기되어 있다.

AI를 둘러싼 법 정비는 유럽연합(EU)과 미국, 중국 등, 세계 각지에서 진행되고 있다. 이 중 EU는 법적인 구속력이 있는 경성법(Hard low) 스탠스를 채택하고 있다. 미국은 2023년 1월에 가이드 라인으로 룰을 정비, 2023년 10월에는 법적 구속력을 가지는 대통령령을 발표했다. 일본은 과연 어떤 스탠스를 취할 것인가?

-- 개발을 제한하지 않기 위해 교육을 --
올 6월 26일, '책임 있는 생성 AI의 거버넌스 디자인과 산학의 역할'이라는 제목의 심포지엄이 개최되었다. 대학과 기업, 정부로부터 전문가가 참가해 일본에서의 AI법 정비에 관해 논의했다.

특히 흥미로웠던 것은 ‘타국에 비해 일본은 디지털 기술에 대한 불안이 강한 나라로, 정부에 안전성 확보를 기대한다. (생성 AI 개발이나 활용에 관해) 과도한 안전성 확보 정책으로 인해 이노베이션 확보가 어렵게 되는 것은 아닐까?’라는 의제 제기에 대한 논의였다.

이 질문에 대해 마이크로소프트의 존스 공공정책담당 아시아지역 시니어디렉터는 리터러시 교육이 중요하다는 인식을 밝혔다. 또한, 학교도 완수할 수 있는 역할이 있다는 것을 지적했다. 교육의 중요성에 대해 참가자로부터 반대 의견이 나오지 않았고, 리터러시 교육을 주축으로 하며, AI 개발을 제한하는 일은 하지 않는다는 방침을 정했다.

히토쓰바시대학(一橋大学) 대학원의 이쿠가이(生貝) 법학연구과 전공 교수도 교육의 중요성을 인정한다. “안전 불명확성에 유래하는 불안을 해소하려면, (생성AI) 구조에 대한 정보와 안심할 수 있는 이유를 제시하는 것이 가장 중요하다”라고 말한다.

하지만 생성 AI의 구조 등은 전문가에게도 어려운 것이 많다. 이 문제에 대해 이쿠가이 교수는 “올 2월에 설립된 AI의 안전성 평가 방법 검토 등을 담당하는 ‘AI 세이프티 인스티튜트’의 도움을 받는 등, 제 3자가 안전하다고 보증할 수 있으면 설득력이 생길 것으로 생각한다”라고 말한다.

-- 중소 LLM은 사후 규제로 --
교육을 내실화뿐만 아니라, 리스크의 평가 방법에 관한 관점도 반드시 필요하다. 내각부의 와타나베(渡邊) 과학기술·이노베이션 추진 사무국 총괄관은 “(파라미터 사이즈가) 큰 LLM은 개발 주체가 한정적이기 때문에 사전 신고를 요구하는 사전 규제가 가능하다”라고 말한다. 한편, ”중소 규모의 LLM의 경우, (개발하고 있는지 여부를) 파악할 수 없기 때문에 사후 규제, 즉, 문제가 일어난 후의 대처일 수 밖에 없다”(와타나베 통괄관)라는 과제도 있다고 한다.

생성AI를 포함한 AI의 리스크는 사용법 등, 파라미터 사이즈에 의존하지 않는 요소에 의해서도 생길 수 있다. 리스크가 없다고 판단되는 AI 모델이라도 자체 데이터로 재학습시키면 리스크가 생길 수 있다. 그러나, 이러한 과정이야말로 이노베이션으로 연결될 가능성도 있다.

법 규제에 의한 벌칙만으로 이러한 불안이나 리스크에 대응하기는 어렵다. 또한, 열기가 뜨거워지고 있는 LLM 개발 속도를 늦추는 요인이 될 수도 있다. 필자는 AI를 활용하는 사람들에 대한 충실한 리터러시 교육이야말로 핵심이라고 생각한다. 규제가 아닌 포괄적인 논의가 이루어질 수 있길 바란다.

 -- 끝 --

Copyright © 2020 [Nikkei XTECH] / Nikkei Business Publications, Inc. All rights reserved.

목록