- 거액의 제재금이 부가되는 ‘유럽 AI 윤리 규칙안’ -- 2024년에 전면 시행
-
- 카테고리AI/ 로봇·드론/ VR
- 기사일자 2022.7.21
- 신문사 Nikkei X-TECH
- 게재면 online
- 작성자hjtic
- 날짜2022-07-30 20:08:04
- 조회수203
Nikkei X-TECH_2022.7.21
AI 윤리법 규제'에 대한 기업의 대응책
거액의 제재금이 부가되는 ‘유럽 AI 윤리 규칙안’
2024년에 전면 시행, 일본 기업은 어떻게 대응해야 하는가?
2021년 4월, 유럽 위원회가 공표한 ‘유럽연합(EU) AI(인공지능) 윤리 규칙안’. 이것은 AI 전반의 활용을 대상으로 한 세계 최초의 법률이 될 전망으로, 현재 시행을 목표로 순조롭게 추진되고 있다고 한다.
2024년에 전면적으로 시행될 가능성이 크다. 일본에는 AI 전반의 이용 및 활용에 대한 법적 구속력을 가진 규제는 아직 없다. 미국은 신법을 만들거나 신법이 없는 분야의 AI에 대해서는 현행 법률을 개정하는 등을 통해 고용이나 소비자 보호 등 특정 분야에 있어서의 AI 활용에 대한 제한을 마련하고 있다.
이 AI 윤리 규칙안은 EU에서 AI 서비스 자체나 추론 결과 등의 아웃풋을 제공하는 경우가 대상으로, 일본의 프로바이더도 EU에서 서비스 등을 제공할 시에 적용된다. 이를 위반한 기업에는 제재금으로서 최대 3,000만유로 또는 전년도 전세계 매출액의 최대 6%가 부과된다. 일본 기업에도 적용될 가능성이 있다.
아쓰미사카이(渥美坂井)법률사무소·외국법 공동사업의 미베(三部) 변호사는 “EU의 AI 윤리 규칙안이 가지고 있는 가장 큰 특징은 리스크 베이스 어프로치이다”라고 말한다.
AI 윤리 규칙안은 위험에 따라 금지되는 AI 시스템, 고위험 AI 시스템, 투명성 의무를 수반하는 AI 시스템, 최소한의 위험 AI 시스템 등, 4가지로 분류해 구분하고 있다. 이 가운데 고위험 AI 시스템과 투명성 의무를 수반하는 AI 시스템으로 분류되는 AI 시스템을 제공할 경우, 프로바이더에게 각각의 구분에 따른 의무가 부과된다.
-- 기업이 취해야 할 대응은 --
고위험 AI 시스템에는 EU 정합 법령의 대상이 되는 제품의 안전장치로써 AI 시스템 이용을 상정하거나, AI 시스템 자체가 제품으로 EU 정합법령의 대상이 되는 것 등이 해당된다.
AI 시스템을 제공하는 프로바이더는 제공하는 시스템이 고위험 AI 시스템 요건에 적합한지 여부를 사전에 평가하고, 리스크 관리 시스템을 구축하는 것 등이 의무화된다.
한편, 투명성 의무를 수반하는 AI 시스템은 챗봇 등 사용자와 대화하는 AI 시스템 등이 해당된다. 프로바이더는 사용자가 AI 시스템과 대화하고 있다는 것을 명시해야 하며, 실제 사람이나 물체, 장소 등과 유사한 콘텐츠를 생성하는 AI 시스템에 대해서는 AI 시스템이 생성·조작된 것임을 사용자에게 밝혀야 하는 것 등이 의무화된다.
EU의 AI 윤리 규칙안 공표에 따라 일본 내에서도 AI 전반의 활용에 대한 규제가 강화될 가능성이 있다. 총무성의 AI네트워크 사회추진회의는 2019년, 국내 AI 활용 지침으로 'AI 활용 가이드라인~AI 활용을 위한 프랙티컬 레퍼런스~'를 공표했다.
이 가이드라인은 현시점에서 법적인 구속력은 없지만, “EU의 AI 윤리 규칙안을 참고해 일본도 제도에 관한 논의를 시행할 가능성이 있다”(내각부 지적재산 전략추진 사무국의 오가와(尾川) 참사관)라고 한다.
전반적인 AI의 이용 및 활용에 대한 국제적 법규를 정하려고 하는 EU와 현행법으로 대응을 추진하는 미국이 일본의 규율 정비에 영향을 주는 것은 분명하다. 세계적으로 사업을 전개하는 기업뿐 아니라, 국내에서 AI 서비스를 제공하는 기업에게도 일본보다 앞서있는 EU의 움직임에 주목할 필요가 있다.
-- 끝 --
Copyright © 2020 [Nikkei XTECH] / Nikkei Business Publications, Inc. All rights reserved.