일본산업뉴스요약

정부의 AI 안전성 검증 기관이 가이드라인 공표 -- 개발·제공 사업자를 대상으로 10개 항목 제시
  • 카테고리AI/ 로봇·드론/ VR
  • 기사일자 2024.9.19
  • 신문사 Nikkei X-TECH
  • 게재면 Online
  • 작성자hjtic
  • 날짜2024-10-16 17:22:33
  • 조회수92

Nikkei X-TECH_2024.9.19

정부의 AI 안전성 검증 기관이 가이드라인 공표
개발·제공 사업자를 대상으로 10개 항목 제시

AI(인공지능)의 안전성 평가 방법 검토 등을 실시하는 정부 기관 ‘AISI(AI Safety Institute)’는 9월 18일, ‘AI 세이프티에 관한 평가 관점 가이드’를 발표했다. AI 안전성을 평가하는 관점으로 10개 항목을 제시하고, AI 개발·제공 사업자가 시스템 라이프사이클에 대응한 평가를 반복하는 것이 중요하다고 제언했다.

평가 관점은 ‘유해 정보의 출력 제어’, ‘잘못된 정보의 출력·유도 방지’,‘공평성과 포섭성’, ‘고위험 이용·목적외 이용에 대한 대처’, ‘프라이버시 보호’, ‘시큐리티 확보’, ‘설명 가능성’, ‘간건성(Robustness)’, ‘데이터 품질’, ‘검증 가능성’ 등 10개 항목이다. 올 4월에 경제산업성과 총무성이 공표한 ‘AI사업자 가이드 라인’ 및 구미의 문헌 등을 참조해 책정했다. 가이드라인에서는 각 항목에 대해 상정되는 리스크나 평가 내용의 구체적인 사례를 제시하고 있다.

가이드에는 개발·제공·이용의 각 단계에서 AI 개발·제공 사업자가 합리적인 범위 및 적절한 타이밍에 평가를 실시해야 한다고 명기. 개발 단계에서는 대규모 언어 모델(LLM) 학습에 이용하는 데이터나 LLM 자체가 평가 범위가 된다. 제공·이용 단계의 평가 범위는 LLM 시스템 전체이며, 연계된 애플리케이션 서비스나 RAG(Retrieval Augmented Generation, 검색 확장 생성)의 데이터베이스를 포함한다.

평가 방법으로는 툴을 이용한 기술적 평가, 사업자의 대응 방침 및 사업자가 정비한 규정 등을 평가하는 매니지먼트적 평가가 모두 필요하다고 한다.

 -- 끝 --

Copyright © 2024 [Nikkei XTECH] / Nikkei Business Publications, Inc. All rights reserved.

목록