- “AI를 군사적 이용하지 않겠다”는 구글의 지침 -- 사원의 반대 운동이 배경
-
- 카테고리AI/ 로봇·드론/ VR
- 기사일자 2018.6.9
- 신문사 일본경제신문
- 게재면 11면
- 작성자hjtic
- 날짜2018-06-15 22:46:03
- 조회수381
“AI를 군사적으로 이용하지 않겠다”는 구글의 지침
사원의 반대 운동이 배경
구글은 7일, 인공지능(AI)의 개발 및 적용을 둘러싼 ‘지침’을 발표했다. 지침에서는 AI를 사회에 편익을 제공하기 위한 것으로 정의하고, 무기와 같이 사람을 헤치는 분야를 위한 개발은 하지 않는다는 방침을 명확히 했다. 다른 IT기업들보다 한 발 먼저 이와 같은 지침을 발표한 것은 AI의 군사 이용에 대한 사원들의 반대 운동 때문이다.
이번 지침은 피차이 CEO가 자신의 블로그를 통해 공표했다. 지침은 7개 항목으로 구성. “사회에 도움이 되도록 한다” “편향을 피한다” “사생활을 보호한다” 등이 포함되어 있다. 무엇보다 다른 기업이 밝히지 않은 강한 메시지로 ‘사람을 헤치는 분야’로의 이용은 하지 않는다는 것을 명시. 그 중에서도 ‘무기용 AI 개발은 하지 않는다’라고 분명하게 밝혔다.
이러한 지침을 공표하게 된 이유는 사내에서 AI 활용 방법에 대한 논란이 일고 있기 때문이다. 복수의 미국 언론에 따르면 구글은 최근 미국 국방부와 맺은 군사용 무인드론을 위한 AI 개발 계약을 2019년에 중지할 것으로 결정했다고 한다. 물체를 인식할 수 있는 AI 기술을 드론에 활용할 계획이었지만 4천 명 이상의 구글 사원이 반대 서명에 참가했고, 일부 사원들이 사임하는 소동으로 발전했다.
구글의 이번 지침은 사내의 동요를 잠재우려는 것으로 보인다. 한 구글 사원은 “우리가 회사에서 하는 일들이 인류에 도움이 되고 있다고 모두가 믿고 있다”라고 말한다. 구글은 ‘사악해지지 말자’라는 슬로건을 내걸고 있었던 만큼 군사 및 사회 감시용으로 볼 수 있는 업무에 관여하는 것에 반감을 가진 사원들도 적지 않다고 한다.
군사용이 아니더라도 AI에 대해 우려를 나타내는 목소리는 사외에도 존재한다. 영상 검색에서 인종 차별적인 결과가 나오고, AI를 이용한 인사 채용 및 보험 심사에서 바이러스가 발생할 수도 있다라는 우려는 AI 연구자들 사이에서도 나오고 있다. 한 영국의 연구자는 “AI가 무엇을 기준으로 의사 결정을 하는지를 알지 못한다는 것은 위험하다”라고 말한다.
구글의 이번 지침은 이러한 사회적 흐름도 반영해 작성된 것으로 보인다. 피차이 CEO는 블로그에서 “AI 기술에서 리드하고 있는 기업으로서 사회에 미치는 영향력에 대해 많은 책임을 느끼고 있다.”라고 밝히고, 설명 책임이 가능한 AI를 개발하고 감시 목적이나 비인도적인 AI 활용은 하지 않겠다고 강조했다.
AI에 대한 의식을 둘러싸고 실리콘밸리 기업들간 온도차이가 있다. 페이스북은 사람이 관여하지 않고 AI로 가짜 뉴스를 찾아내는 기술 개발을 계속해오고 있다. 여기에는 “우리들은 AI 기술에 낙관적이다”라고 강조하는 주커버그 CEO의 의지가 엿보인다. 한편, 테슬라의 머스크 CEO는 “AI는 악마를 소환하는 기술”이라고 말하며 규제의 필요성을 주장하고 있다.
구글의 움직임은 AI에 대한 의식을 사내 방침으로 구체화해 제품 제작에 반영시킨다는 점에서 한 발 앞선 것이라고 할 수 있다. 최근 통상적으로 주목 받기 어려운 윤리와 규제 등에 대한 논의가 활성화되고 있다. 이것은 미래의 기술이라고 생각되어왔던 AI가 급속하게 우리 생활 속에 침투하고 있다는 것을 의미하는 것이다.
-- 끝 --