[비즈니스포스트] 네이버가 인공지능(AI)의 잠재적 위험 요인을 방지하기 위한 실천 체계를 마련했다.

네이버는 17일 자체 기술 채널인 '채널 테크'에서 '네이버 ASF'를 발표했다.
 
네이버 AI 안전성 실천체계 마련, "통제력 상실과 악용 위험성 차단"

▲ 네이버가 17일 인공지능(AI)의 잠재적 위험 요인을 방지하기 위한 체계인 네이버 ASF를 공개했다.


네이버 ASF는 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 잠재적 위험을 인식하고 평가하며 관리하기 위한 체계다.

네이버는 AI의 위험을 크게 '통제력 상실 위험'과 '악용 위험'으로 분류하고 이에 대응하기 위한 방법을 각각 마련했다.

먼저 통제력 상실 위험 완화를 위해 'AI 위험 평가 스케일'을 통해 AI 시스템을 주기적으로 평가하고 관리한다. 특히 최고 성능의 AI 시스템은 '프런티어 AI'로 분류하고 3개월마다 위험 평가를 수행한다. 시스템의 능력이 기존보다 6배 이상 증가하면 증가한 시점에 추가 평가를 수행한다.

악용 위험에 대해서는 'AI 위험 평가 매트릭스'를 적용해 대응한다. 이는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리하는 방식이다. 특히 안전 조치의 필요성이 높은 AI 시스템은 필요한 완화 조치가 마련되기 전까지 배포하지 않는다.

회사는 장기적으로는  문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜나간다는 계획이다.

각 나라 정부나 기업과 소버린 AI를 공동 개발해 특정 문화권에서 성립될 수 있는 AI 시스템 위험을 식별하는 체계를 고도화한다.

하정우 네이버 퓨처 AI 센터장은 "네이버 ASF는 생성형 AI 시대에 네이버가 다시 한 번 선제적으로 수립한 안전성 검증 프로토콜"이라며 "이러한 앞선 경험을 글로벌 커뮤니티에도 공유해 AI 안전성 분야 리더십을 확보하겠다"고 말했다.

최수연 네이버 대표이사는 "향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해나갈 계획"이라며 "다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계 조성에 기여하겠다"고 말했다. 조충희 기자