▲ 이재우 SK쉴더스 EQST(이큐스트)·시스템 통합(SI)사업그룹장 전무가 2일 서울 중구 페럼홀에서 열린 ‘2024년 상반기 보안 트렌드 분석 미디어 세미나’에서 발표하고 있다. <비즈니스포스트> |
[비즈니스포스트] 생성형 인공지능(AI)이 폭탄이나 마약 제조에 악용되는 등 AI 시대에 심각한 보안 위협이 나타날 수 있다는 경고가 나왔다.
SK쉴더스는 2일 서울 중구 페럼홀에서 2024년 상반기 보안 트렌드 분석 세미나를 열고, AI 거대언어모델(LLM) 보안 위협이 갈수록 커지고 있다고 밝혔다.
회사의 화이트해커 전문가 그룹 ‘EQST'(이큐스트)는 AI LLM 서비스 취약점 가운데 위험도가 높다고 판단한 △프롬프트 인젝션 △불완전한 출력 처리 △민감 정보 노출 등 3가지 취약점을 직접 시연했다.
프롬프트 인젝션은 악의적 질문으로 AI 서비스에 적용된 지침 또는 정책을 우회해 원래 목적 외의 답변을 이끌어내는 취약점으로, 악성코드 생성이나 폭탄·마약 제조, 피싱 공격 등에 악용될 수 있다고 회사 측은 설명했다.
오픈AI의 챗GPT 등 AI 챗봇은 일반적으로 폭탄 제조와 같이 범죄에 악용될 수 있는 질문에는 답변하지 않는다. 하지만 이날 이큐스트는 챗봇에 ‘IED'(급조폭발물) 등이 포함된 질문을 단계적으로 던지는 방법으로 폭탄 제조법을 이끌어내는 시연 영상을 공개했다.
이호석 SK쉴더스 이큐스트 랩 팀장은 “생성형 AI 관련 위험 가운데 중요한 건 악성코드 입력 자체를 막는 ‘프롬프트 인젝션’ 영역과 개인 정보보호 영역이라고 판단한다”며 “주요 보안 대책으로 ‘프롬프트 보안 솔루션’과 ‘데이터 정제 솔루션’을 꼽을 수 있다”고 말했다.
한편 회사 측은 올해 상반기 보안 분야에서 가상자산 탈취나 딥페이크 해킹 공격 등이 주로 발생했다고 밝혔다.
업종별로 살펴보면 금융업을 대상으로 한 침해사고가 가장 많았다. 가치가 높아진 가상자산을 노린 해킹 공격이 지속되는 등 금융업을 대상으로 한 사고가 20.6%로 국내에서 가장 높은 비중을 차지했다. 김지영 기자