"아름다운 여성은 마른 백인", 생성형AI 인종 외모 편향 놓고 논란 거세져

▲ 생성형 인공지능 기반 이미지 서비스가 인종 나이 외모 등 사람의 특성에 편향성을 띠고 있다는 지적이 나왔다. 오픈AI의 DALL-E 이용방법 안내 이미지.

[비즈니스포스트] 사용자 명령에 맞춰 가상의 이미지를 만드는 생성형 인공지능(AI) 기술이 인종과 나이, 외모 등과 관련해 편향적 태도를 보이고 있다는 외국언론의 실험 결과가 나왔다.

인공지능 기술이 영화와 광고, 게임 등 미디어 제작에 이미 널리 활용되고 있는 만큼 사회 전반에 왜곡된 기준을 제시할 수 있다는 비판이 고개를 든다.

6일 워싱턴포스트 보도에 따르면 오픈AI의 DALL-E와 미드저니 등 현재 상용화된 생성형 인공지능 서비스가 사회적 고정관념을 강화시키는 결과를 낳을 수 있는 것으로 분석된다.

워싱턴포스트는 다양한 인공지능 서비스에 특정한 요소를 갖춘 인물 이미지를 생성해달라는 명령을 반복해 보내는 실험을 토대로 이러한 비판을 제기했다.

AI 이미지 생성을 위해 널리 쓰이는 미드저니와 DALL-E, 스테이블디퓨전이 테스트에 활용됐다.

우선 ‘아름다운 여성’이라는 명령에 따라 생성된 150장의 이미지는 모두 마른 여성의 모습을 담고 있었다. 98%의 이미지는 주름이나 흰머리 등 노화의 특징을 보이지 않았다.

어두운 피부색을 보이는 여성 이미지 비중은 9%에 그친 것으로 집계됐다. 전체 이미지의 절반 이상은 유색인종의 특징을 보이지 않는 피부의 여성으로 분류됐다.

또한 거의 모든 이미지가 긴 머리와 드레스 등 얇은 의상을 입은 여성의 모습을 담고 있었다.

또 생성형 인공지능 서비스에 ‘평범한 여성’ 이미지를 출력하라는 명령도 입력한 결과, 약 40%가 주름이나 흰머리 등 노화의 특징을 보인 것으로 나타났다.

인공지능 모델이 생성한 평범한 여성 이미지의 약 93%는 마른 여성의 모습을 보여줬다.

‘못생긴(ugly) 여성’의 이미지를 생성하라는 주문에는 거의 모든 이미지가 주름진 노인의 모습을 담고 있었다. 대부분 허름한 옷을 입고 있었고 다수는 비만 체형이나 불행한 표정을 보였다.

노화 또는 행복도를 외모와 연결짓는 인공지능 모델의 판단은 부정적인 사회적 고정관념을 강화할 가능성이 있다.

일부 생성형 인공지능 기술은 다양한 인종의 특성을 표현하는 데 대체로 약점을 안고 있는 것으로 드러났다.

워싱턴포스트가 유색인종의 특징 가운데 하나인 ‘넓은(wide) 코를 가진 여성’의 이미지를 주문하자 DALL-E가 생성한 이미지는 약 20%만 올바른 결과물을 내놓았다.

약 44%의 이미지는 실제 사람의 얼굴에서 보기 어려운 기형적인 코의 그림을 출력했다.

미드저니에 ‘쌍꺼풀이 없는 여성’의 이미지를 요청했을 때는 50장의 사진 가운데 1장만이 쌍꺼풀 없는 눈을 가진 여성의 모습을 보여준 것으로 나타났다.

워싱턴포스트는 현재 상용화된 인공지능 모델이 백인의 전형적 특징을 갖춘 이미지를 생성하는 데 훨씬 큰 비중을 두고 있다는 전문가의 분석을 전했다.

인공지능 학습에 활용되는 이미지 데이터베이스에 중국이나 인도 등의 자료가 제외되다 보니 미국과 유럽 국가들의 데이터에 크게 의존할 수밖에 없다는 문제가 있는 것으로 지적됐다.
 
"아름다운 여성은 마른 백인", 생성형AI 인종 외모 편향 놓고 논란 거세져

▲ 오픈AI의 '소라'를 통해 생성된 영상 이미지 일부.

인공지능 모델의 이러한 편향성은 앞으로 대중 매체에서 특정 인종의 비중이 더 높아지거나 아름다움 또는 평범함의 기준을 백인의 주된 특성에 맞춰지도록 할 가능성이 있다.

구글과 메타, 오픈AI 등 인공지능 기업은 이미지와 영상 생성 기술을 영화와 광고 등 분야에 폭넓게 활용하도록 하겠다는 목표를 두고 관련 업체에 기술을 제공하고 있다.

생성형 인공지능 기술의 편향성 문제가 해결되지 않는다면 앞으로 사람들이 등장하는 영화나 광고에는 가상으로 생성된 백인의 특성을 갖춘 인물의 비중이 더 높아질 공산이 크다.

워싱턴포스트는 일부 인공지능 개발사들이 사용자의 요청에 ‘다양한 인종 또는 성별’이라는 명령어를 임의로 포함하는 방식을 활용하고 있지만 이는 근본적인 문제를 해결하지 못하는 안일한 대책이라고 비판했다.

구글 인공지능 플랫폼 제미나이가 ‘1943년 독일군’의 이미지를 생성해달라는 요청에 흑인 남성과 아시아계 여성의 모습을 보여주는 등 상황에 맞지 않는 결과물을 내놓는 사례도 빈번했다.

오픈AI는 인공지능 이미지 생성의 편향성과 관련한 워싱턴포스트의 질의에 단순히 결과물에 다양성을 더하는 대신 인공지능 모델 자체를 수정하기 위한 작업을 진행중이라고 대답했다.

인공지능 모델의 성향이 매우 소수의 사람들에 의해 결정된다는 점도 문제로 꼽혔다. 아름다움과 같은 주관적 기준에 대해 특정 인물의 생각이 지나치게 반영될 수 있다는 것이다.

워싱턴포스트는 인공지능 이미지 생성 기술의 상업화로 인종과 외모 등에 관련한 편견을 해소하기 위해 이어져 온 장기간의 사회적 노력이 무력화될 가능성을 우려하는 의견을 전했다.

마케팅업체 빌리언달러보이가 최근 진행한 설문조사에 따르면 약 70%의 광고 관련 업체가 올해 유로 생성형 인공지능 서비스를 활용하겠다는 계획을 두고 있는 것으로 파악됐다. 김용원 기자