Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis

구글, 제미니의 ‘고의적 인종 다양화’에 대해 사과해

생성형 AI의 고질적인 인종, 성 차별 콘텐츠 제작 성능에 대한 구글의 잘못된 대처

  • 2024-02-22


2월 21일 기준, ‘건국의 아버지를 그려줘(generate an image of the founding fathers)’ 에 대한 답변 / Adi Robertson / The Verge

구글이 제미니 AI의 "일부 역사적 이미지 생성 과정에서 묘사의 부정확성"이 너무 "과도하게" 발생한 것에 대해 사과했다. 최근 제미니가 미국의 국부, 나치 시대 독일 군인과 같은 백인 인물들을 흑인이나 황인으로 생성하는 일에 대한 사과다. 이번 문제는 AI의 인종 및 성별 고정관념의 문제를 과도하게 역수정한 결과로 보인다.

구글은 22일 오후 X를 통해 "제미니가 역사적 이미지를 생성하는 과정에서 부정확한 묘사를 한다는 문제는 이미 알고 있습니다. 이미 문제 해결을 위한 절차에 돌입했습니다. 제미니는 정말 다양한 사람들이 사용하고 있으며, 이런 부정확함은 보통 다양한 사람들에게 좋은 결과물을 제공합니다. 하지만 아쉬운 부분이 생길 수 있지요." 라는 트윗을 게시했다.


지난 며칠간 논쟁의 중심이었던 프롬프트 ‘미국 여성을 그려줘(Generate a picture of an American woman)’의 결과물

구글은 2월 초부터 제미니 AI를 통한 이미지 생성 기능을 제공하기 시작했다. 성능으로만 보면 경쟁사 OpenAI와 비슷한 수준으로 알려졌다. 그러나 실제 사용 후기가 나오며 문제점이 불거지기 시작했다. 인종적 성적 다양성에 천착한 나머지 역사적으로 정확한 결과물을 만들어내지 못한다는 것이다.

The Daily Dot Chronicles의 보도에 따르면, 이번 논란은 (전부 다는 아니지만) 대체로 우익 진영에서 진보성향 기업을 비판하는 과정에서 확산되었다. 전직 구글 직원이라고 주장한 X 사용자가 지난 월요일에 "부끄럽게도, 제미니에게 이 세상에 백인이라는 인종이 있단 것을 가르쳐주는 게 너무 어렵다" 라는 코멘트와 함께 ‘스웨덴 여성을 그려줘’나 ‘미국 여성을 그려줘’ 같은 명령어의 결과물을 올렸다. 이 결과물만 보면 제미니가 고의로 백인을 누락시킨 채 흑인, 황인만 그린 것 처럼 보일 정도였다 (당연하지만 미국과 스웨덴에도 흑인, 황인이 살고 있으며, 어차피 AI가 그린 그림은 실존하지 않는 인물이다). 이렇게 촉발된 논란은 보수 성향의 커뮤니티에서 ‘미국 국부에 대한 이미지’나 ‘나치 군인에 대한 이미지’와 같은 실제 역사 속 명백한 백인의 이미지를 생성해도 유색인종이 생성된다는 것을 발견하며 들불처럼 퍼졌다. 우익 진영에서는 이를 두고 구글이 고의적으로 백인을 누락시켰다던지, 입버릇처럼 주장하듯 유대인의 음모라던지 하는 주장으로 논란을 키웠다.


본 기자가 ‘1943년 독일 군인을 그려줘’라고 적었을 때는 제미니가 답변을 거부했지만, 동료 기자에게는 이런 이미지를 생성해줬다.

본지가 구글에 질문 서한을 보낸 뒤 받은 답변에서 구글은 특정 이미지를 언급하진 않았으며, 단지 X에 올린 게시글의 내용을 반복했다. 하지만 제미니의 생성형 AI가 다양성 측면에서 모자랐다는 지적이 오래전부터 지속됐었기 때문에, 그를 수정하려던 시도 중에 발생한 오류가 아닐까 하는 추정이 그럴 듯 하다. 생성형 AI 이미지는 주어진 프롬프트에 대해 ‘가장 적합한’ 이미지를 만들기 때문에, 세간의 고정관념을 증폭시키는 경향이 있다. 작년에 다른 생성형 AI를 두고 워싱턴 포스트가 조사한 바에 따르면, ‘일을 잘하는 사람(Productive Person)’은 양복 입은 백인 남성을, ‘사회복무(Person at Social Service)’이라는 키워드는 유색인종을 그려주는 것으로 나타났다. 이는 검색엔진이나 여타의 소프트웨어에서도 발견되던 경향성의 연장선이다.

이번 논쟁에서 구글을 비판하는 여론 중에서도 몇몇은 구글의 목적 당위성 자체는 옹호하고 있다. ‘인종적으로 다양한 나치 군인’을 게시한 익명의 X 계정은 "어떤 경우에는 다양성이 좋은 일이지만, 구글의 실책이라면 이걸 은밀하게 간접적으로 처리하질 못했다는 것이다" 나치 군인은 백인만 그려도 역사성을 띌 수 있지만 현대를 살아가는 미국 여성을 그릴 때는 다양하게 그려도 심각한 문제가 발생하지 않기 때문에 더 그럴 것이다.

일단 현재로서는 몇가지 키워드에 대해 제미니의 이미지 생성 작업이 거부되는 것으로 보인다. 본지 기자들 중에도 누군가는 바이킹을 생성할 수 있고, 누군가는 못하고 있다. 본 기자의 경우 데스크톱 앱에서 40년대 독일에 대한 이미지나 1800년대 미국 대통령의 이미지는 생성되지 않았다.


제미니에게 ‘1800년대 미국 상원의원을 그려줘(Generate a picture of a US senator from the 1800s)’를 입력한 결과물

하지만 차단당하지 않은 몇가지 키워드에서는 여전히 ‘다양한’ 문제를 드러내고 있다. 데스크톱이 아니라 모바일로 제미니를 이용하는 본지 기자들은 여전히 다양한 나치 군인을 그릴 수 있기도 했다.

건국의 아버지를 입력하면 토마스 제퍼슨과 흡사하게 생긴 이미지를 출력해주지만, 1800년대 미국 상원의원을 입력하면 흑인 여성, 아메리카 원주민 여성, 동양인 남성을 출력해준다 (최초의 여성 상원의원은 1922년의 백인 여성이다). 실존했던 인종 차별과 성 차별의 역사를 지워버리는 결과물이다. 구글의 표현대로 "몹시 부적절한" 결과물이 아닐 수 없다.

Original Article Link

Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis

Leave a comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.