Offcanvas

AI / 머신러닝|딥러닝 / 비즈니스|경제

유네스코, “생성형 AI 도구에 여전히 성 편견 만연” 주장

2024.03.08 Jon Gold  |  CIO
유네스코는 인공지능의 학습 결과물이 사람이 생성한 데이터보다 나은 부분이 없기 때문에 그 위험을 해결하려면 사법적, 사회적 개입이 필요하다고 주장했다.
 
ⓒ Getty Images Bank

유네스코 인공지능 국제연구센터가 지난 7일 발표한 보고서에 따르면 생성형 AI의 결과물은 여전히 상당한 양의 성별 및 성에 기반한 편견을 반영하고 있는 것으로 나타났다. 여성 이름을 전통적인 성 역할과 연관시키고 동성애에 대한 부정적인 콘텐츠를 생성하는 등 생성형 AI에 많은 편견이 존재한다고 유네스코는 주장했다. 

보고서는 성별 이름과 직업 간의 연관 테스트 등 편견에 대한 여러 개별 연구를 중심으로 작성됐다. 이에 따르면 생성형 AI는 성소수자 및 여성과 관련된 질문에 대해 덜 긍정적인 반응을 보이는 경우가 많았고, 성별과 인종이 다른 구성원에게 고정관념화된 직업을 할당하는 경향이 있었다.

연구진은 생성형 AI 기술의 근간에 3가지 범주의 편견이 있는 것을 발견했다고 밝혔다. 첫 번째는 데이터 문제로, AI는 소외된 집단의 학습 데이터에 노출되지 않거나 성별이나 민족의 차이를 고려하지 않아 부정확성을 초래할 수 있다. 두 번째는 알고리즘 선택으로, 집계 또는 학습 과정에서 편향이 발생할 수 있다. 대표적인 예로는 AI 채용 도구가 이미 존재하는 성별 격차를 근거로 남성 구직자의 이력서가 더 바람직하다고 판단하는 경우다. 마지막으로, AI 시스템이 개발 목적과 다른 맥락에 적용돼 정신의학 용어 및 특정 인종 또는 성별 간의 ‘부적절한’ 연관성을 초래할 수 있다.

유네스코 보고서 저자들은 현대 AI 시스템의 기반인 대규모 언어 모델(LLM)에 내재된 각 형태의 편견이 학습 텍스트를 반영한 결과라고 말했다. 다시 말해 텍스트가 사람에 의해 생성됐기 때문에 LLM이 사람의 편견을 반영한다는 것이다. 

연구팀은 “결과적으로 LLM은 여성에 대한 고정관념과 편견, AI 채용 도구의 편향성, AI가 신용 평가 및 대출 승인에 영향을 미칠 수 있는 금융 같은 분야에서의 성 편향된 의사 결정, 인구 통계적으로 편향된 모델이나 규범에 따른 의료 또는 정신의학적 오진 등을 강화할 수 있다”라고 지적했다.

연구팀은 암묵적 연관 테스트의 제한, 데이터 오염, 배포 편향, 언어 제한, 교차 분석 부족 등 몇 가지 잠재적 문제를 언급하며 이번 연구에 한계가 있음을 밝혔다. 그럼에도 불구하고 성 편견이 AI 시스템 내에 ‘만연해 있다’는 증거를 제시하고 있으며, 유네스코 연구팀은 이 문제를 해결하려면 AI 개발 주기의 기초 단계에서 차별 방지 조치를 하는 것이 “매우 중요하다”라고 말했다.

저자들은 “이 위험을 해결하려면 AI의 공평하고 책임감 있는 적용을 보장하는 기술적 솔루션뿐만 아니라 사법적, 사회적 개입을 포함한 총체적 접근이 필요하다. AI 개발에 소외된 집단을 참여시키고 교차적 요소를 고려하는 것은 편견을 완화하고 포용성을 증진할 수 있는 중요한 단계다”라고 말했다. ciokr@idg.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.