오픈AI, 모델 문제점 제3자와 분석하는 ‘레드팀’ 구성··· “정치, 법, 의학, 사회학 등 각계각층 전문가 모집”
2023.09.20
이지현 | CIO KR
오픈AI가 자사 모델의 문제점 파악을 위한 ‘레드팀’이라는 조직을 별도로 구성하겠다고 19일 발표했다. 외부의 다양한 전문가를 모집해서 오픈AI의 모델 안전성 향상에 도움을 받겠다는 계획이다.
오픈AI는 그동안 버그 바운티나 챗GPT 피드백 콘테스트 같은 프로그램을 통해 외부 사용자와 협력해 AI 모델을 개선한 바 있다. '레드팀'의 경우 오픈AI 내부적으로 지난 몇 년간 운영되었으나 앞으로는 외부 전문가를 공개적으로 모집하고 협업하는 방향으로 갈 예정이다.
오픈AI는 공식 블로그를 통해 “더 안전한 모델을 만들기 위해 외부 전문가와의 협업을 공식적으로 강화하고 확대하려 한다”라며 “전문가, 연구 기관 및 시민 사회 단체와의 협력은 오픈AI에게 매우 중요한 부분이다. 제3자 같은 외부 감사를 통해 거버넌스 활동을 보완할 수 있을 것”이라고 설명했다.
레드팀은 공식 홈페이지에서 누구나 지원할 수 있다. 대신 특정 분야에 대한 전문 지식이나 경험이 있어야 한다. 분야에 대해서는 따로 지정하지 않았으며, 심리학, 정치학, 교육, 법률, 헬스케어, 화학, 물리학, 인지과학 등 다양한 분야 전문가를 모집하고 있다. 지원자의 경우 AI에 대한 기술적 지식은 없어도 된다. 그 외에 이해 충돌 요소가 없고, 다양한 배경, 지역, 소외 집단을 대표하고, 2가지 언어의 유창성이 있는지도 확인한다.
레드팀 후보자 접수는 2023년 12월 1일까지만 받을 예정이며, 수시로 레드팀 구성원을 선정할 예정이다. 레드팀이 검토하는 모델이나 기술에 대한 접근 권한은 구성원마다 다르게 부여된다. 레드팀 구성원이 맡는 활동은 간단한 Q&A 테스트부터 보다 복잡한 시뮬레이션 등 다양하다. 평가 관련 샘플이나 템플릿은 깃허브에 공유될 예정이다. 활동 기간이나 검토 기간도 구성원마다 다르며 짧은 경우 1년에 5-10시간 수준일 수 있다고 오픈AI는 설명했다.
jihyun_lee@idg.co.kr