Offcanvas

AI / 머신러닝|딥러닝 / 애플리케이션

미-영, AI 모델의 안전성 점검하기 위해 협약 체결… '프레임워크 마련 목표'

2024.04.03 Anirban Ghoshal  |  CIO
미국과 영국의 AI 안전 연구소가 협력해 대규모 언어 모델의 안전성을 점검하는 프레임워크를 마련할 예정이다.
 
ⓒ Getty Images Bank

미국과 영국이 AI 시스템의 기반이 되는 대규모 언어 모델(LLM)의 안전성을 점검하기 위한 협약을 지난 2일 체결했다.

지나 라이몬도 미국 상무부 장관과 미셸 도넬란 영국 기술부 장관이 지난 2일 워싱턴에서 MOU를 체결했다. 이를 통해 양국은 과학적 접근 방식으로 맞춰 나가고 AI 모델, 시스템 및 에이전트에 대한 평가 제품군을 개발하기 위해 긴밀히 협력할 예정이다.

라이몬도 장관은 성명에서 오픈AI와 구글이 했던 것과 같이 LLM의 안전성을 테스트하는 프레임워크를 개발하는 작업은 영국의 새 AI 안전 연구소(AISI)와 미국의 안전 연구소가 즉시 수행할 것이라고 밝혔다.

이번 협약은 영국 정부가 지난해 11월 개최한 AI 안전 정상회의를 배경으로 한다. 당시 중국, 미국, EU, 인도, 독일, 프랑스 등 28개국이 AI의 진화를 감독하고 기술이 안전하게 발전할 수 있도록 공동의 사고 방식을 형성하기 위해 협약에 서명했다. 이를 블레츨리 선언이라고도 부른다.

이 합의는 지난해 5월 수백 명의 기술 업계 리더, 학자 및 기타 유명 인사가 AI의 진화로 인류의 멸종이 초래될 수 있다고 공개 서한을 통해 경고한 뒤 이뤄졌다.

오픈AI, 메타, 엔비디아, AI 안전 기관과 협력
미국은 또한 AI 시스템과 관련 LLM을 규제하기 위한 조치를 취했다. 지난해 11월, 바이든 행정부는 행정 명령을 발표해 명확한 규칙과 감독 조치를 마련하고, AI를 견제하는 동시에 AI가 성장할 수 있는 길을 제시했다.

미국 정부는 올해 초 AI 사용과 개발에 대한 안전 장치를 마련하기 위해 AI 제작자, 사용자, 학자 등으로 구성된 AI 안전 자문 단체를 설립하기도 했다. 미국 AI 안전 연구소 컨소시엄(AISIC)이라는 이름의 단체는 미국 국립표준기술연구소 소속으로 AI 시스템 레드팀화, AI 역량 평가, 위험 관리, 안전 및 보안 보장, AI 생성 콘텐츠 워터마킹에 대한 가이드라인을 마련하는 임무를 맡았다.

오픈AI, 메타, 구글, 마이크로소프트, 아마존, 인텔, 엔비디아 등 주요 기술 기업이 안전한 AI 개발을 위해 컨소시엄에 참여했다.

마찬가지로 영국에서도 오픈AI, 메타, 마이크로소프트 등 기업이 자발적인 협약을 체결해 최신 생성형 AI 모델을 개방하고 영국 AISI의 검토를 받기로 결정했다.

EU는 AI 시스템 규제에서도 상당한 진전을 이뤘다. 지난달 유럽 의회는 세계에서 처음으로 AI를 규율하는 포괄적 법안을 제정했다. 최종 문안에 따르면 이 규정은 "인간 중심적이고 신뢰할 수 있는 AI의 활용을 촉진하는 동시에 인공지능 시스템의 유해한 영향으로부터 높은 수준의 건강, 안전, 기본권, 환경 보호를 보장"할 것을 목표로 한다. ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.