Offcanvas

AI / 머신러닝|딥러닝 / 보안

아스펜 연구소 “생성형 AI, 사이버 공격 도구로 확산··· 당국 차원 안전장치 더 마련해야”

2024.01.22 Jon Gold  |  CSO
전 세계 여러 국가가 생성형 AI 관련 규제안을 하나둘 내놓고 있지만, 여전히 허용 범위에 대한 구체적인 지침이 더 필요한 상황이라고 미국 비영리 싱크탱크인 아스펜 연구소가 밝혔다.
 
지역 및 국가별 AI 규제안 ⓒ 아스펜 연구소

아스펜 연구소는 지난 16일 발행한 ‘생성형 AI 규제와 사이버 보안: 정책 결정에 대한 글로벌 관점’ 보고서를 통해 각국 정부는 생성형 AI 관련 규제를 조치를 보다 적극적으로 취해야 한다고 밝혔다. 사이버 보안 분야에서 생성형 AI의 활용도가 급격히 높아지고 악의적인 공격자가 생성형 AI를 활발히 사용하고 있는 상황에서, 피해를 줄이기 위해선 정부가 주도적으로 규제안을 마련해야 한다는 것이다.

아스펜 연구소는 생성형 AI를 ‘엄청난 기술’이라고 표현했지만, 동시에 생성형 AI 기반 사이버 공격이 빈도와 피해 규모 측면에서 모두 심각해지고 있으며 더 많은 대중에게 영향을 주고 있다고 지적했다. 그런 면에서 생성형 AI의 이점이 오용 가능성보다 더 커지지 않도록 규제 기관과 업계 단체의 역할이 중요하다고 설명했다

아스펜 연구소는 “오늘날 정부, 기업, 조직이 취하는 조치는 공격자와 방어자 중 누가 이 새로운 기능으로부터 더 많은 혜택을 받을 수 있는지를 결정하는 토대가 될 것”이라고 설명했다.

생성형 AI 보안에 대한 전 세계의 다양한 대응
미국, 영국, 일본과 같은 국가가 취하는 규제 접근 방식은 유엔(UN)이나 유럽연합(EU)가 취하는 접근 방식과 다르다. 아스펜 연구소에 따르면 유엔은 유네스코, AI에 관한 기관 간 실무 그룹, 사무총장 산하 고위급 자문 기구 등 다양한 하위 그룹을 통해 보안, 책임성, 투명성에 초점을 맞춰 규제안을 마련하고 있다. EU는 2023년 12월에 합의한 AI 법에 투명성, 데이터 보호, 모델 학습 데이터에 대한 규칙 등 다양한 조항을 포함하는 등 개인 정보를 보호하고 생성형 AI로 인한 보안 위협에 대처하기 위해 적극적으로 노력하고 있다.

미국에서는 입법부 차원에서 AI 규제안을 만들지 않았다. 대신 바이든 행정부는 해를 끼칠 수 있는 AI 기능에 특히 중점을 두고 ‘AI 기능 평가를 위한 지침과 벤치마크’ 제공하는 행정 명령을 발표했다. 미국 사이버보안 및 인프라 보안국(CISA)과 영국 보안 당국의 경우 AI 지침을 발표하긴 했지만 해당 지침은 강제성이 없다고 아스펜 연구소는 평가했다.

반면 일본은 엄격한 규칙이나 위험 평가보다는 공개 채널과 개발자 피드백에 더 중점을 두는 등 AI 사이버 보안 관점에서 간섭을 최소화하는 방법을 추구하고 있다고 아스펜 연구소는 분석했다.

아스펜 연구소는 AI 규제안은 적절한 시기에 빠르게 마련되는 것이 중요하다고 강조했다. 또한 아스펜 연구소는 생성형 AI 보안 사고가 발생하면 대중의 신뢰를 잃을 수 있으며, 시간이 지날수록 악의적인 목적으로 사용되는 새로운 AI 기능은 더 나올 것으로 예상했다.

아스펜 연구소는 “생성형 AI 보안 공격이 더 확산되고 대중의 신뢰를 잃기 시작되면, 위협 탐지에서 생성형 AI를 어디까지 활용해야 하는지에 선제적인 논의를 제대로 못 할 수 있다. 또한 AI 방어 기술과 관련한 윤리적 딜레마를 검토할 기회를 놓칠 수 있다”라고 경고했다.
ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.