미 바이든 정부가 AI 관련 규제안을 발표했다. 행정 명령 형태로 발표된 이번 규제안은 AI 기술을 문제점을 방지하는 동시에 AI 시장이 성장할 수 있는 길을 제공하는 데 집중됐다.
조 바이든 미국 대통령이 인공지능(AI)의 개발과 사용을 위한 포괄적인 일련의 표준, 안전 및 개인정보 보호, 감독 조치를 담은 행정 명령을 30일 공개했다.
안전성, 보안성, 신뢰성을 가진 인공지능 개발을 촉구하는 이번 행정 명령에는 약 20가지 이니셔티브가 포함됐다. 생성형 AI 붐 이후 AI 업계가 미 정부의 지침을 오랫동안 기다려 왔다는 점에서 이번 행정 명령은 의미가 크다.
미 정부는 향후 보안 및 안전 조치를 통해 자국민의 개인정보를 보호하고 생성형 AI 관련 문제를 해결할 예정이다. 특히 AI와 관련된 편향성이나 시민 권리 문제를 다룰 예정이다. 가령 생성형 AI 기반 자동 채용 시스템이 자체적으로 편향성을 가지면서 인종, 성별에 따라 일부 구직자에게 유리하게 작용하는 경우에 대한 제재를 가할 수 있다.
이번 행정명령은 국방물자생산법(Defense Production Act)을 기반으로 만들어졌다. 국방물자생산법은 미 대통령이 미국 산업을 통제할 수 있는 비상 권한을 부여하는 법으로 1950년대인 냉전 시대에 처음 생겨났다. 새로운 규제에 따라 생성형 AI 개발사는 안전성 테스트 결과 및 기타 정보를 정부와 공유해야 한다. 또한 미국 국립표준기술연구소(NIST)가 앞으로 AI 도구 공개 전에 안전성과 보안을 보장하는 표준을 만드는 역할을 담당한다.
디지털 트랜스포메이션 서비스 기업 UST의 수석 AI 아키텍트 아드난 마수드(Adnan Masood)는 “미국의 행정 명령은 AI를 규제하는 쪽으로 전 세계적인 관심이 필요하다는 상황을 잘 보여준다”라며 “특히 AI가 단순한 기술 발전이 아니라 사회적 규범을 재정의할 수 있는 패러다임의 변화라는 점을 이번 행정 명령으로 명확히 확인할 수 있다”라고 설명했다.
마수드는 제대로 검수 되지 않은 AI의 영향력을 인식하는 것을 시작으로 앞으로 세부 사항도 더 자세히 논의하는 과정이 필요하다고 지적했다. 마수드는 “좋은 첫걸음이지만, AI 실무자에게 복잡한 세부 사항을 고려해야 한다는 과제가 주어질 것이다. 개발자는 AI 시스템의 안전성을 보장하는 데 도움이 되는 표준, 도구, 테스트를 만들고 그 결과를 대중과 공유해야 할 것”이라고 설명했다.
이번 명령으로 미국 당국은 스스로 ‘고급 사이버 보안 프로그램’을 수립하고 핵심 소프트웨어의 취약점을 찾아 수정하는 AI 도구를 만들 수 있게 지원해야 한다. 또한 국가안전보장회의(National Security Council)는 행정부 인사들과 협력하여 군 당국과 정보 기관이 모든 임무에서 안전하고 윤리적으로 AI를 사용할 수 있게 지원할 예정이다.
또한 미국 상무부는 AI로 생성된 콘텐츠에 명확한 구분을 위해 콘텐츠 인증 및 워터마킹 지침을 개발하는 일을 맡게 된다. 실제로 생성형 AI 도구가 예술 및 기타 콘텐츠를 모방하는 데 사용됨에 AI 콘텐츠 구분 기술은 중요해지고 있다. 행정 명령 발표문에서 미 당국은 “연방 기관은 직접 만든 AI 도구를 사용하여 정부가 국민에게 제공하는 정보가 진짜임을 쉽게 확인할 수 있게 하고, 전 세계 민간 부문과 공공 부분에 모범을 보일 것”이라고 설명했다.
지금까지 기술 관련 민간 기업과 대학은 AI의 지적 재산 및 예술 도용에 맞서 싸우는 데 앞장서 왔다. 실제로 점점 더 많은 기업이 AI와 인간이 만든 콘텐츠를 구분하기 위한 워터마킹 기술 또는 외부 및 공개 데이터를 AI 학습 과정에서 허락 없이 쓰지 못하게 하는 도구를 개발하고 있다.
미국의 행정명령과 별개로 30일 주요 7개국(G7)의 주요 정상은 11개 항목으로 구성되면서 AI 안전 원칙과 AI 기업 원칙을 다룬 자발적 행동 규범에 합의했다. 해당 규범은 올해 초 바이든 행정부가 발표한 미 정부의 자발적 행동 강령 내용과 유사하다.
바이든 정부는 30일 행정 명령 발표문에서 “미국은 적극적으로 AI 규제 의제를 제시하는 국가이다. 앞으로 AI의 개발 및 사용을 관리하기 위한 강력한 국제적 프레임워크를 만들고 해외 동맹국 및 파트너와 협력할 것”이라고 밝혔다. 이미 미 행정부는 이미 지난 몇 달 동안 호주, 브라질, 캐나다, 칠레, 유럽연합, 프랑스, 독일, 인도, 이스라엘, 이탈리아, 일본, 케냐, 멕시코, 네덜란드, 뉴질랜드, 나이지리아, 필리핀, 싱가포르, 한국, 아랍에미리트, 영국과 함께 AI 거버넌스 프레임워크에 대해 폭넓게 협의해 왔다.
이번 행정 명령은 또한 국가 안보, 경제 안보 또는 공중 보건에 심각한 위험을 초래할 수 있는 대규모 언어 모델(LLM)을 개발하는 기업에 영향을 미칠 것으로 보인다. 모델을 훈련할 때 필요한 정부를 연방 정부에 통보해야 하고 모든 안전 테스트 결과를 공유해야 하기 때문이다.
가트너 리서치의 부사장 겸 애널리스트인 아비바 리탄은 새 행정 명령이 대형 AI 개발업체에게 명확성과 안전성 테스트를 강력하게 요구하는 측면이 있지만 여전히 미흡한 점이 많다고 평가했다. 그런 면에서 실제 규정 시행의 한계가 있으며 의회의 법률 제정이 필요한 상황이라고 설명했다. 리탄은 특히 다음 부분에 대해서 이번 행정명령이 명확하게 설명하지 않았다고 지적했다.
'가장 강력한' AI 시스템라는 정의는 누가 할 수 있는가?
오픈소스 AI 모델에는 어떻게 적용될 것인가?
콘텐츠 인증 표준은 소셜 미디어 플랫폼과 기타 인기 소비 공간에서 어떻게 시행할 수 있는가?
전반적으로 이러한 의무와 가이드라인을 준수해야 할 대상은 어떤 분야/기업인가?
리탄은 “또한 규제 메커니즘이 존재한다고 해도 어떤 방식으로 시행될지 명확하지 않다. 가령 이러한 조치를 모니터링하고 집행하는 기관은 어디인가? 규정 미준수에 대한 처벌은 어떻게 되나? 이런 부분이 결정되지 않았다”라고 말했다.
마수드는 미 연방 당국이 ‘상당한 진전’을 이루긴 했지만 이번 행정 명령은 AI와 관련된 표면적 문제만 다루고 있다고 평가했다. 그는 “이번 행정명령은 의도적으로 안전 위협이 구체적으로 무엇인지에 알려주기보다 더 많은 질문을 던지록 구성됐다”라며 “행정 명령이 시행되면 우리 모두 ‘누가 이러한 의사결정을 주도할까?’, ‘잠재적 위협을 정확히 어떻게 테스트할까?’ 같은 질문을 따져봐야 한다. 특히 ‘어떻게 하면 위험한 기능을 처음부터 제거할 수 있을까’를 논의해야 한다”라고 말했다.
이번 행정 명령이 핵심적으로 다루려는 부분은 생명 공학에서 AI를 사용하는 것이다. 가령 미 당국은 표준을 만들어서 AI가 인류를 해칠 수 있는 치명적인 바이러스나 인명을 살상하는 의약품과 같은 유해한 생물학적 유기체를 만드는 데 사용되지 않도록 도울 예정이다.
리탄은 “연방 정부 예산을 받는 생명과학 프로젝트의 경우 이번 행정 명령이 기준선으로 활용될 수 있다”라며 “더 나아가 민간 자본이나 연방 정부가 아닌 자금 지원 기관 및 출처(예: 벤처 캐피탈)에 대해서도 이러한 기준을 시행해야 할 것이다. 또한 더 나아가 이러한 기준을 누가, 어떻게 시행할 것인지, 규정 미준수 시 어떤 처벌을 받게 되는지 설명해야 할 것이다”라고 밝혔다.
리서치 기업 IDC의 부사장 애널리스트인 리투 조티(Ritu Jyoti)는 “바이든 대통령이 잠재적 위험으로부터 사람들을 보호하면서 AI의 힘을 선하게 활용할 의무가 있다는 점을 분명히 인정한 것이 눈에 띄었다”라고 말했다.
AI 규제안을 다루는 곳은 미국뿐만 아니다. 올해 초 EU 의회는 인공지능 법(AI 법) 초안을 승인했다. 이 법안은 챗GPT 등 생성형 AI 개발자가 콘텐츠 투명성 조건을 지키도록 요구한다. AI가 생성한 콘텐츠를 따로 표시하거나 딥페이크가 만든 이미지와 실제 이미지를 구분하도록 강제하는 식이다.
IDC의 조티는 미국이 EU를 참고해 AI 규제안을 마련했을 수 있지만, 미국 정부가 타 국가보다 AI 규제 역량이 뒤처진다고 표현할 수 없으며 동시에 유럽이 AI 안전망을 더 잘 설치했다고 볼 수 없다고 평가했다. 조티는 ”전 세계 당국 모두가 사회적 이익을 위해 AI 거버넌스에 협력할 수 있을 것”이라고 설명했다.
가트너의 리탄은 조금 다른 시각을 가지고 있었다. 리탄은 “EU의 AI 법이 미 대통령의 행정명령보다 앞서 있다”라며 ”EU 규제안은 법 집행 관련 영향을 받는 기업의 범위를 명확히 하고 있기 때문이다. 다시 말해 EU 시장에 출시되거나 서비스에 투입되거나 사용되는 모든 AI 시스템에 해당 규제가 적용된다고 분명히 표현했다”라고 밝혔다.
비영리 단체인 국제 개인정보 보호 전문가 협회(IAPP)의 부사장 겸 최고 지식 책임자인 케이틀린 페네시(Caitlin Fennessy)는 “바이든 정부의 지침이 테스트 및 투명성 요건을 통해 책임감 있는 AI에 대한 시장의 기대치를 설정할 것”이라고 설명했다. 페네시는 또한 AI로 생성된 콘텐츠에 대한 디지털 워터마킹과 정부 조달을 위한 AI 안전 표준 등에 대한 미국 정부의 노력에 박수를 보냈다.
페네시는 “바이든 대통령은 이번 행정 명령과 함께 의회에 초당적인 개인정보 보호법안 통과를 촉구하면서 개인정보 보호와 AI 거버넌스 간의 중요한 연관성을 강조했다”라며 “국방물자생산법을 활용하여 AI를 규제하는 것은 고려되는 국가 안보 위험의 중요성과 행정부가 느끼는 행동의 시급성을 분명히 보여준다”라고 밝혔다.
바이든 정부는 이번 행정 명령으로 소규모 개발사와 기업가가 기술 지원과 자원에 접근할 수 있도록 보장하고, 중소기업이 AI 혁신을 상용화하도록 돕고, 연방거래위원회가 권한을 행사할 수 있도록 장려할 것이라고 기대하고 있다. 동시에 공정하고 개방적이며 경쟁력 있는 AI 생태계를 촉진하는 데 도움이 될 것이라고 설명했다.
바이든 정부는 이번 행정 명령에서 이민 및 근로자 비자 규제 변화에 대해서도 언급했다. 기술 분야 전문가가 해외에 많다는 점을 고려하면 주목할 만한 변화다. 미 당국은 비자 기준, 인터뷰 및 심사를 현대화하고 간소화하면서 전문성을 갖춘 외국인이 미국에서 공부하고, 체류하고, 일할 수 있는 능력을 확대할 예정이다.
페네시는 미국 정부가 AI를 구축하고 관리할 전문가를 빠르게 고용하고 정부 기관 전반에 걸쳐 AI 교육을 제공함으로써 모범을 보이고 있다고 말했다. 그는 “AI 거버넌스 전문가와 교육에 초점을 맞추면 우리가 신뢰할 수 있는 방식으로 혁신을 지속하는 데 필요한 기술 및 사용 맥락에 대한 깊은 이해를 바탕으로 AI 안전 조치를 개발할 수 있다”라고 말했다.
폴란드 기업이자 AI 광고 회사인 RTB 하우스(RTB House)의 분석 및 데이터 과학 책임자인 제이슨 길레스피(Jaysen Gillespie)는 AI 비즈니스 리더 대부분이 일부 규제가 필요하다는 데 동의하기 때문에 바이든은 유리한 위치에서 출발하고 있다고 말했다. 참고로 RTB 하우스는 리타겟팅과 실시간 입찰 전략 등 타겟팅 광고에 AI를 사용하고 있다.
길레스피는 “AI 규제는 초당적인 접근이 가능한 몇 안 되는 주제”이라며 “행정 명령의 배경을 고려할 때, 대통령은 21세기 매우 중요한 주제에 대해 적극 대응하면서 개인적 그리고 국가적 리더십을 확립할 수 있는 진정한 기회를 얻을 수 있을 것”이라고 설명했다.
ciokr@idg.co.kr