Offcanvas

AI / 머신러닝|딥러닝 / 분쟁|갈등 / 오픈소스

혁신과 소비자 보호의 균형점을 찾아라··· EU 인공지능 법의 최대 과제

2023.05.24 Martin Bayer  |  CIO
2021년 제안된 인공지능 법(AI Act)으로 유럽 연합(EU) 회원국들은 AI 규제 수준을 놓고 치열한 토론을 진행하고 있다. AI 법의 위험성에 주목하며 소비자에게 더 많은 통제권과 권리를 부여하자는 입장과 AI 법의 지나친 규제로 기업이 혁신하는데 방해가 될 수 있다는 입장이 동시에 존재한다.
 
ⓒ Getty Images Bank 

유럽연합(EU) 의회 회원국은 AI 사용 규제에 다룬 AI 법 초안에 대해 동의하고 개별 회원국들과의 협상 및 해결을 위해 다음 절차 단계를 진행하고 있다. 아직 논의해야 할 것들이 많지만 결국 챗GPT 등 AI 기술의 사용을 규제하기 위해 EU 회원국 전체를 관장하는 기관이 필요할 것이다. 

AI 법의 핵심은 AI 시스템의 위험도를 구분하여 분류하고, 어떤 기술을 완전히 금지해야 하는지 정하는 것이다. 인간을 대신해 중대한 결정을 내리는 AI에 대해서는 특별히 높은 기준이 적용되어야 할 것이다. 따라서 특정 AI가 의사결정을 내릴 때 어떤 데이터가 훈련에 사용됐고, 알고리즘이 어떻게 적용돼 결정을 내리지는 투명하게 공개돼야 한다. EU 당국은 AI 애플리케이션이 안전하고 신뢰할 수 있는 방식으로 작동하고 기본 인권을 침해하지 않도록 기반을 마련해야 한다.

아직 법안 내용이 최종 확정되지 않은 상황에서 일단 자체적인 규제를 시작한 EU 회원국도 있다. 예를 들어, 지난 4월 이탈리아 당국은 미성년자 사용자 관리의 부재 및 훈련 데이터의 저작권 위반 문제로 강경한 입장을 취하고 자국 내 챗GPT 사용을 금지했다. 하지만 이후 특정 조건에서 챗GPT를 사용해도 좋다고 다시 허용했다.

다른 EU 국가들도 이탈리아 데이터 보호 당국의 이니셔티브를 따르고 있다. 독일은 챗GPT가 데이터 보호 규칙을 위반한다는 사실이 입증될 경우 금지해야 한다고 주장했다.

과도한 규제가 혁신을 저해하고 있다
일단 소비자 보호 단체들은 시민권 보호를 위해 AI에 대한 엄격한 규제를 요구하고 있다. 하지만 비즈니스 업계에서는 과도한 기술 규제는 혁신 속도 저하로 이어질 수 있다고 경고하는 중이다. 너무 엄격한 AI법 해석으로 EU가 중요한 미래 지향적 산업에서 뒤처질 수 있다고 지적하는 사람들도 있다. 

머신러닝 관련 오픈소스 기술을 개발하는 비영리 단체인 라이언(LAION)은 기술 발전을 위해 AI 규제를 완화해 달라고 EU 당국에 요구하고 있다. AI를 감독하려는 의도는 환영하지만 그 수준이 너무 과도하면 안된다는 것이다. 따라서 AI 법안 수준을 신중하게 조율하고 연구 및 개발을 보호해 유럽의 AI 경쟁력을 유지해야 한다고 설명했다. 여기에는 MPIIST(Max Planck Institute for Intelligent Systems in Tübingen)의 버나드 숄코프와 DFKI(German Research Center for Artificial Intelligence)의 책임자 안토니오 크루거가 공개 지지를 보냈다.

라이언은 특히 오픈소스 AI 모델을 과도하게 규제해서는 안 된다고 주장하고 있다. 오픈소스 시스템은 AI 사용과 관련하여 투명성 및 보안성을 지원할 수 있다는 이유에서다. 또한, 오픈소스 AI는 소수의 기업들이 기술을 통제하고 지배하지 못하도록 방지한다. 적절한 규제는 유럽의 디지털 자주권을 확보하는데 도움이 될 수 있다는 점을 강조하고 있다. 

규제가 너무 약하면 소비자 권리가 약화된다
한편 독일 소비자기관연방(VZBV)은 소비자들을 위해 더 많은 권리를 요구하고 있다. 이들은 공개성명서를 통해 생성형 AI의 위험을 감소시키기 위해 EU AI 법으로 소비자 권리를 강력하게 보호하고, 독립적인 위험 평가 시스템을 확보해 달라고 밝혔다. 미래 소비자는 AI 기반 추천 시스템에 영향을 더 받을 수 있기 때문이다. 

VZBV의 이사회 임원 라모나 팝은 “AI 시스템은 구매 추천, 평가, 소비자 정보를 조작할 위험이 있다. 인공지능은 항상 똑똑한 것은 아니며, 소비자들은 AI 제어 추천 시스템 등을 통해 조작 및 속임수를 피할 수 있게 적절한 보호를 받아야 한다. 따라서 외부 과학자가 독립적으로 AI의 위험과 기능을 평가할 수 있도록 접근 권한을 받아야 하며, AI 기술에 대항할 수 있는 권리도 각 개인이 보장받아야 한다”라고 말했다. 

VZBV는 또한 “챗GPT 등으로 누군가 불이익을 받았다면 관련 정보를 수정하고 삭제할 수 있는 권리도 있어야 한다”라며 “AI 법은 AI 애플리케이션이 유럽의 법률을 준수하고 유럽이 추구하는 가치를 따를 수 있게 만들어야 한다”라고 덧붙였다.

제조사들의 자체 평가로는 부족하다
독일의 기술평가협회(Technical Inspection Association, TÜV)는 기본적으로 EU 회원국이 AI 법의 기본 취지에 합의했다는 사실을 환영하고 있지만 추가적인 개선 여지가 있다고 밝혔다. 기술평가협회의 MD 호아킴 뷸러는 “이 기술의 부정적인 결과로부터 사람들을 보호함과 동시에 비즈니스 분야에서 AI 사용을 촉진하기 위해 명확한 법적 근거가 필요하다”라고 말했다.

뷸러는 특히 알고리즘 투명성과 관련된 요구사항을 준수해야 한다고 말했다. 하지만 잠재적 위험성이 내포된 AI 시스템 중 독립적으로 감사할 수 있는 기술은 매우 일부에 불과할 것이라고 지적했다. 

뷸러는 “얼굴 인식, 채용 소프트웨어, 신용 평가 등 기본 AI 애플리케이션 대부분의 경우, 제조사가 자발적으로 신고서를 제출한다면 제품 출시를 할 수 있도록 계속 허용해야 한다”라며 “다만 위험성이 높은 애플리케이션을 따로 분류하는 것은 제조사가 제출하는 정보에 기초하기 때문에 매우 정확한 분류는 어려울 것”이라고 덧붙였다.

기술평가협회에 따르면, 애플리케이션이 보안 요건을 충족하는지 확인하기 위해 모든 고위험 AI 시스템은 출시 전에 독립적으로 테스트하는 것이 바람직하다. 뷸러는 “해당 AI 애플리케이션이 의료, 자동차, 에너지 인프라, 특정 기계 등 중요한 영역에서 사용될 때는 더욱 테스트가 필요하다”라고 말했다.

AI는 서비스를 제공하되 조작하지 않아야 한다
독일 연방 디지털교통부(BMDV) 발표한 공식 자료에 따르면, 지난 4월 말 일본에서 열린 회의에서 G7 국가 디지털 부서 장관들은 명확한 국제 규칙과 표준을 통해 AI의 빠른 발전에 동참해야 한다는 입장을 밝혔다. 

독일 연방 교통부 장관 폴커 피싱은 “G7 국가는 AI 규제에 관해서는 신속하게 행동해야 한다는 데 동의했다”라며 “생성형 AI는 생산성을 높이고 우리의 삶을 개선할 수 있는 엄청난 잠재력을 가지고 있다. 주요 선진국이 앞장서 남용과 조작으로부터 시민을 보호하도록 현명한 규칙을 마련하여 발전과 함께하는 것이 더욱 중요하다. 인공지능은 우리를 조종하는 것이 아니라 우리를 위해 봉사해야 한다”라고 밝혔다. 
 
하지만 AI 법은 2021년 4월부터 EU 의회에서 논의 중인 단계에 있기 때문에 피싱이 바라는 만큼 빨리 진행될지는 미지수다. EU 의회에서 합의가 끝나더라도 EU 이사회, 의회, 위원회가 3자 협상하는 것은 2023년 여름에 시작될 수 있을 것이다. 최종 제안서가 마련되고 이를 법률로 전환되는 시기는 아무도 알 수 없다. AI의 기술 발전이 AI 규제안이 만들어지는 속도보다 빠를지도 아무도 장담할 수 없다.
ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.