챗GPT는 지난 12개월 동안 AI 분야를 송두리째 흔들었다. 그리고 더 넓게는 기술의 지형을 근본적으로 변화시켰다.
샌프란시스코 기반의 스타트업 오픈AI가 2022년 11월 30일 챗GPT를 출시했다. 이는 기술 환경을 뒤흔들었고, 인공지능(AI)은 주변을 벗어나 빠르게 주류화됐다.
시스코 CIO인 플렛처 프레빈은 “2022년 11월 달라진 점은 기계가 우리와 대화하는 방법을 배웠다는 점이다. 12월이 되자 챗GPT가 상당한 영향을 미칠 것이 분명해졌고, 1년이 지난 지금까지도 계속해서 놀라움과 공포를 안겨주고 있다”라고 말했다.
다른 기업과 마찬가지로 시스코는 챗GPT와 같은 생성형 AI 도구가 궁극적으로 모든 백엔드 IT 시스템과 외부 제품에 내장될 것으로 여기고 있다.
IDC의 전 세계 인공지능 및 자동화 시장 조사 그룹 부사장인 리투 지오티는 “챗GPT의 폭발적인 글로벌 인기는 AI의 주류화 측면에서 진정한 변곡점을 이끌어냈다. AI 및 자동화 투자가 증가했으며, 이에 따라 성과, 거버넌스 및 위험 관리에 중점을 두는 것이 무엇보다 중요해졌다”라고 밝혔다. Image Credit : Getty Images Bank
AI 자체는 새로운 것이 아니다. 기업들은 수십 년 전부터 예측 및 해석 AI에 막대한 투자를 해왔다. 하지만 GPT-3.5의 출시는 전 세계의 이목을 집중시켰고, 생성형 AI 전반과 다양한 도구의 기반이 되는 대규모 언어 모델(LLM)에 대한 투자가 급증하는 계기가 되었다.
LLM은 간단히 말해 다음 단어, 이미지 또는 코드 예측 엔진이다. 예를 들어 (‘챗봇 생성형 사전 학습 트랜스포머’의 약자인) 챗GPT는 자연어 입력을 처리하고 이미 본 내용을 기반으로 다음 단어를 예측하는 컴퓨터 알고리즘인 GPT LLM 위에 구축되어 있다. 그 후 다음 단어와 그 다음 단어를 예측하여 답변이 완성될 때까지 반복한다.
AI의 확산 여정은 다른 기술과 크게 다르지 않다. 프레빈은 보안, 개인정보 보호, 데이터 소유권 및 책임에 대한 유사한 논의와 논쟁을 불러일으켰던 클라우드 컴퓨팅의 초창기에 비유했다.
프레빈은 “어떤 은행도 퍼블릭 클라우드에 데이터를 저장하지 않을 것이며, 어떤 기업도 인터넷에서 이메일을 호스팅하지 않을 것이라는 주장이 있었다. 귀중한 데이터 자산을 다른 사람의 데이터센터에 두는 것이 어떤 의미인지에 대해 불안감이 많았다”라고 말했다.
문제 지적에도 전속력 전진
오늘날 많이 기업이 여전히 챗GPT 및 기타 생성형 AI 도구를 실험하면서 투자 수익이 어느 정도인지 파악하기 위해 노력하고 있다. 가트너 리서치의 수석 부사장 애널리스트인 아비바 리탄에 따르면, 대부분의 기업은 여전히 사용 방법과 이로부터 얻을 수 있는 이점에 대해 확신을 가지지 못한 상태다.
리탄은 “이러한 신기술을 도입하지 않으면 뒤처질 것을 심각하게 걱정하고 있지만, 도입할 준비가 제대로 되어 있지 않다. 기술, 위험 및 보안 관리, 전반적인 전략 측면에서 조직의 준비가 심각하게 부족하다”라고 말했다.
일상적인 업무를 자동화하고, 새로운 형태의 디지털 콘텐츠를 제작하며, 업무 생산성을 높일 수 있을 것이라는 기대가 있었지만 챗GPT로 대표되는 생성형 AI에 대해한 우려의 목소리도 높았다. 출시 몇 달 후, 기술 분야의 유명 인사들은 인류 종말의 시작이 될 수 있다고 공개적으로 경고하며 챗GPT의 개발을 중단할 것을 촉구했다.
애플의 공동 창업자 스티브 워즈니악, 마이크로소프트의 CTO 케빈 스콧, 오픈AI의 CEO 샘 알트먼 등 기술 분야의 유명 인사들이 3만 3,000여 명은 생성형 AI의 사회적 위험성을 경고하는 공개 서한에 동참했다. 이 서한은 AI의 진군에 큰 영향을 미치지는 못했지만, 기술을 통제하려는 정부 이니셔티브에 박차를 가했다. 예를 들어, EU 의회는 AI 법을 통과시켰다.
리탄은 “악당도 이러한 기술을 사용하여 자유를 공격하고 범죄, 독재, 해악이라는 자신들의 의제를 촉진할 것이다. 결국 챗GPT와 생성형 AI는 부정적인 관점과 긍정적인 관점 모두에서 세상을 더욱 극단적으로 만들 것이다”라고 말했다. ⓒ Clarity Capital
미국에서는 조셉 R. 바이든 주니어 대통령이 연방기관이 보안, 개인정보 보호 및 안전 문제에 대해 생성형 AI 애플리케이션을 완전히 심사하도록 요구하는 2가지 행정 명령을 발표했다. 그러나 대부분의 다른 노력은 개인 정보 보호와 시민권 보호를 목적으로 하는 지역별 규칙의 개정판에 지나지 않았다. 현재까지 AI를 통제하려는 목적의 연방 법안은 통과되지 않았다.
기술 윤리학자이자 하버드와 MIT에서 교육을 받은 신경과학자 프리다 폴리는 챗GPT와 다른 AI 플랫폼의 개발 단계가 ‘매우 미숙하고’ 결함이 많기 때문에 규제가 필요하다고 주장했다.
예를 들어, 이달 초 글로벌 컨설팅 회사인 KPMG는 구글 바드 AI 도구가 생성한 정보가 사실과 다르다고 지적했다. 즉, 바드는 실제로 발생하지 않은 사례 연구를 생성했다. 폴리는 구조적 개혁이 필요한 이유의 예로 이를 언급했다.
폴리는 “많은 사람들이 생성형 AI의 각종 문제를 해결하려고 노력하는 대신 다양한 이유로 기술을 더 강력하게 만들기 위해 그저 앞만 보고 달려가고 있다. ‘빨리 움직여서 모든 것을 깨뜨리자’는 철학 자체가 문제가 되고 있다”라고 말했다.
챗GPT, 바드, 클로드 및 기타 생성형 AI 플랫폼의 근간에 자리한 LLM들은 인터넷에서 저작권이 있는 예술 작품, 책, 비디오를 수집하여 모델 학습에 사용했다는 비난을 받기도 했다. 조지 R.R. 마틴, 조디 피콜트, 조나단 프랜즌을 비롯한 16명의 작가는 더글러스 프레스턴과 그들의 허락 없이 저작물을 수집했다며 오픈AI를 저작권 침해로 고소했다.
일부 기술자들은 인터넷 등에서 콘텐츠를 자동으로 스크랩하는 생성형 AI 도구에 의한 지적 재산권(IP) 도용에 맞서 예술가들이 대응할 수 있도록 돕고 있다. ‘데이터 유독화 공격’이라고 불리는 한 가지 무기는 LLM 학습 데이터를 조작하여 머신러닝 모델에 예기치 않은 동작을 유발시킨다. 나이트셰이드라고 불리는 이 기술은 ‘클로킹’을 사용하여 실제로는 전혀 다른 것을 수집하고 있는데도 생성형 AI 학습 알고리즘이 무언가를 수집하고 있다고 믿도록 속인다.
챗GPT와 다른 생성형 AI 도구에서 암묵적 편견이 발견되기도 했다. 프린스턴 대학교 박사 과정의 사야시 카푸어는 챗GPT를 테스트한 결과, 대명사 등 다른 정보에서 수집한 것으로 보이는 어떤 사람에 대한 성별이 명확하게 언급되지 않았을 때 편견이 존재함을 발견했다. 이러한 편견은 생성형 AI로 구동되는 채용 플랫폼으로 이어질 수 있다. 각 주와 도시에서는 AI 채용 편견에 대해 법으로 대응하고 있다.
뉴욕시는 편향성 감사법(Bias Audit Law)이라고도 알려진 지방법 144를 통과시켰는데, 이 법은 채용 기관이 채용 프로세스를 자동화하는 AI 알고리즘이 사용되고 있음을 구직자에게 알리고, 해당 기업은 제3자가 소프트웨어에 대한 감사를 수행하여 편향성을 확인해야 한다는 내용을 담고 있다. ⓒ Clarity Capital 생성형 AI과 일자리
챗GPT 및 기타 유사한 도구가 많은 작업을 자동화하여 고용 시장의 엄청난 부분을 없앨 것이라는 우려도 있었다. 그러나 대부분의 애널리스트, 업계 전문가, IT 리더들은 일자리 감소에 대한 위협을 비웃으며, 대신 생성형 AI가 이미 일상적인 업무를 처리하여 작업자를 지원하기 시작했고, 덕분에 작업자들은 더 창의적이고 지식 기반 업무를 수행할 수 있게 되었다고 말한다.
폴리는 “AI가 모든 일자리를 빼앗는 유일한 시나리오는 인간의 감독 없이 AI가 출시되는 경우이다. 우리 모두는 직장에서 더 성공적으로 일하기 위해 AI를 사용하는 방법을 알아야 할 것이다. 이메일이나 인터넷 또는 스마트폰 사용법을 배워야 했던 것처럼 새로운 기술을 배워야 할 것이다. 하지만 이것이 일자리를 파괴하는 것은 아니라고 본다”라고 말했다.
AI 기반 인재 확보 플랫폼인 페놈의 글로벌 전략 담당 부사장인 클리프 주르키에비츠는 생성형 AI에서 실행되는 개인 비서가 전화기처럼 일상적인 것이 될 것이라고 말했다. ⓒ Clarity Capital
주르키에비츠는 “우리가 데이터를 더 많이 입력할수록 그것은 우리에 대한 모든 것을 알게 될 것이다. 우리는 작업을 대체하는 생태계에 살고 있기 때문에 공동 봇은 지금처럼 시리와 알렉사가 하는 것처럼 캘린더 약속을 설정하는 것 이상으로 확장되어 우리 삶의 모든 작업을 상호 연결하고 관리하게 될 것이다”라고 말했다.
시스코의 프레빈은 지난 한 해 동안 생성형 AI가 일자리를 없애는 암살자가 아니라 ‘어깨를 나란히 하는’ 팀 동료가 될 것이라는 점이 더욱 분명해졌다며 이에 동의했다. 어떤 기술이 일자리를 완전히 없앨 것이라고 믿는 것은 노동 파이가 유한하다는 개념에 근거한 오류라는 지적이다.
프레빈은 “생산성을 높이고, 잡무를 덜어주며, 본질적으로 파이가 커지는 데 큰 힘이 될 것이라고 믿는다. 20년 전에는 모바일 앱 개발자라는 직업이 없었다. 기술은 이러한 새로운 기회와 역할을 창출하며, AI를 통해 이러한 일이 일어나기 시작했다고 생각한다”라고 말했다.
실제로 라이트캐스트의 최근 노동 시장 분석에 따르면, 기업들이 새로운 AI 애플리케이션을 개발하기 위해 노력함에 따라 2023년에 생성형 AI 관련 기술을 요구하는 채용 공고가 1,848% 급증했다.
라이트캐스트 데이터에 따르면 2022년에는 생성형 AI 지식을 요구하는 채용 공고가 519건에 불과했다. 라이트캐스트에 따르면 챗GPT가 등장한 이후 2023년 현재까지 1만 113건의 생성형 AI 위주의 채용 공고가 있었고, 모든 형태의 AI 역할에 대한 채용 공고는 38만 5,000건이 넘었다. Lightcast
라이트캐스트에 따르면 부업용 앱인 퍼드, 교육 기업 체그, 메타, 캐피탈 원, 아마존 등이 생성형 AI 역량을 유독 많이 채용하는 기업들이다. 라이트캐스트의 수석 이코노미스트인 레일라 오케인은 “이는 다양한 조직에서 이 기술을 서비스에 통합하기 위해 노력하고 있음을 보여준다”라고 말했다.
오케인은 “직무 설명에 새로운 기술을 추가하는 것은 기업이 새로운 기술을 실험하는 단계에서 실제 전략적으로 도입하는 단계로 나아갔다는 신호일 때가 많다. 현재 많은 조직이 아직 실험 단계에 머물러 있다. 하지만 이들이 주요 비즈니스 의사 결정을 내리면서 이 목록이 늘어날 수도 있다”라고 전했다.
AI와 같이 진정으로 파괴적인 기술의 자연스러운 발전은 새로운 직업을 창출하는 것이라고 주르키에비츠는 말했다. 그에 따르면 이러한 새로운 역할에는 다음이 포함될 것이다.
● AI 윤리주의자(도구를 윤리적으로 사용하는 데 중점을 둠)
● AI 큐레이터
● 정책입안자 및 법률 자문
● 트레이너(프롬프트 엔지니어)
● 감사
● 통역(기술이 어떻게 사용되고 있는지 번역하는 사람)
챗GPT의 놀라운 사용사례
프레빈은 AI가 결코 침범하지 못할 것이라고 생각했던 역할 중 하나가 소프트웨어 개발자였으며, 소프트웨어 개발은 독특한 창의력이 필요한 일종의 예술인 것으로 간주됐기 때문이라고 전했다. 하지만 챗GPT는 기업의 데이터 위생과 보안을 다루는 코드를 만드는 데 능숙하며, 코드를 재사용하여 새로운 앱을 구축할 수 있다.
마이크로소프트의 연구에 따르면 챗GPT로 구동되는 깃허브 코파일럿 도구는 개발자가 최대 55% 더 빠르게 코딩할 수 있도록 도와주며, 현재 깃허브로 체크인되는 모든 코드의 절반 이상이 개발 과정에서 AI의 도움을 받고 있다. 깃허브의 CEO인 토마스 돔케에 따르면 이 수치는 향후 5년 이내에 깃허브에 체크인 되는 모든 코드의 80%로 증가할 것으로 예상된다.
프레빈은 “이전에는 소프트웨어 개발 일정을 압축할 수 있는 방법이 드물었다. 이제 코드 읽기, 코드 위생, 보안, 코멘트를 위한 코파일럿과 같은 기능을 통해 개발자를 지원함으로써 속도를 크게 가속화할 수 있다는 것이 밝혀졌다”라고 말했다.
그러나 프레빈은 어떤 코드가 AI의 손길을 거쳤는지, 거치지 않았는지 파악하는 것이 매우 중요할 것이라고 말했다. AI가 생성한 모든 코드에는 워터마크를 표시하고 최소 2명의 사람이 검토하도록 해야 한다. 그는 “이런 일에는 사람이 참여해야 한다”고 말했다. (‘워터마킹’이란 메타데이터를 포함하거나 단순히 코드 조각에 AI가 생성에 도움을 줬다고 명시하는 것을 의미한다).
생성형 AI의 소프트웨어 개발 및 엔지니어링 능력은 시스코의 내부 IT 시스템과 외부 제품 전략에도 변화를 가져왔다. 지난해 11월부터 프레빈의 IT 부서는 AI를 기본 인프라로 삼는 ‘전략’을 개발했다.
이 전략은 기업 내부적으로는 자동화된 헬프 데스크 기능과 같은 영역을 포함하여 생산성 향상을 위해 AI를 사용하는 것을 의미한다. 이제 시스코는 외부적으로 ‘모든 제품 포트폴리오에 AI를 적용하고 디지털 IT에서 관리하는 전체 디지털 자산을 보강하는 방법’을 고려하고 있다.
프레빈은 “아울러 다른 공급업체가 다른 사람들의 도구에 출시하는 AI 기능을 안전하게 채택하고 수용할 수 있도록 정책, 보안 및 법적 [가드 레일]을 마련하는 것이 [중요하다]. 모든 사스 공급업체가 이 여정을 함께하고 있다고 상상할 수 있다. 하지만 우리는 책임 있는 AI 정책과 호환되는 방식으로 이 여정을 활용할 준비가 되어 있을까?”라고 말했다.
코드 생성을 넘어 테스트 도구와 자동화된 소프트웨어 품질 분야에서도 생성형 AI가 빠르게 수용되고 있다. IDC의 지오티는 “우리는 또한 생성형 AI와 예측 AI 사용의 융합을 목격하고 있다”라고 말했다.
인간의 감독이 여전히 중요
향후 3년 정도에 걸쳐, 생성형 AI는 환각과 기타 원치 않는 결과물을 크게 줄이고 제한하여 조직이 의사 결정과 프로세스에 안정적으로 사용할 수 있도록 해야 할 것이다. 현실 세계에서의 적용은 단순히 효율성과 생산성을 높이기 위해 생성형 AI를 사용하는 것이 아니라 리탄이 말하는 ‘게임체인저로서의 사용 사례’로 발전해야 한다.
리탄은 멀티모달 기능이 극적으로 확장될 것이라고 믿는다. (멀티모달 AI는 두 가지 이상의 데이터 유형에 대한 결과물을 처리, 이해, 생성할 수 있다.)
그녀는 “결론은 챗GPT나 생성형 AI를 그냥 오토파일럿으로 설정할 수 없다는 것이다. 환각, 부정확한 출력, 허위정보 및 정보조작에 대한 응답을 선별해야 한다. 그러기 위해서는 의심스러운 거래를 강조 표시하고 수동으로 조사할 수 있는 툴이 필요하다”라고 말했다.
그러나 새로운 도구와 프로세스는 잠재적인 기업 ROI를 분산시키거나 감소시키는 추가 비용을 의미하므로 양날의 검과도 같다. 그러나 이러한 유형의 예외 심사가 없다면 조직은 잘못된 의사 결정, 프로세스 및 커뮤니케이션으로 이끌리게 될 것이다.
생성형 AI의 미래에 대한 또 다른 관심사는 AI가 더 이상 사람의 입력 없이도 생각할 수 있는 자기 인식, 즉 범용 인공 지능이다.
페놈의 주르키에비츠는 가까운 미래에 범용 인공 지능이 ‘경험에 대한 유아적 반응’을 보이기 시작할 것이라고 생각한다. “더 많은 사람들이 이 기술을 사용함에 따라 내년부터는 그 중 일부를 보게 될 것이다. 이런 일이 조만간 일어날 것이라는 것은 부인할 수 없다”라고 말했다.
주르키에비츠는 “이전에는 AI가 특정 질문에 응답하지 않도록 인간이 프로그래밍했기 때문에 특정 질문에 대한 답변이 차단되었다. AI는 스스로 응답하는 것이 적절하다고 생각하는 것에 대해 결정을 내릴 수 있는 수준까지 발전할 것이다. 인간은 이를 차단하지 않는 한 통제할 수 없다”라고 덧붙였다. ciokr@idg.co.kr