Offcanvas

AI / 로봇|자동화 / 머신러닝|딥러닝 / 신기술|미래

블로그ㅣAI에게는 여전히 인간의 전문성이 필요하다

2023.02.21 Matt Asay  |  InfoWorld
깃허브 코파일럿(GitHub Copilot)부터 챗GPT를 탑재한 빙(Bing) 검색까지 ‘AI’가 점점 더 일상생활에 스며들고 있다. 그 방향성(기계가 더 많은 일을 하여 사람은 더 가치 있는 일에 시간을 집중할 수 있음)은 좋지만 AI가 제공하는 결과를 신뢰하려면 특정 분야에서의 상당한 전문성이 필요하다. 
 
ⓒGetty Images Bank

아이로봇(iRobot)의 前 클라우드 로봇 연구 과학자 벤 키호는 사람들은 AI가 제안하는 모든 것에 궁극적인 책임을 져야 하며, 이는 AI의 제안이 적절한지 판단하는 것이라고 주장했다

결과에 대한 책임
AI는 이제 막 걸음마를 시작했고 엄청난 가능성을 보여주고 있지만 자라서 무엇이 될지는 명확하진 않다. 필자는 지금까지 AI의 가장 큰 성공은 사람을 희생하는 게 아니라 사람을 보완하는 것이라고 언급한 바 있다. 사람이 처리할 순 있지만 그 속도가 훨씬 느린 질문에 연산 집약적 쿼리를 대규모로 실행하여 답하는 기계를 생각하라. 

우리는 이제 ‘완전 자율주행 자동차’와 같은 것을 가지게 됐다. AI/소프트웨어가 아직 부족한 점이 많을 뿐만 아니라 법은 여전히 운전자가 충돌에 관해 AI를 탓하는 것을 허용하지 않아서다(미국에서 작년 한 해 동안 자율주행 시스템과 관련해 400건가량의 충돌 사고가 발생했다).

물론 필자는 이러한 AI 사용을 반대하는 게 아니다. 그보다는 키호의 주장처럼 사람들이 AI를 사용한 결과에 대해 AI를 탓할 수 없다는 점을 상기시키고자 한다. 테슬라가 다른 차량과 충돌하면 사람이 책임을 져야 한다. 또한 [사람은] 챗GPT로 한 작업이나 달리(DALL-E)의 실수에 따른 저작권 침해를 책임져야 한다. 필자에게 이는 깃허브 코파일럿 등의 AI 도구를 쓸 때 가장 두드러진다. 

코파일럿의 이점을 누리는 개발자를 찾는 일은 어렵지 않다. 빠른 API 제안은 높이 평가하지만 그 외에는 “불안정하고 느렸다”라는 한 개발자의 [깃허브 코파일럿] 리뷰를 소개한다. 이 밖에도 다른 리뷰가 많다. 개발자들은 [깃허브 코파일럿이] 상용구 코드에 살을 붙여주고, 관련 API를 찾아 제안하는 기능을 선호한다. 

개발자 에드윈 밀러는 코파일럿의 제안이 “일반적으로 정확하다”라고 언급했는데, 이는 좋으면서도 나쁘다. 코파일럿을 대부분 신뢰할 수 있는 건 좋지만 이것도 문제다. 대부분의 경우에만 신뢰할 수 있어서다. 코파일럿의 제안을 신뢰할 수 없는 때를 알기 위해서는 숙련된 개발자여야 한다. 

다시 말하지만 큰 문제는 아니다. 코파일럿이 개발자의 시간을 절약하는 데 유용하다면 좋은 일이다. 그렇긴 하지만 코파일럿을 쓴 결과에 관해 개발자가 책임을 져야 한다는 의미이기도 하므로 초보 개발자에게는 항상 좋은 선택이 아닐 수 있다. 숙련된 개발자에게는 지름길이 될 수 있다면 숙련되지 않은 개발자에게는 나쁜 결과로 이어질 수 있다. 프로그래밍 기술을 익히는 것을 방해할 수 있다는 점에서 초보자가 지름길로 가려는 건 현명하지 않다. 

그렇다. AI를 사용해서 운전, 검색, 프로그래밍을 개선하라. 하지만 그 결과를 전적으로 신뢰할 수 있을 때까지 숙련된 사람들은 ‘운전대를 두 손으로 잘 잡고 있어야 한다’라는 점도 유념해야 한다. 

* Matt Asay는 몽고DB(MongoDB)에서 파트너 마케팅을 담당하고 있다. ciokr@idg.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.