Offcanvas

������

CNCF, 오픈소스 교육 과정에 ‘윤리’ 도입한다

클라우드 네이티브 컴퓨팅 재단(The Cloud Native Computing Foundation; CNCF)이 오픈소스 소프트웨어 설계에 ‘윤리 우선적(ethical-first)’ 사고를 통합하고자 하는 개발자를 위해 새로운 인증을 선보였다.    CNCF에서 개발자가 오픈소스 소프트웨어 구축 시 고려해야 할 윤리적 영향을 탐구하는 교육 과정 ‘오픈소스 개발에서의 윤리(Ethics in Open Source Development)’를 시작했다. 새로운 인증 프로그램은 CNCF, 리눅스 재단 교육 및 인증(Linux Foundation Training and Certification), AI 윤리 전문 기업 에티컬 인텔리전스(Ethical Intelligence)와의 협력으로 이뤄졌다.  이 교육 과정은 디자인 윤리와 비판적 사고 기법을 워크플로우에 통합하고자 하는 제품 관리자 및 소프트웨어 개발자를 대상으로 한다. 온라인을 통해 무료로 들을 수 있으며, 총 2~3시간이 소요된다. 주제에는 ▲윤리(ethics), ▲보호(safeguards), ▲평가(evaluation), ▲행동 계획(action planning), ▲모니터링(monitoring)이 포함된다.  이를 통해 오픈소스 개발의 ‘윤리 여정 주기(Ethics Journey Cycle)’를 이해하고, 윤리적 사각지대를 해소하며, 윤리적 비판 사고를 적용하고, 위험 완화 및 혁신을 위한 윤리를 운용하는 역량을 갖추게 될 것이라고 CNCF는 전했다.  해당 교육 과정은 AI 윤리학자이자 에티컬 인텔리전스의 CEO인 올리비아 갬블린, 알고리즘 편향 워킹 그룹(IEEE P7003 - Algorithmic Bias Working Group)의 회원 라하프 알발키, 도덕 철학자 마이클 클렌크, 의료 분야에서의 AI 윤리를 연구하는 요크 대학교 철학 박사 후보 랜드 히르미즈가 개발했다.  CNCF는 보도자료에서 오픈소스 포맷에 필요한 특정 필...

CNCF 오픈소스 소프트웨어 오픈소스 윤리

1일 전

클라우드 네이티브 컴퓨팅 재단(The Cloud Native Computing Foundation; CNCF)이 오픈소스 소프트웨어 설계에 ‘윤리 우선적(ethical-first)’ 사고를 통합하고자 하는 개발자를 위해 새로운 인증을 선보였다.    CNCF에서 개발자가 오픈소스 소프트웨어 구축 시 고려해야 할 윤리적 영향을 탐구하는 교육 과정 ‘오픈소스 개발에서의 윤리(Ethics in Open Source Development)’를 시작했다. 새로운 인증 프로그램은 CNCF, 리눅스 재단 교육 및 인증(Linux Foundation Training and Certification), AI 윤리 전문 기업 에티컬 인텔리전스(Ethical Intelligence)와의 협력으로 이뤄졌다.  이 교육 과정은 디자인 윤리와 비판적 사고 기법을 워크플로우에 통합하고자 하는 제품 관리자 및 소프트웨어 개발자를 대상으로 한다. 온라인을 통해 무료로 들을 수 있으며, 총 2~3시간이 소요된다. 주제에는 ▲윤리(ethics), ▲보호(safeguards), ▲평가(evaluation), ▲행동 계획(action planning), ▲모니터링(monitoring)이 포함된다.  이를 통해 오픈소스 개발의 ‘윤리 여정 주기(Ethics Journey Cycle)’를 이해하고, 윤리적 사각지대를 해소하며, 윤리적 비판 사고를 적용하고, 위험 완화 및 혁신을 위한 윤리를 운용하는 역량을 갖추게 될 것이라고 CNCF는 전했다.  해당 교육 과정은 AI 윤리학자이자 에티컬 인텔리전스의 CEO인 올리비아 갬블린, 알고리즘 편향 워킹 그룹(IEEE P7003 - Algorithmic Bias Working Group)의 회원 라하프 알발키, 도덕 철학자 마이클 클렌크, 의료 분야에서의 AI 윤리를 연구하는 요크 대학교 철학 박사 후보 랜드 히르미즈가 개발했다.  CNCF는 보도자료에서 오픈소스 포맷에 필요한 특정 필...

1일 전

채용에서의 AI 활용, 아직은 갈 길 먼 이유

이력서를 분석하고 지원자를 선별하기 위해 자동화된 평가, 디지털 면접, 데이터 애널리틱스에 주목하는 기업이 늘고 있다. 이 과정에서 인공지능의 사용이 증가하기도 했다. 그러나 IT의 과제 중 하나로 다양성, 형평성 및 포용성(DEI)이 대두되고 있는 가운데, 서툰 AI 활용이 도움이 되기보다는 해를 끼칠 수 있다는 주장이 제기되고 있다. IEEE 펠로우이자 뉴욕대학교 텐던 공과대학 학장 겸 윌리엄 R 버클리 교수인 젤레나 코바체비치는 “편향은 대개 데이터에서 비롯된다. 데이터 집합이나 결정에 참고할 만한 요소가 없다면, 당연히 지원자를 제대로 찾아내서 평가하지 못할 것”이라고 말했다. 채용에 AI를 사용하는 데 있어 특히 큰 문제는 채용 시스템을 구축하는 기반이 되는 과거 데이터가 궁극적으로 고유한 편견을 가질 수 있다는 점이다. 과거 데이터 세트가 충분히 풍부하지 않다면, AI 채용 도구는 십수 년 전에 존재했던 편견을 갖게 될 가능성이 매우 높다. 그러나 효과적으로 사용한다면, AI는 더 효율적이고 공정한 채용 과정을 만드는데 도움을 줄 수 있기도 하다.   AI에서 편견의 위험성 AI 알고리즘은 일반적으로 과거 데이터에 기반하여 훈련되기 때문에 편향성이 문제시되곤 한다. 데이터 과학에서 편향은 학습 알고리즘의 잘못된 가정으로부터 발생하는 오류라고 정의된다. 현재 환경을 반영하지 않는 데이터로 알고리즘을 교육하면 잘못된 결과가 도출될 것이다. 따라서, 특히 IT와 같이 역사적으로 다양성 문제가 있었던 산업에서 과거 고용 데이터로 알고리즘을 교육하는 것은 큰 실수가 될 수 있다. 전자개인정보센터(Electronic Privacy Information Center, EPIC)의 AI 및 인권 펠로우인 벤 윈터스는 “AI 소프트웨어가 본질적으로 편향되지 않았거나 편향된 영향을 끼치지 않는다는 것을 보증하는 것은 정말 어려운 일이다. 이 점을 방지하기 위해 취할 수 있는 조치들이 있기는 하지만 "많은 시스템이 인종과 장애에 따라 편향된 효과를 ...

편견 편향 차별 다양성 인종 윤리

2021.10.27

이력서를 분석하고 지원자를 선별하기 위해 자동화된 평가, 디지털 면접, 데이터 애널리틱스에 주목하는 기업이 늘고 있다. 이 과정에서 인공지능의 사용이 증가하기도 했다. 그러나 IT의 과제 중 하나로 다양성, 형평성 및 포용성(DEI)이 대두되고 있는 가운데, 서툰 AI 활용이 도움이 되기보다는 해를 끼칠 수 있다는 주장이 제기되고 있다. IEEE 펠로우이자 뉴욕대학교 텐던 공과대학 학장 겸 윌리엄 R 버클리 교수인 젤레나 코바체비치는 “편향은 대개 데이터에서 비롯된다. 데이터 집합이나 결정에 참고할 만한 요소가 없다면, 당연히 지원자를 제대로 찾아내서 평가하지 못할 것”이라고 말했다. 채용에 AI를 사용하는 데 있어 특히 큰 문제는 채용 시스템을 구축하는 기반이 되는 과거 데이터가 궁극적으로 고유한 편견을 가질 수 있다는 점이다. 과거 데이터 세트가 충분히 풍부하지 않다면, AI 채용 도구는 십수 년 전에 존재했던 편견을 갖게 될 가능성이 매우 높다. 그러나 효과적으로 사용한다면, AI는 더 효율적이고 공정한 채용 과정을 만드는데 도움을 줄 수 있기도 하다.   AI에서 편견의 위험성 AI 알고리즘은 일반적으로 과거 데이터에 기반하여 훈련되기 때문에 편향성이 문제시되곤 한다. 데이터 과학에서 편향은 학습 알고리즘의 잘못된 가정으로부터 발생하는 오류라고 정의된다. 현재 환경을 반영하지 않는 데이터로 알고리즘을 교육하면 잘못된 결과가 도출될 것이다. 따라서, 특히 IT와 같이 역사적으로 다양성 문제가 있었던 산업에서 과거 고용 데이터로 알고리즘을 교육하는 것은 큰 실수가 될 수 있다. 전자개인정보센터(Electronic Privacy Information Center, EPIC)의 AI 및 인권 펠로우인 벤 윈터스는 “AI 소프트웨어가 본질적으로 편향되지 않았거나 편향된 영향을 끼치지 않는다는 것을 보증하는 것은 정말 어려운 일이다. 이 점을 방지하기 위해 취할 수 있는 조치들이 있기는 하지만 "많은 시스템이 인종과 장애에 따라 편향된 효과를 ...

2021.10.27

구글, 사내 AI 윤리팀 리더 해고··· '게브루 해고 사태' 이후 두 달 만

구글이 사내 AI 윤리 팀을 이끌던 연구원 마가렛 미셸을 지난 19일에 해고했다. 지난해 12월 같은 팀에서 일하던 AI 엔지니어 팀닛 게브루 박사를 해고한 지 약 2개월 만이다. 두 사람은 AI 윤리팀을 공동으로 이끌며 구글 AI 모델의 인종적, 성적 편향성 문제를 지적해왔다.    19일(현지시간) 미셸은 자신의 트위터를 통해 “(구글로부터) 해고당했다”(I’m fired)라고 밝혔다. 구체적인 이유는 밝히지 않았다.  구글 대변인은 미 매체 악시오스에 보낸 입장문을 통해 “내부 조사 결과, 미셸이 사내 보안 정책뿐 아니라 행동 규범을 수차례 어긴 점을 확인했다”라며 “다른 직원의 개인 데이터와 회사 기밀 문서를 유출했다”라고 설명했다.  이어 “구글 보안 시스템은 직원 계정이 민감한 데이터를 다루는 과정에서 문제가 발생한 경우 계정을 자동으로 차단한다”라며 “(미셸의) 계정에서 여러 개의 외부 계정으로 수천여 개의 파일이 반출된 것을 확인했고, 해당 직원에게 이 사실을 알렸다”라고 밝혔다.  보도에 따르면 미셸은 지난해 AI 윤리팀에서 해고당한 팀닛 게브루 박사가 회사에서 평소 차별적인 대우를 받았음을 입증하고자 내부 문건을 유출했다.  구체적으로는 자동 스크립트를 이용해 구글 측과 게브루 박사가 주고받은 과거 메시지 수천 건을 수집한 뒤 개인 계정을 통해 반출했다는 설명이다.  이로 인해 미셸은 지난 1월부터 사내 시스템 접속을 금지당한 상태였다. 이후 구글은 미첼 계정의 접근 권한을 돌려주지 않은 채 해고를 통보했다.  미셸은 평소 구글에서 AI의 편향성 및 인종 차별과 관련한 문제를 제기하며 게브루 박사를 지지해온 인물이다.  지난 1월에는 게브루 박사가 해고된 이후 순다르 피차이 구글 CEO가 흑인 대학 지도자들과 회동을 가지려는 계획을 트위터를 통해 비판한 바 있다.  한편 지난해 해고 당한 팀닛 게브루는 에티오피아 출신의 AI 엔지...

구글 인공지능 윤리 팀닛 게브루 마가렛 미셸 편향성

2021.02.22

구글이 사내 AI 윤리 팀을 이끌던 연구원 마가렛 미셸을 지난 19일에 해고했다. 지난해 12월 같은 팀에서 일하던 AI 엔지니어 팀닛 게브루 박사를 해고한 지 약 2개월 만이다. 두 사람은 AI 윤리팀을 공동으로 이끌며 구글 AI 모델의 인종적, 성적 편향성 문제를 지적해왔다.    19일(현지시간) 미셸은 자신의 트위터를 통해 “(구글로부터) 해고당했다”(I’m fired)라고 밝혔다. 구체적인 이유는 밝히지 않았다.  구글 대변인은 미 매체 악시오스에 보낸 입장문을 통해 “내부 조사 결과, 미셸이 사내 보안 정책뿐 아니라 행동 규범을 수차례 어긴 점을 확인했다”라며 “다른 직원의 개인 데이터와 회사 기밀 문서를 유출했다”라고 설명했다.  이어 “구글 보안 시스템은 직원 계정이 민감한 데이터를 다루는 과정에서 문제가 발생한 경우 계정을 자동으로 차단한다”라며 “(미셸의) 계정에서 여러 개의 외부 계정으로 수천여 개의 파일이 반출된 것을 확인했고, 해당 직원에게 이 사실을 알렸다”라고 밝혔다.  보도에 따르면 미셸은 지난해 AI 윤리팀에서 해고당한 팀닛 게브루 박사가 회사에서 평소 차별적인 대우를 받았음을 입증하고자 내부 문건을 유출했다.  구체적으로는 자동 스크립트를 이용해 구글 측과 게브루 박사가 주고받은 과거 메시지 수천 건을 수집한 뒤 개인 계정을 통해 반출했다는 설명이다.  이로 인해 미셸은 지난 1월부터 사내 시스템 접속을 금지당한 상태였다. 이후 구글은 미첼 계정의 접근 권한을 돌려주지 않은 채 해고를 통보했다.  미셸은 평소 구글에서 AI의 편향성 및 인종 차별과 관련한 문제를 제기하며 게브루 박사를 지지해온 인물이다.  지난 1월에는 게브루 박사가 해고된 이후 순다르 피차이 구글 CEO가 흑인 대학 지도자들과 회동을 가지려는 계획을 트위터를 통해 비판한 바 있다.  한편 지난해 해고 당한 팀닛 게브루는 에티오피아 출신의 AI 엔지...

2021.02.22

과기부, 국가 AI 윤리기준 공개…인간성을 위한 인공지능 개발에 초점

정부가 인간성 구현을 골자로 한 국가 인공지능 윤리 기준(안)을 공개했다.  27일 과학기술정보통신부와 정보통신정책연구원은 인공지능 기술의 윤리적 개발을 골자로 한 3대 기본 원칙과 10대 핵심 요건을 담은 국가 인공지능 윤리 기준(안)을 발표했다.    안에 따르면 3대 기본 원칙은 △인간의 존엄성 원칙 △사회의 공공선 원칙 △기술의 합목적성 원칙으로 구성돼 있다. 인공지능 개발 및 활용 과정에서 인간성을 구현하는 것이 목적이다.  또 3대 원칙을 실천 및 이행하는 데 있어 필요한 10대 핵심 요건으로 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성을 제시했다. 정부는 인공지능 기술이 국가 경쟁력과 국민의 삶의 질을 높일 수 있는 한편, 기술 오용, 데이터 편향성 같은 윤리 이슈를 일으킬 수 있다는 점을 강조했다. 그런 이유로 인공지능 개발과 활용 과정에 참여하는 모든 구성원이 인공지능 윤리 기준을 바탕으로 사람 중심의 인공지능을 구현할 수 있도록 하는 게 필요하다고 전했다. 다만 이번 안은 다소 포괄적인 일반 원칙이므로 사안별 혹은 분야별 인공지능에 따라 세부 규범은 유연하게 발전해나갈 수 있다고 덧붙였다.  과학기술정보통신부는 다음달 7일 공청회를 열어 이번 국가 인공지능 윤리기준(안)을 소개할 예정이다. 이후 15일까지 시민들로부터 의견을 접수 받은 뒤 12월 중순경 윤리 기준안을 확정한다. ciokr@idg.co.kr

국가 인공지능 윤리기준 윤리 인공지능

2020.11.27

정부가 인간성 구현을 골자로 한 국가 인공지능 윤리 기준(안)을 공개했다.  27일 과학기술정보통신부와 정보통신정책연구원은 인공지능 기술의 윤리적 개발을 골자로 한 3대 기본 원칙과 10대 핵심 요건을 담은 국가 인공지능 윤리 기준(안)을 발표했다.    안에 따르면 3대 기본 원칙은 △인간의 존엄성 원칙 △사회의 공공선 원칙 △기술의 합목적성 원칙으로 구성돼 있다. 인공지능 개발 및 활용 과정에서 인간성을 구현하는 것이 목적이다.  또 3대 원칙을 실천 및 이행하는 데 있어 필요한 10대 핵심 요건으로 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성을 제시했다. 정부는 인공지능 기술이 국가 경쟁력과 국민의 삶의 질을 높일 수 있는 한편, 기술 오용, 데이터 편향성 같은 윤리 이슈를 일으킬 수 있다는 점을 강조했다. 그런 이유로 인공지능 개발과 활용 과정에 참여하는 모든 구성원이 인공지능 윤리 기준을 바탕으로 사람 중심의 인공지능을 구현할 수 있도록 하는 게 필요하다고 전했다. 다만 이번 안은 다소 포괄적인 일반 원칙이므로 사안별 혹은 분야별 인공지능에 따라 세부 규범은 유연하게 발전해나갈 수 있다고 덧붙였다.  과학기술정보통신부는 다음달 7일 공청회를 열어 이번 국가 인공지능 윤리기준(안)을 소개할 예정이다. 이후 15일까지 시민들로부터 의견을 접수 받은 뒤 12월 중순경 윤리 기준안을 확정한다. ciokr@idg.co.kr

2020.11.27

칼럼 | 제품 디자인이 윤리적이어야 할까?

반복되는 스캔들과 EU의 GDPR(General Data Protection Regulation), 넷플릭스의 다큐멘터리 ‘소셜 딜레마(The Social Dilemma)’ 덕분에 대중은 점점 AI와 기술, 그리고 데이터 사용과 관련된 윤리 문제를 인식하고 있다. 사회적 활동을 하며 기업에 비즈니스 관행을 재고할 것을 촉구하는 개발자, 디자이너, 기술자의 움직임이 증가하고 있다. 즉 이런 사람들은 기업이 보다 윤리적이기를 원한다. 최근 필자는 베이스캠프(Basecamp)의 디자이너이자 헬로웨더(HelloWeather)의 공동 제작자인 요나스 다우니와 대화할 기회가 있었다. 베이스켐프는 ‘헤이(Hey)’라는 새로운 이메일 서비스를 제공하고 있는데, 구글의 지메일과 달리 개인정보보호와 윤리적 디자인 개념을 포함한 서비스다. 다우니는 “고수준의 기술 회사는 수익을 위해 해로운 일을 하도록 유도하는 근본적으로 비윤리적인 비즈니스 모델을 가지고 있다”라고 지적했다. 예를 들어, 페이스북은 광고에서 수익을 창출하는데, 광고 조회수를 늘리기 위해 사용자가 가능한 오래, 자주 화면을 보도록 한다. 이런 비즈니스 모델로 인해 기업은 광고 조회수 증가에 도움이 되는 잘못된 정보 또는 혐오 표현(hate speech)가 퍼지는 것을 막지 않게 된다. 다른 한편으로는 의도하지 않은 효과가 나타날 수도 있다. 다우니는 트위터가 영향력있는 도구가 될 것이라고 생각하지 않았다는 점을 지적했다. 결과적으로 트위터는 잘못된 정보와 때로는 노골적인 혐오 발언의 도구가 됐다. 결정적으로 기술 산업은 빠르게 성장했고 무엇이 옳은지 그른지를 통제하기 위한 통합된 윤리적 이론이 없었다. 기업과 개발자는 수익성을 기준으로 의심스러운 부분이 있는 많은 결정을 내려왔으며, 이제는 그것이 표준 관행으로 자리 잡았다. 다우니는 “소셜 미디어 회사가 되기 위한 ‘히포크라테스 선서’는 없다”라고 지적했다. 의사가 의료 윤리를 위반해 환자에게 해로운 일을 하면 벌금이 부과되거나 면허를 잃을 수도 있다. ...

윤리 디자인 개발 코인베이스 베이스캠프

2020.11.20

반복되는 스캔들과 EU의 GDPR(General Data Protection Regulation), 넷플릭스의 다큐멘터리 ‘소셜 딜레마(The Social Dilemma)’ 덕분에 대중은 점점 AI와 기술, 그리고 데이터 사용과 관련된 윤리 문제를 인식하고 있다. 사회적 활동을 하며 기업에 비즈니스 관행을 재고할 것을 촉구하는 개발자, 디자이너, 기술자의 움직임이 증가하고 있다. 즉 이런 사람들은 기업이 보다 윤리적이기를 원한다. 최근 필자는 베이스캠프(Basecamp)의 디자이너이자 헬로웨더(HelloWeather)의 공동 제작자인 요나스 다우니와 대화할 기회가 있었다. 베이스켐프는 ‘헤이(Hey)’라는 새로운 이메일 서비스를 제공하고 있는데, 구글의 지메일과 달리 개인정보보호와 윤리적 디자인 개념을 포함한 서비스다. 다우니는 “고수준의 기술 회사는 수익을 위해 해로운 일을 하도록 유도하는 근본적으로 비윤리적인 비즈니스 모델을 가지고 있다”라고 지적했다. 예를 들어, 페이스북은 광고에서 수익을 창출하는데, 광고 조회수를 늘리기 위해 사용자가 가능한 오래, 자주 화면을 보도록 한다. 이런 비즈니스 모델로 인해 기업은 광고 조회수 증가에 도움이 되는 잘못된 정보 또는 혐오 표현(hate speech)가 퍼지는 것을 막지 않게 된다. 다른 한편으로는 의도하지 않은 효과가 나타날 수도 있다. 다우니는 트위터가 영향력있는 도구가 될 것이라고 생각하지 않았다는 점을 지적했다. 결과적으로 트위터는 잘못된 정보와 때로는 노골적인 혐오 발언의 도구가 됐다. 결정적으로 기술 산업은 빠르게 성장했고 무엇이 옳은지 그른지를 통제하기 위한 통합된 윤리적 이론이 없었다. 기업과 개발자는 수익성을 기준으로 의심스러운 부분이 있는 많은 결정을 내려왔으며, 이제는 그것이 표준 관행으로 자리 잡았다. 다우니는 “소셜 미디어 회사가 되기 위한 ‘히포크라테스 선서’는 없다”라고 지적했다. 의사가 의료 윤리를 위반해 환자에게 해로운 일을 하면 벌금이 부과되거나 면허를 잃을 수도 있다. ...

2020.11.20

칼럼ㅣ ‘윤리’ 앞에 선 기술, 누구의 책임인가?

오늘날 기업들이 더욱더 광범위한 목적으로 데이터를 사용하기 시작했다. 인공지능(AI), 머신러닝(ML)과 같은 기술 또한 나날이 발전하고 있다. 이에 따라 애플리케이션 개발 분야에서도 ‘윤리(Ethics)’ 문제가 부상하고 있다. 새로운 기술 애플리케이션을 구축한다면 이제 자문해야 할 질문은 ‘이것을 할 수 있을까?’가 아니다. 바로 ‘해야 하는가?’와 ‘윤리적인가?’다.    개발자들에게 윤리적 문제에 관한 거버넌스가 주요 고려사항으로 자리잡고 있다. 이를테면 애플리케이션에서 어떤 데이터를 수집할지, 그리고 이를 어떻게 사용할지 등이다. 인터시스템즈(InterSystems)의 최근 보고서에 따르면 82%의 개발자는 윤리적 문제가 그 어느 때보다 더 중요하다고 답했다.  여기에 더해, 코로나19 사태로 데이터 사용 및 공유가 급격히 늘어났고 이것 역시 윤리적 인식 개선에 영향을 미쳤을 가능성이 높다. 예를 들면 식당이나 영화관 등 여러 다중이용시설에서 앱과 웹 사이트를 통해 고객 개인 데이터를 수집하고 저장했기 때문이다.  그러나 이 가운데서도 기업들은 개발자가 윤리적 문제를 누구에게 보고해야 하며, 개발자 본인은 어떤 책임을 져야 하는지 합의를 내지 못하고 있다. 새로운 앱 개발 시 윤리적 문제를 책임져야 하는 사람은 정확히 누구인가? 그리고 개발자는 어떤 역할을 해야 하는가?  현황 인터시스템즈 보고서에 의하면 개발자 조직 내에서 ‘윤리’에 관한 일관된 기준이 없는 것으로 나타났다. 28%의 개발자는 윤리적 문제를 법무팀 또는 HR팀에 보고한다고 말했다. C-레벨 경영진(23%), 별도의 윤리 책임자(19%)에 보고한다는 응답이 뒤를 이었다.  놀랍게도, 16%는 윤리적 문제에 관한 책임을 개발자들이 맡고 있다고 밝혔다. 이처럼 일관되지 않은 보고 라인은 개발자를 혼란스럽게 하기 마련이다. 전체 응답자 가운데 13%는 윤리적 문제를 누구에게 보고해야 하는지 모른다고 답하기도 했다.  ...

윤리 기술 데이터 개인정보보호 데이터 보호 개발자 애플리케이션 인공지능 머신러닝 데이터 사용

2020.10.08

오늘날 기업들이 더욱더 광범위한 목적으로 데이터를 사용하기 시작했다. 인공지능(AI), 머신러닝(ML)과 같은 기술 또한 나날이 발전하고 있다. 이에 따라 애플리케이션 개발 분야에서도 ‘윤리(Ethics)’ 문제가 부상하고 있다. 새로운 기술 애플리케이션을 구축한다면 이제 자문해야 할 질문은 ‘이것을 할 수 있을까?’가 아니다. 바로 ‘해야 하는가?’와 ‘윤리적인가?’다.    개발자들에게 윤리적 문제에 관한 거버넌스가 주요 고려사항으로 자리잡고 있다. 이를테면 애플리케이션에서 어떤 데이터를 수집할지, 그리고 이를 어떻게 사용할지 등이다. 인터시스템즈(InterSystems)의 최근 보고서에 따르면 82%의 개발자는 윤리적 문제가 그 어느 때보다 더 중요하다고 답했다.  여기에 더해, 코로나19 사태로 데이터 사용 및 공유가 급격히 늘어났고 이것 역시 윤리적 인식 개선에 영향을 미쳤을 가능성이 높다. 예를 들면 식당이나 영화관 등 여러 다중이용시설에서 앱과 웹 사이트를 통해 고객 개인 데이터를 수집하고 저장했기 때문이다.  그러나 이 가운데서도 기업들은 개발자가 윤리적 문제를 누구에게 보고해야 하며, 개발자 본인은 어떤 책임을 져야 하는지 합의를 내지 못하고 있다. 새로운 앱 개발 시 윤리적 문제를 책임져야 하는 사람은 정확히 누구인가? 그리고 개발자는 어떤 역할을 해야 하는가?  현황 인터시스템즈 보고서에 의하면 개발자 조직 내에서 ‘윤리’에 관한 일관된 기준이 없는 것으로 나타났다. 28%의 개발자는 윤리적 문제를 법무팀 또는 HR팀에 보고한다고 말했다. C-레벨 경영진(23%), 별도의 윤리 책임자(19%)에 보고한다는 응답이 뒤를 이었다.  놀랍게도, 16%는 윤리적 문제에 관한 책임을 개발자들이 맡고 있다고 밝혔다. 이처럼 일관되지 않은 보고 라인은 개발자를 혼란스럽게 하기 마련이다. 전체 응답자 가운데 13%는 윤리적 문제를 누구에게 보고해야 하는지 모른다고 답하기도 했다.  ...

2020.10.08

NXP, AI 윤리 이니셔티브 출범

NXP 반도체가 AI 윤리 이니셔티브를 공식 출범했다.  AI 윤리 이니셔티브를 출범하며 NXP는 안전한 엣지 ML/AI 솔루션에 대해 정의하는 ‘알고리즘의 윤리(The Morals of Algorithms)’라는 제목의 백서를 발간했다. 백서를 통해 NXP는 컴퓨터 네트워크의 ‘엣지’가 되는 집과 직장에서 사용되는 AI 부품과 시스템의 윤리적 개발에 대한 기업의 의지를 표명했다.   새로운 백서에서 NXP는 AI 원칙 ▲무해악성 ▲인간 자율성 ▲설명 가능성 ▲지속적인 주의와 경계 ▲개인정보보호 및 보안을 고려한 설계에 대해 종합적인 프레임워크를 자세히 기술했다. 이러한 원칙들은 NXP의 기업 가치, 윤리 지침, 그리고 세계에서 가장 고도화된 보안 기기들을 만들어 온 오랜 전통에 뿌리를 두고 있다고 업체 측은 설명했다. AI 프레임워크는 전 세계의 엔지니어링 및 고객 서비스 팀 전체에서 수렴한 의견과 통찰력과 전사적 협업을 통해 발전됐다. NXP는 온도조절기, 보안시스템, 자동차센서, 로봇, 산업자동화 장비 등 네트워크 ‘말단’에 사용되는 머신러닝 애플리케이션에 최적화된 마이크로컨트롤러(MCU)와 프로세서 제품군을 보유하고 있으며, AI 혁명을 선도하고 있다. NXP는 최근 저전력 MCU에서 신경망을 최적화하는 글로우(Glow) 컴파일러를 출시했다. 올해에는 i.MX 8M 플러스 프로세서 제품군에 통합된 머신러닝 가속화를 발표하고 자동차 애플리케이션용 NXP eIQ 오토 툴킷(Auto Toolkit)을 출시했다. NXP 커트 시버스 최고경영자(CEO)는 “소비자들은 일상생활에서 더 많은 책임과 의사결정에 AI에 의존하고 있으며 특히 말단에서 사용되는 자신의 기기들이 개인정보에 대한 통제권을 가지면서도 투명하고 공정하며 안전하게 작동되길 바란다”라며, “따라서 보안이 매우 중요하며 우리는 AI에 대한 신뢰 구축이 기기 보호에서 시작된다고 믿는다”라고 말했다. NXP는 5대 AI 원칙 실천을 위해 직원 프로그램을 개발하고 유수의 교...

NXP 반도체 인공지능 AI 윤리 머신러닝

2020.10.07

NXP 반도체가 AI 윤리 이니셔티브를 공식 출범했다.  AI 윤리 이니셔티브를 출범하며 NXP는 안전한 엣지 ML/AI 솔루션에 대해 정의하는 ‘알고리즘의 윤리(The Morals of Algorithms)’라는 제목의 백서를 발간했다. 백서를 통해 NXP는 컴퓨터 네트워크의 ‘엣지’가 되는 집과 직장에서 사용되는 AI 부품과 시스템의 윤리적 개발에 대한 기업의 의지를 표명했다.   새로운 백서에서 NXP는 AI 원칙 ▲무해악성 ▲인간 자율성 ▲설명 가능성 ▲지속적인 주의와 경계 ▲개인정보보호 및 보안을 고려한 설계에 대해 종합적인 프레임워크를 자세히 기술했다. 이러한 원칙들은 NXP의 기업 가치, 윤리 지침, 그리고 세계에서 가장 고도화된 보안 기기들을 만들어 온 오랜 전통에 뿌리를 두고 있다고 업체 측은 설명했다. AI 프레임워크는 전 세계의 엔지니어링 및 고객 서비스 팀 전체에서 수렴한 의견과 통찰력과 전사적 협업을 통해 발전됐다. NXP는 온도조절기, 보안시스템, 자동차센서, 로봇, 산업자동화 장비 등 네트워크 ‘말단’에 사용되는 머신러닝 애플리케이션에 최적화된 마이크로컨트롤러(MCU)와 프로세서 제품군을 보유하고 있으며, AI 혁명을 선도하고 있다. NXP는 최근 저전력 MCU에서 신경망을 최적화하는 글로우(Glow) 컴파일러를 출시했다. 올해에는 i.MX 8M 플러스 프로세서 제품군에 통합된 머신러닝 가속화를 발표하고 자동차 애플리케이션용 NXP eIQ 오토 툴킷(Auto Toolkit)을 출시했다. NXP 커트 시버스 최고경영자(CEO)는 “소비자들은 일상생활에서 더 많은 책임과 의사결정에 AI에 의존하고 있으며 특히 말단에서 사용되는 자신의 기기들이 개인정보에 대한 통제권을 가지면서도 투명하고 공정하며 안전하게 작동되길 바란다”라며, “따라서 보안이 매우 중요하며 우리는 AI에 대한 신뢰 구축이 기기 보호에서 시작된다고 믿는다”라고 말했다. NXP는 5대 AI 원칙 실천을 위해 직원 프로그램을 개발하고 유수의 교...

2020.10.07

'IBM에 이어 아마존·MS도 중단 선언' 향후 안면인식 기술은...

미국은 물론 세계적으로 인종차별 반대 시위가 한창인 가운데, IBM이 대형 기술기업 중에는 처음으로 안면인식 시스템을 포기하겠다고 발표했다. 이어서 아마존과 마이크로소프트도 IBM의 뒤를 따랐다. 3개 기술 기업 모두 더 이상 미국에서 이 치안용 기술을 공급하지 않기로 결정을 내린 것이다.   기술 분야에서 영향력이 큰 기업의 이러한 결정은 안면인식 기술을 치안과 사회 곳곳의 다른 분야에 어떻게 사용할지에 관심을 집중시켰다. 안면인식 기술은 유색 인종의 얼굴을 중심으로 얼굴 매칭이 부정확해 인종적 편견을 초래한다는 공격을 받았었다.  가트너의 닉 잉겔브레츠트 조사 담당 디렉터는 <CMO>에 IBM의 결정 하나가 큰 변화나 차이를 가져오지는 않는다고 말했다. 안면인식 시장이나 물리적 보안 시장에서 큰 영향력을 발휘한 기업이 아니었기 때문이다. 그렇지만 이러한 움직임은 인권 침해의 소지가 있는 기술 문제를 해결하려는 큰 변화의 일부다. 그는 “구글, AWS, 마이크로소프트, IBM 같은 대기업은 논란의 여지가 있는 자사의 기술 사용에 관한 평판을 의식하고 있으며 안면인식 기술을 점점 더 피하고 있다”라고 말했다. 그러면서 향후 소비자 사례에서 안면인식 기술이나 성별과 인종, 기타 편향적이거나 인권 침해적인 기술과 데이터세트의 잠재적인 용도에 관한 중대한 질문이 제기되고 있다. IBM과 아마존의 움직임에 대한 질문 IBM의 CEO 아르빈드 크리슈나는 미국 의회에 보내는 인종차별과 관련된 사법 개혁 문제에 대한 서한에서 IBM은 다른 업체들이 공급하는 안면인식 기술을 포함, 일반 대중 감시, 인종적인 프로파일링, 기본 인권과 자유 침해, 기타 신뢰와 투명성의 가치에 부합하지 않는 목적으로 기술이 사용되는 것을 반대한다고 강조했다.  크리슈나는 “우리는 지금이야말로 국가적인 차원에서 국내의 법 집행기관들이 안면인식 기술을 사용할지 여부, 그 방법에 대한 대화를 시작할 시기라고 믿는다. 인공 지능(AI)은 법 집행기관이...

CMO 인공지능 데이터 분석 인권 안면인식 생체인증 인종차별 윤리 IBM아마존 아마존웹서비스 AWS 마이크로소프트 구글 클리어뷰 핌아이 빅브라더워치 가트너 오픈 마이크 Open MIC 의회 입법 세이프 페이스 서약 Safe Face Pledge NEC 레코그니션 Rekognition 규제 아동 실종

2020.06.18

미국은 물론 세계적으로 인종차별 반대 시위가 한창인 가운데, IBM이 대형 기술기업 중에는 처음으로 안면인식 시스템을 포기하겠다고 발표했다. 이어서 아마존과 마이크로소프트도 IBM의 뒤를 따랐다. 3개 기술 기업 모두 더 이상 미국에서 이 치안용 기술을 공급하지 않기로 결정을 내린 것이다.   기술 분야에서 영향력이 큰 기업의 이러한 결정은 안면인식 기술을 치안과 사회 곳곳의 다른 분야에 어떻게 사용할지에 관심을 집중시켰다. 안면인식 기술은 유색 인종의 얼굴을 중심으로 얼굴 매칭이 부정확해 인종적 편견을 초래한다는 공격을 받았었다.  가트너의 닉 잉겔브레츠트 조사 담당 디렉터는 <CMO>에 IBM의 결정 하나가 큰 변화나 차이를 가져오지는 않는다고 말했다. 안면인식 시장이나 물리적 보안 시장에서 큰 영향력을 발휘한 기업이 아니었기 때문이다. 그렇지만 이러한 움직임은 인권 침해의 소지가 있는 기술 문제를 해결하려는 큰 변화의 일부다. 그는 “구글, AWS, 마이크로소프트, IBM 같은 대기업은 논란의 여지가 있는 자사의 기술 사용에 관한 평판을 의식하고 있으며 안면인식 기술을 점점 더 피하고 있다”라고 말했다. 그러면서 향후 소비자 사례에서 안면인식 기술이나 성별과 인종, 기타 편향적이거나 인권 침해적인 기술과 데이터세트의 잠재적인 용도에 관한 중대한 질문이 제기되고 있다. IBM과 아마존의 움직임에 대한 질문 IBM의 CEO 아르빈드 크리슈나는 미국 의회에 보내는 인종차별과 관련된 사법 개혁 문제에 대한 서한에서 IBM은 다른 업체들이 공급하는 안면인식 기술을 포함, 일반 대중 감시, 인종적인 프로파일링, 기본 인권과 자유 침해, 기타 신뢰와 투명성의 가치에 부합하지 않는 목적으로 기술이 사용되는 것을 반대한다고 강조했다.  크리슈나는 “우리는 지금이야말로 국가적인 차원에서 국내의 법 집행기관들이 안면인식 기술을 사용할지 여부, 그 방법에 대한 대화를 시작할 시기라고 믿는다. 인공 지능(AI)은 법 집행기관이...

2020.06.18

오라클 기고 | 2020년, 리테일 키워드는? ‘개인화·사회적 책임·소셜커머스’

신기술이 계속해서 등장하고, 시장에 새롭게 진입하는 플랫폼 사업자도 다양해지고 있다. 이에 따라 소비자의 기대도 끊임없는 진화를 거듭한다. 마케팅 담당자가 고객과 직접 소통하는 것은 물론 적극적인 참여를 유도해야 하는 흥미로운 시기가 도래한 것이다. 최신기술을 도입해 전례 없는 방식으로 소비자와 소통하고, 새로운 세대의 구매 특성을 지향하며, 지속적인 소비를 촉진할 수 있도록 주목해야 할 트렌드는 무엇일까? 글로벌 기업들에게서 엿볼 수 있는 몇 가지 유의미한 사례를 살펴본다.  ‘오프라인 경험’에 투자하는 기업들 오프라인 매장을 운영하는 기업 중 일부는 인터넷 쇼핑몰과는 차별화된 전략으로 경쟁 우위를 점하기 위해 '매장 경험'에 주력하고 있다. 이를테면 오프라인에서의 소비 경험을 개선하고 방문 고객들을 대상으로 인센티브를 제공하는 방법을 모색하는 것이다.  미국 뉴욕의 신발 디자이너 브랜드 스티브 매든(Steve Madden)은 2017년 많은 고객을 오프라인 매장으로 끌어들이기 위해 고객 충성도에 초점을 맞췄다. 매장 방문 고객에게만 제공되는 인센티브를 비롯해 모든 지점에서 진행한 포인트 프로모션, 개인 및 지역 맞춤 보너스 캠페인을 통해 매장 경험 개선에 나섰다.  한편 온라인 브랜드들도 오프라인 매장에 투자하고 있다. 볼앤브랜치(Boll & Branch), 올버즈(Allbirds), 어웨이(Away), 모드클로스(ModCloth), 글로시에 앤드 매디슨 리드(Glossier and Madison Reed) 등 다수의 온라인 업체들이 지난 1년 동안 오프라인 매장을 열었다. 무려 84%가 넘는 미국인이 온라인과 오프라인을 모두 활용하는 옴니채널 쇼핑을 선호한다는 사실을 고려하면, 오프라인 매장에 대한 투자에는 일리가 있다. 그리고 이러한 브랜드의 대다수가 매장에서 어떻게 차별화된 소비자 경험을 제공할 수 있을지 고민한다. 예를 들면 온라인 여성의류 쇼핑몰 모드클로스의 오스틴 지점은 고객의 신체 치수를 측정한 후 ‘...

유통 소셜 커머스 윤리 매장 개인화 리테일 사회적 책임

2020.03.26

신기술이 계속해서 등장하고, 시장에 새롭게 진입하는 플랫폼 사업자도 다양해지고 있다. 이에 따라 소비자의 기대도 끊임없는 진화를 거듭한다. 마케팅 담당자가 고객과 직접 소통하는 것은 물론 적극적인 참여를 유도해야 하는 흥미로운 시기가 도래한 것이다. 최신기술을 도입해 전례 없는 방식으로 소비자와 소통하고, 새로운 세대의 구매 특성을 지향하며, 지속적인 소비를 촉진할 수 있도록 주목해야 할 트렌드는 무엇일까? 글로벌 기업들에게서 엿볼 수 있는 몇 가지 유의미한 사례를 살펴본다.  ‘오프라인 경험’에 투자하는 기업들 오프라인 매장을 운영하는 기업 중 일부는 인터넷 쇼핑몰과는 차별화된 전략으로 경쟁 우위를 점하기 위해 '매장 경험'에 주력하고 있다. 이를테면 오프라인에서의 소비 경험을 개선하고 방문 고객들을 대상으로 인센티브를 제공하는 방법을 모색하는 것이다.  미국 뉴욕의 신발 디자이너 브랜드 스티브 매든(Steve Madden)은 2017년 많은 고객을 오프라인 매장으로 끌어들이기 위해 고객 충성도에 초점을 맞췄다. 매장 방문 고객에게만 제공되는 인센티브를 비롯해 모든 지점에서 진행한 포인트 프로모션, 개인 및 지역 맞춤 보너스 캠페인을 통해 매장 경험 개선에 나섰다.  한편 온라인 브랜드들도 오프라인 매장에 투자하고 있다. 볼앤브랜치(Boll & Branch), 올버즈(Allbirds), 어웨이(Away), 모드클로스(ModCloth), 글로시에 앤드 매디슨 리드(Glossier and Madison Reed) 등 다수의 온라인 업체들이 지난 1년 동안 오프라인 매장을 열었다. 무려 84%가 넘는 미국인이 온라인과 오프라인을 모두 활용하는 옴니채널 쇼핑을 선호한다는 사실을 고려하면, 오프라인 매장에 대한 투자에는 일리가 있다. 그리고 이러한 브랜드의 대다수가 매장에서 어떻게 차별화된 소비자 경험을 제공할 수 있을지 고민한다. 예를 들면 온라인 여성의류 쇼핑몰 모드클로스의 오스틴 지점은 고객의 신체 치수를 측정한 후 ‘...

2020.03.26

비즈니스 전략으로 부상하다··· 2020년 애널리틱스 4대 트렌드

데이터 애널리틱스는 끊임없이 변하는 분야다. 디지털 트랜스포메이션을 지원하기 위해 애널리틱스에 투자하는 기업이라면 최신 동향을 확인할 이유가 뚜렷하다 IDG의 ‘CIO 2020 현황’ 보고서에 따르면 37%의 IT리더가 올해 자신의 조직에서 데이터/비즈니스 애널리틱스가 최대의 IT투자가 될 것이라고 응답했다. 보안/위험 관리는 34%로 IT투자 전망에서 2위를 차지했다. 나아가, 업종과 기업 규모에 관계 없이, IT는 데이터 및 애널리틱스 니즈를 충족시킬 최종 책임을 지는 부서가 될 확률이 가장 높은 것으로 조사됐다. 서로 밀접히 연결된 2020년 데이터 애널리틱스 트렌드 4가지를 살펴본다.    데이터 전략 = 비즈니스 전략  한때 유행했던 ‘빅데이터’ 개념은 이제 비즈니스에 영향을 주는 모든 크기와 종류의 데이터를 감안하는 각종 데이터 전략으로 대체되고 있다.  미국 컴퓨터기술산업협회(CompTIA)의 수석 기술 분석 임원인 세스 로빈슨은 “지난해부터 빅데이터에 대한 관심이 크게 줄어들었다. 지나치게 광범위한 데이터 전략이기 때문이라고 생각한다”라고 말했다.  포레스터 리서치의 부사장이자 수석 애널리스티인 브라이언 홉킨스는 “빅데이터의 쇠퇴가 확연하다. 아무도 빅데이터에 더 이상 신경 쓰지 않는다”라고 말했다.  로빈슨과 마찬가지로, 홉킨스는 빅데이터에 대해 이제 조직이 디지털 트랜스포메이션을 위해 데이터 전략들을 조합할 때 데이터 스택 가운데 하나로서 자리할 뿐이라고 생각한다. 그는 조직이 데이터 주도형 AI 애플리케이션을 추진함에 따라 특히 고객 경험 측면에서 ‘정확한 데이터를 확보하는 것’이 중요해졌다고 말했다.  이를 위해 CIO는 데이터 과학자가 데이터 준비, 데이터 정리, 데이터 합리화에 더 적은 시간을 쓰고, 대신 완벽한 데이터로 모델을 구축하는데 더 많은 시간을 쓸 수 있도록 소스 데이터를 가공해야 한다고 그는 언급했다.  홉킨스는 “문제는 CIO의 데이터...

2020 트렌드 윤리 대시보드 데이터 애널리틱스 데이터 레이크 데이터 인프라

2020.03.05

데이터 애널리틱스는 끊임없이 변하는 분야다. 디지털 트랜스포메이션을 지원하기 위해 애널리틱스에 투자하는 기업이라면 최신 동향을 확인할 이유가 뚜렷하다 IDG의 ‘CIO 2020 현황’ 보고서에 따르면 37%의 IT리더가 올해 자신의 조직에서 데이터/비즈니스 애널리틱스가 최대의 IT투자가 될 것이라고 응답했다. 보안/위험 관리는 34%로 IT투자 전망에서 2위를 차지했다. 나아가, 업종과 기업 규모에 관계 없이, IT는 데이터 및 애널리틱스 니즈를 충족시킬 최종 책임을 지는 부서가 될 확률이 가장 높은 것으로 조사됐다. 서로 밀접히 연결된 2020년 데이터 애널리틱스 트렌드 4가지를 살펴본다.    데이터 전략 = 비즈니스 전략  한때 유행했던 ‘빅데이터’ 개념은 이제 비즈니스에 영향을 주는 모든 크기와 종류의 데이터를 감안하는 각종 데이터 전략으로 대체되고 있다.  미국 컴퓨터기술산업협회(CompTIA)의 수석 기술 분석 임원인 세스 로빈슨은 “지난해부터 빅데이터에 대한 관심이 크게 줄어들었다. 지나치게 광범위한 데이터 전략이기 때문이라고 생각한다”라고 말했다.  포레스터 리서치의 부사장이자 수석 애널리스티인 브라이언 홉킨스는 “빅데이터의 쇠퇴가 확연하다. 아무도 빅데이터에 더 이상 신경 쓰지 않는다”라고 말했다.  로빈슨과 마찬가지로, 홉킨스는 빅데이터에 대해 이제 조직이 디지털 트랜스포메이션을 위해 데이터 전략들을 조합할 때 데이터 스택 가운데 하나로서 자리할 뿐이라고 생각한다. 그는 조직이 데이터 주도형 AI 애플리케이션을 추진함에 따라 특히 고객 경험 측면에서 ‘정확한 데이터를 확보하는 것’이 중요해졌다고 말했다.  이를 위해 CIO는 데이터 과학자가 데이터 준비, 데이터 정리, 데이터 합리화에 더 적은 시간을 쓰고, 대신 완벽한 데이터로 모델을 구축하는데 더 많은 시간을 쓸 수 있도록 소스 데이터를 가공해야 한다고 그는 언급했다.  홉킨스는 “문제는 CIO의 데이터...

2020.03.05

'꾸준한 인기'··· 인공지능 관련 TED 강연 15선

인공지능은 윤리, 감성 지능, 인간-컴퓨터 협력에 관한 논쟁을 불러일으키는 주제다. 어떤 사람들은 AI가 기술을 부적절하게 사용할 수 있다고 경고하기도 했고, 기업이 AI를 활용하는 방법과 잠재력을 강조하는 <테크월드(Techworld)>에서도 AI에 관한 다양한 주제를 다루고 있다. 사이버보안부터 사업 기획까지 다양한 주제에 관해 정보를 전달하는 테드 강연(TED Talks) 중에는 AI를 주제로 발표한 여러 연사의 강연이 있다. 꾸준히 인기를 끄는 인공지능에 관한 테드 강연을 소개한다.  AI가 인류를 어떻게 구할 수 있나 컴퓨터 과학자이자 기술 투자가인 카이-푸는 15분 테드 강연에서 인공 공명 장치와 함께 인간이 어떻게 자연스럽게 공감할 수 있는지 설명한다. 카이-푸는 미국과 중국에서 AI 투자와 개발이 크게 도약하면서 AI 기술의 길을 닦는 방법에 대해 자세히 언급한다.  그는 "미국이 발견의 시대를 주도하고 중국이 구현의 시대를 주도함에 따라, 우리는 두 초강대국의 이중 엔진이 기술에서 가장 빠른 혁명을 추진하기 위해 함께 노력하고 있는 놀라운 시대에 살고 있다"라고 말한다.  이어서 "(AI)는 우리를 일상적인 업무에서 벗어나게 하려고 여기 있으며, 우리를 더 인간답게 만드는 것이 무엇인지 상기시켜 주기 위해 여기 있다"라고 전한다.  강연 보기 : AI가 인류를 어떻게 구할 수 있나 AI에 대한 통제력을 잃지 않으면서 AI를 구축할 수 있을까? 5차례나 뉴욕타임스 베스트셀러 작가로 선정된 샘 해리스는 신경과학과 도덕성부터 인간의 합리성까지 다양하고 흥미로운 주제와 세상이 달라짐에 따라 우리가 어떻게 변화해야 하지에 관한 글을 쓴다. 이 강연에서 해리스는 초 지능형 기계와 관련된 두려움과 이러한 두려움이 정당화되는 이유를 설명한다. 해리스는 통제되지 않은 AI가 엄청난 결과를 초래하는 '공포' 상황이 발생하지 않으려면 높은 수준의 AI를 만들어 내기 전에 인공지능과 관련된 문제가 해결해...

구글 강연 기계 지능 테드 TED 인공지능 윤리 왓슨 IBM 빅데이터 데니스 홍

2019.12.31

인공지능은 윤리, 감성 지능, 인간-컴퓨터 협력에 관한 논쟁을 불러일으키는 주제다. 어떤 사람들은 AI가 기술을 부적절하게 사용할 수 있다고 경고하기도 했고, 기업이 AI를 활용하는 방법과 잠재력을 강조하는 <테크월드(Techworld)>에서도 AI에 관한 다양한 주제를 다루고 있다. 사이버보안부터 사업 기획까지 다양한 주제에 관해 정보를 전달하는 테드 강연(TED Talks) 중에는 AI를 주제로 발표한 여러 연사의 강연이 있다. 꾸준히 인기를 끄는 인공지능에 관한 테드 강연을 소개한다.  AI가 인류를 어떻게 구할 수 있나 컴퓨터 과학자이자 기술 투자가인 카이-푸는 15분 테드 강연에서 인공 공명 장치와 함께 인간이 어떻게 자연스럽게 공감할 수 있는지 설명한다. 카이-푸는 미국과 중국에서 AI 투자와 개발이 크게 도약하면서 AI 기술의 길을 닦는 방법에 대해 자세히 언급한다.  그는 "미국이 발견의 시대를 주도하고 중국이 구현의 시대를 주도함에 따라, 우리는 두 초강대국의 이중 엔진이 기술에서 가장 빠른 혁명을 추진하기 위해 함께 노력하고 있는 놀라운 시대에 살고 있다"라고 말한다.  이어서 "(AI)는 우리를 일상적인 업무에서 벗어나게 하려고 여기 있으며, 우리를 더 인간답게 만드는 것이 무엇인지 상기시켜 주기 위해 여기 있다"라고 전한다.  강연 보기 : AI가 인류를 어떻게 구할 수 있나 AI에 대한 통제력을 잃지 않으면서 AI를 구축할 수 있을까? 5차례나 뉴욕타임스 베스트셀러 작가로 선정된 샘 해리스는 신경과학과 도덕성부터 인간의 합리성까지 다양하고 흥미로운 주제와 세상이 달라짐에 따라 우리가 어떻게 변화해야 하지에 관한 글을 쓴다. 이 강연에서 해리스는 초 지능형 기계와 관련된 두려움과 이러한 두려움이 정당화되는 이유를 설명한다. 해리스는 통제되지 않은 AI가 엄청난 결과를 초래하는 '공포' 상황이 발생하지 않으려면 높은 수준의 AI를 만들어 내기 전에 인공지능과 관련된 문제가 해결해...

2019.12.31

'윤리적 고려 필요하다' 위치데이터 사용의 현주소

위치 데이터는 큰 시장이긴 하지만 동시에 윤리적 문제를 피하기 어려운 지뢰밭이기도 하다. 많은 신생기업과 소비자는 위치 데이터의 윤리적 문제에 대해 눈을 가린 채 걸어가고 있다. 영국 정부는 위치 데이터가 영국의 디지털 경제에 매년 미화 약 145억 달러의 이익을 가져올 수 있다고 추정했다. 하지만 위치 데이터가 제공하는 인사이트로 인해 우려스러운 상황이 전개될 수 있다.    우크라이나 사람들은 2014년 우려했던 문제를 실제로 겪었다. 당시 대통령이었던 빅토르 야누코비치 탄핵을 주도했던 반정부 시위대는 우크라이나 정부가 국민의 휴대폰 위치 정보를 추적했다고 주장했다. 경찰과 충돌이 있었던 시위 현장의 인근 주민들에게 위협적인 메시지를 보내고자 위치를 추적한 것이다. 메시지는 ‘당신은 집단 난동의 참여자로 기록됐습니다’라는 내용이었다.   이렇게 극단적인 시나리오는 일반적이진 않다. 하지만 음흉하고 은밀하게 위치 데이터를 사용하는 경우는 흔하다. 옥스퍼드 대학의 2018년도 연구에 따르면 모바일 앱의 90%에 서드파티 트래커가 내장된 것으로 추정된다. 이들 앱은 트래커로 위치 및 기타 데이터를 수집하고, 개인의 습관과 신념을 추론해낸다. 이 정보는 마이크로 타켓팅을 활용한 정치 광고나 신용 평가에 사용될 수 있는 상세한 프로필을 만든다. 영국 지리원(Ordnance Survey) 산하 신생기업 육성기관인 지오베이션(Geovation)의 수장 알렉스 로틀리는 "위치 서비스가 무엇을 의미하는지 모르기 때문에 활성화하지 않는다는 사람들을 보곤 한다. 이는 위치 데이터 세트를 활용해 비즈니스를 구축하려는 경우에 문제가 된다"라고 말했다. 이러한 문제에 대응하기 위해 지오베이션은 1년간의 신생기업 상주 프로그램과 강의로 구성된 ‘벤치마크 이니셔티브(The Benchmark Innitiative)’를 시작했다. 이 이니셔티브는 위치 데이터에 대한 대중의 인식과 윤리적인 적용을 촉진하는 데 목표를 둔다. 해당 강의의 두 번째 연사인...

빅데이터 프라이버시 윤리 스타트업 디지털경제 위치데이터

2019.12.12

위치 데이터는 큰 시장이긴 하지만 동시에 윤리적 문제를 피하기 어려운 지뢰밭이기도 하다. 많은 신생기업과 소비자는 위치 데이터의 윤리적 문제에 대해 눈을 가린 채 걸어가고 있다. 영국 정부는 위치 데이터가 영국의 디지털 경제에 매년 미화 약 145억 달러의 이익을 가져올 수 있다고 추정했다. 하지만 위치 데이터가 제공하는 인사이트로 인해 우려스러운 상황이 전개될 수 있다.    우크라이나 사람들은 2014년 우려했던 문제를 실제로 겪었다. 당시 대통령이었던 빅토르 야누코비치 탄핵을 주도했던 반정부 시위대는 우크라이나 정부가 국민의 휴대폰 위치 정보를 추적했다고 주장했다. 경찰과 충돌이 있었던 시위 현장의 인근 주민들에게 위협적인 메시지를 보내고자 위치를 추적한 것이다. 메시지는 ‘당신은 집단 난동의 참여자로 기록됐습니다’라는 내용이었다.   이렇게 극단적인 시나리오는 일반적이진 않다. 하지만 음흉하고 은밀하게 위치 데이터를 사용하는 경우는 흔하다. 옥스퍼드 대학의 2018년도 연구에 따르면 모바일 앱의 90%에 서드파티 트래커가 내장된 것으로 추정된다. 이들 앱은 트래커로 위치 및 기타 데이터를 수집하고, 개인의 습관과 신념을 추론해낸다. 이 정보는 마이크로 타켓팅을 활용한 정치 광고나 신용 평가에 사용될 수 있는 상세한 프로필을 만든다. 영국 지리원(Ordnance Survey) 산하 신생기업 육성기관인 지오베이션(Geovation)의 수장 알렉스 로틀리는 "위치 서비스가 무엇을 의미하는지 모르기 때문에 활성화하지 않는다는 사람들을 보곤 한다. 이는 위치 데이터 세트를 활용해 비즈니스를 구축하려는 경우에 문제가 된다"라고 말했다. 이러한 문제에 대응하기 위해 지오베이션은 1년간의 신생기업 상주 프로그램과 강의로 구성된 ‘벤치마크 이니셔티브(The Benchmark Innitiative)’를 시작했다. 이 이니셔티브는 위치 데이터에 대한 대중의 인식과 윤리적인 적용을 촉진하는 데 목표를 둔다. 해당 강의의 두 번째 연사인...

2019.12.12

호주 국방부, 사람-AI 협업 모색··· 연구 과제 공식 제안

호주 국방부 산하 국방과학기술(Defence Science and Technology, DTS) 그룹이 AI 정보 처리와 인간 의사 결정을 융합하는 방법을 모색하고 있다.    군사 분석가와 지휘관의 의사결정에 AI를 더 잘 통합할 수 있도록 호주 국방부가 인공지능과 인공지능(AI) 시스템 간의 상호작용에 관한 연구에 자금을 지원하고 있다. DST그룹은 대학과 산업계에 인공지능 시스템과 인간의 협력 방법에 초점을 둔 연구를 공식적으로 제안하기 시작했다. AI는 방대한 양의 데이터를 분석하고 신속하게 패턴을 인식하는 데 사용될 수 있다고 DTS는 RFP에서 밝혔다. 그러나 AI의 복잡성이 증가함에 따라 자동화가 많이 요구되는 경우와는 별도로 이러한 시스템을 팀 구성원의 하나로 간주하고 인간과 협업하도록 설계하는 것이 필수적이다. “이를 위해, 우리는 사용자 인터페이스 디자인과 업무 맥락에 대한 이해를 빼놓을 수 없다. 업무 맥락에는 다양한 상호작용 시스템의 새로운 기능이 포함된다. 우리는 처음부터 사람과 협업하는 AI를 설계해야 한다”라고 DTS는 RFP에서 밝혔다.  또한 RFP에는 “AI와 머신러닝은 대량의 데이터를 처리하고 분류할 수 있는 잠재력이 있지만, 의사 결정자들이 이를 효과적으로 활용하려면 올바른 정보를 적시에 올바른 방법으로 제공해야 한다”라고 나타나 있다. 이밖에 AI가 정보의 맥락을 점점 더 정교하게 만들도록 진화함에 따라 공동 의사결정에 활용할 수 있게 될 것이라고 RFP는 전했다. 특히 호주 국방부는 다음은 세 가지 하위 주제를 다루는 연구에 관심이 있다. 첫째 매우 위험하고 시간에 민감한 환경에서 사람과 협력하기 위한 AI 시스템 설계, 둘째 쌍방형 감지를 위한 탐색 AI 시스템 설계(특히 새로운 상황에서 파생된 새로운 상황에 대한 인간의 이해에 관한 AI 평가), 셋째 분산된 사람과 AI 팀 설계다.  투자 자금은 국방부의 연구 중심 차세대 기술 기금에서 나올 예정이다. IRS(Inte...

협업 플라밍고AI 국방과학보기술그룹 DST 데이터61 국방 CSIRO 데이터 분석 인공지능 윤리 의사결정 마이크로소프트 빅데이터 호주 국방부

2019.11.12

호주 국방부 산하 국방과학기술(Defence Science and Technology, DTS) 그룹이 AI 정보 처리와 인간 의사 결정을 융합하는 방법을 모색하고 있다.    군사 분석가와 지휘관의 의사결정에 AI를 더 잘 통합할 수 있도록 호주 국방부가 인공지능과 인공지능(AI) 시스템 간의 상호작용에 관한 연구에 자금을 지원하고 있다. DST그룹은 대학과 산업계에 인공지능 시스템과 인간의 협력 방법에 초점을 둔 연구를 공식적으로 제안하기 시작했다. AI는 방대한 양의 데이터를 분석하고 신속하게 패턴을 인식하는 데 사용될 수 있다고 DTS는 RFP에서 밝혔다. 그러나 AI의 복잡성이 증가함에 따라 자동화가 많이 요구되는 경우와는 별도로 이러한 시스템을 팀 구성원의 하나로 간주하고 인간과 협업하도록 설계하는 것이 필수적이다. “이를 위해, 우리는 사용자 인터페이스 디자인과 업무 맥락에 대한 이해를 빼놓을 수 없다. 업무 맥락에는 다양한 상호작용 시스템의 새로운 기능이 포함된다. 우리는 처음부터 사람과 협업하는 AI를 설계해야 한다”라고 DTS는 RFP에서 밝혔다.  또한 RFP에는 “AI와 머신러닝은 대량의 데이터를 처리하고 분류할 수 있는 잠재력이 있지만, 의사 결정자들이 이를 효과적으로 활용하려면 올바른 정보를 적시에 올바른 방법으로 제공해야 한다”라고 나타나 있다. 이밖에 AI가 정보의 맥락을 점점 더 정교하게 만들도록 진화함에 따라 공동 의사결정에 활용할 수 있게 될 것이라고 RFP는 전했다. 특히 호주 국방부는 다음은 세 가지 하위 주제를 다루는 연구에 관심이 있다. 첫째 매우 위험하고 시간에 민감한 환경에서 사람과 협력하기 위한 AI 시스템 설계, 둘째 쌍방형 감지를 위한 탐색 AI 시스템 설계(특히 새로운 상황에서 파생된 새로운 상황에 대한 인간의 이해에 관한 AI 평가), 셋째 분산된 사람과 AI 팀 설계다.  투자 자금은 국방부의 연구 중심 차세대 기술 기금에서 나올 예정이다. IRS(Inte...

2019.11.12

오픈AI에 10억 달러 투자한 마이크로소프트… 구글의 딥마인드 견제?

구글이 딥마인드를 인수하는 동안 마이크로소프트도 인공지능에 크게 투자했다. 마이크로소프트에서 10억 달러(한화  1조 1,883억 원)라는 거액을 투자받은 오픈AI는 어떤 회사며, 향후 마이크로소프트의 인공지능 비즈니스에 어떠한 변화를 가져올까?     개발자들 사이에서 애저가 자리 잡도록 돕는 것부터 인공지능에 관한 윤리와 신뢰 형성까지, 오픈AI에 10억 달러를 투자한 것은 마이크로소프트가 범용 인공지능의 복잡한 세계에 대비하고 있음을 보여준다. 하지만 먼저 빠르게 다시 한번 알려주도록 하겠다. 최근 몇 년 동안 인공지능(AI)은 개념에서 현실로, 그리고 그것을 넘어 수많은 기술을 집약하는 상위 용어로 넘어갔다. 그 결과 특히 머신러닝과 딥러닝 기법이 특히 번창하고 있다. 이러한 것들은 초기에 정의되었지만, AI의 ‘좁은’ 예들, 즉 물체, 얼굴, 언어 인식 또는 데이터 패턴의 발견과 같은 특정적이고 프로그램된 목적을 위해 설계된 기술들이 가장 위에 있다. 이는 흔히 ‘범용 인공지능'(AGI)’이라고 불리는 것들이다. 그렇지 않으면 ‘진정한’ AI와 여전히 공상과학소설의 영역에만 국한되어 있는 어떤 것으로 알려졌을 것이다.  요컨대, AGI가 인간형, 유연한 사고와 이론적 근거를 거의 즉각적인 리콜이나 거대한 데이터 세트를 분석하고 처리하고 이해할 수 있는 능력과 같은 계산적 장점과 결합하게 될 것이라는 믿음이다. 이는 자연히 약간의 우려를 야기했는데, 특히 기술의 장기적인 사회적 영향에 관한 것이다. 테슬라(및 오픈AI) 설립자인 일론 머스크는 이전에 AGI를 인류에 대한 ‘가장 큰 실존적 위협’이라고 불렀고, 작고한 스티븐 호킹 케임브리지대 교수는 BBC에 ‘완전한 인공지능의 발전은 인류의 종말을 부를 수 있다’고 경고했다. 구글의 레이 커즈웨일 이사는 튜링 테스트를 통과할 수 있는 AGI가 보다 가까운 미래인 앞으로 10년 안에 존재할 것이며, 2040년대에 이르면 값싼 컴퓨터가 인류의 결합된 두뇌와 동...

구글 범용 인공지능 일반 인공지능 AGI 오픈AI 딥마인드 링크드인 테슬라 인공지능 윤리 수퍼컴퓨팅 투자 애저 마이크로소프트 인수 Aartificial general intelligence

2019.10.16

구글이 딥마인드를 인수하는 동안 마이크로소프트도 인공지능에 크게 투자했다. 마이크로소프트에서 10억 달러(한화  1조 1,883억 원)라는 거액을 투자받은 오픈AI는 어떤 회사며, 향후 마이크로소프트의 인공지능 비즈니스에 어떠한 변화를 가져올까?     개발자들 사이에서 애저가 자리 잡도록 돕는 것부터 인공지능에 관한 윤리와 신뢰 형성까지, 오픈AI에 10억 달러를 투자한 것은 마이크로소프트가 범용 인공지능의 복잡한 세계에 대비하고 있음을 보여준다. 하지만 먼저 빠르게 다시 한번 알려주도록 하겠다. 최근 몇 년 동안 인공지능(AI)은 개념에서 현실로, 그리고 그것을 넘어 수많은 기술을 집약하는 상위 용어로 넘어갔다. 그 결과 특히 머신러닝과 딥러닝 기법이 특히 번창하고 있다. 이러한 것들은 초기에 정의되었지만, AI의 ‘좁은’ 예들, 즉 물체, 얼굴, 언어 인식 또는 데이터 패턴의 발견과 같은 특정적이고 프로그램된 목적을 위해 설계된 기술들이 가장 위에 있다. 이는 흔히 ‘범용 인공지능'(AGI)’이라고 불리는 것들이다. 그렇지 않으면 ‘진정한’ AI와 여전히 공상과학소설의 영역에만 국한되어 있는 어떤 것으로 알려졌을 것이다.  요컨대, AGI가 인간형, 유연한 사고와 이론적 근거를 거의 즉각적인 리콜이나 거대한 데이터 세트를 분석하고 처리하고 이해할 수 있는 능력과 같은 계산적 장점과 결합하게 될 것이라는 믿음이다. 이는 자연히 약간의 우려를 야기했는데, 특히 기술의 장기적인 사회적 영향에 관한 것이다. 테슬라(및 오픈AI) 설립자인 일론 머스크는 이전에 AGI를 인류에 대한 ‘가장 큰 실존적 위협’이라고 불렀고, 작고한 스티븐 호킹 케임브리지대 교수는 BBC에 ‘완전한 인공지능의 발전은 인류의 종말을 부를 수 있다’고 경고했다. 구글의 레이 커즈웨일 이사는 튜링 테스트를 통과할 수 있는 AGI가 보다 가까운 미래인 앞으로 10년 안에 존재할 것이며, 2040년대에 이르면 값싼 컴퓨터가 인류의 결합된 두뇌와 동...

2019.10.16

"AI가 만드는 디스토피아? 걱정하지 않는다" 히타치 카주오 야노 박사

히타치의 펠로우인 카주오 야노 박사는 13년 동안 데이터 분석 원리들을 이용해 자신의 행복을 측정해왔다. 그는 2006년부터 ‘행복 모니터’를 손목에 차고 있었고, 이는 무의식적 행동과 동작이 사람의 행복 수준을 어떻게 수치로 나타낼 수 있는지에 관한 통찰을 드러내도록 설계되었다.   이 히타치 베테랑은 자신 명의로 350개 이상의 특허를 가지고 있고, 소셜 빅데이터 분석과 실용 반도체 연구를 개척했으며, 데이터 및 인공지능의 사회적 혜택을 오랫동안 극찬해왔다.  <테크월드>는 지난주 라스베이거스에서 열린 히타치 밴타라(Hitachi Vantara)의 넥스트 컨퍼런스 중에 MGM그랜드의 마키 연회장에서 야노 박사를 만났다. 우리는 데이터가 그를 행복하게 만들었냐고 물었다. 그의 대답은 즉각적이고 명확했다. “그렇다….. 그것도 아주 많이”. 그는 “지난 13년 동안 내 삶, 특히 손목동작을 측정해왔다”면서 “나는 매일같이 내 행동을 분석해왔고, 이들 대다수는 매우 무의식적이었다. 나는 내 삶을 매일 분석한다. 내 삶을 개선하고, 생산적으로 되고, 더 행복해지기 위해서다. 그리고 특히 다른 사람을 행복하게 만드는 삶, 이게 가장 중요하다”라고 말했다.   그는 이들 원리를 누구나 적용할 수 있다고 밝혔다. 심지어 히타치는 행복을 늘리고 불행을 줄이려는 의도에서 조그만 개인 프롬프트를 제공하는 앱까지 개발했다. 얼핏 보아 이는 기업 감시 내지 관찰 프로그램의 기묘한 융합처럼 보인다. 그러나 야노는 이 발상 뒤에 놓인 학술연구에서 이는 사람과 수익에 모두 기여하는 것으로 나타났다고 주장했다.   웨어러블 컴퓨터에 의한 개인 데이터의 실질적인 측정은 1970년대 컴퓨팅의 처음 몇십 년 동안 출현했지만, 2000년대 후반 및 2010년 초반 ‘자아 수량화 움직임’으로 본격화되기 시작했다. 그리고 우리는 핏비트 같은 양산형 소비자 전자제품이나 여타 스마트워치의 건강 기능에서 이를 목격할 수 있다.   이...

페이스북 오픈 AI 드론 스마트워치 심리 행동 애널리틱스 분석 인공지능 히타치 윤리 빅데이터 행동 모니터링

2019.10.15

히타치의 펠로우인 카주오 야노 박사는 13년 동안 데이터 분석 원리들을 이용해 자신의 행복을 측정해왔다. 그는 2006년부터 ‘행복 모니터’를 손목에 차고 있었고, 이는 무의식적 행동과 동작이 사람의 행복 수준을 어떻게 수치로 나타낼 수 있는지에 관한 통찰을 드러내도록 설계되었다.   이 히타치 베테랑은 자신 명의로 350개 이상의 특허를 가지고 있고, 소셜 빅데이터 분석과 실용 반도체 연구를 개척했으며, 데이터 및 인공지능의 사회적 혜택을 오랫동안 극찬해왔다.  <테크월드>는 지난주 라스베이거스에서 열린 히타치 밴타라(Hitachi Vantara)의 넥스트 컨퍼런스 중에 MGM그랜드의 마키 연회장에서 야노 박사를 만났다. 우리는 데이터가 그를 행복하게 만들었냐고 물었다. 그의 대답은 즉각적이고 명확했다. “그렇다….. 그것도 아주 많이”. 그는 “지난 13년 동안 내 삶, 특히 손목동작을 측정해왔다”면서 “나는 매일같이 내 행동을 분석해왔고, 이들 대다수는 매우 무의식적이었다. 나는 내 삶을 매일 분석한다. 내 삶을 개선하고, 생산적으로 되고, 더 행복해지기 위해서다. 그리고 특히 다른 사람을 행복하게 만드는 삶, 이게 가장 중요하다”라고 말했다.   그는 이들 원리를 누구나 적용할 수 있다고 밝혔다. 심지어 히타치는 행복을 늘리고 불행을 줄이려는 의도에서 조그만 개인 프롬프트를 제공하는 앱까지 개발했다. 얼핏 보아 이는 기업 감시 내지 관찰 프로그램의 기묘한 융합처럼 보인다. 그러나 야노는 이 발상 뒤에 놓인 학술연구에서 이는 사람과 수익에 모두 기여하는 것으로 나타났다고 주장했다.   웨어러블 컴퓨터에 의한 개인 데이터의 실질적인 측정은 1970년대 컴퓨팅의 처음 몇십 년 동안 출현했지만, 2000년대 후반 및 2010년 초반 ‘자아 수량화 움직임’으로 본격화되기 시작했다. 그리고 우리는 핏비트 같은 양산형 소비자 전자제품이나 여타 스마트워치의 건강 기능에서 이를 목격할 수 있다.   이...

2019.10.15

“트라우마 차단 필요”··· 호주 경찰, 아동 학대물 식별에 AI 적용 모색 중

아동 음란물 콘텐츠를 조사한 경찰관들이 트라우마를 겪는 경향이 있다. 타인과 상의하기 곤란하기 때문에 문제는 더 복잡해질 수 있다. 호주 연방 경찰청(AFP)이 경찰 조사원을 보호하기 위해 아동 음란물 자료를 확인하고 분류 할 수 있는 머신러닝 알고리즘 개발을 검토하고 있다.  AFP와 협력해 연구를 진행하고 있는 모나시 대학 연구진은 아동 음란물이 인간에 의해 조사되기 전에 분류하고 규정하는 것이 목표라고 전하며, 향후에는 조사자에게 심각한 심리적 고통을 유발할 수 있는 다른 테러 사례도 감지하도록 확장될 예정이라고 전했다.  법 집행을 위한 인공지능 공동 요원인 재니스 달린스 박사는 “이 이니셔티브의 궁극적인 목적은 법 집행과 지역 사회 안전을 향상시키는 데 있어 머신러닝 및 데이터 분석의 사용을 윤리적으로 연구하는 것이다”라고 전했다.  설명에 따르면 프로토 타입 시스템은 달린스와 데이터 61의 연구원이 작년에 처음 만들어냈다. 이미지 분류자는 구글의 텐서플로우를 비롯한 오픈소스 시스템 학습 프레임워크를 사용하여 작성됐다. 아직 아동 학대의 심각성을 분류하는 능력은 제한적이지만, 인간 조사자의 트라우마를 조기 진단하는 데에는 효과가 입증됐다고 연구진은 전했다.  AFP의 앤드류 콜빈 커미셔너는 이번 이니셔티브에 대해 “아동 음란물 자료 및 기타 참혹한 콘텐츠에 대한 AFP 임원의 노출을 최소화 할 것으로 기대한다. 동시에 이 콘텐츠를 식별하고 분류하는 능력을 크게 개선시킬 것으로 본다”라고 말했다.  한편 유사한 작업이 영국 경찰에 의해서도 진행되고 있다. 구글은 작년 “가급적 적은 사람들에게 노출되는 것을 요구하는 방식으로 콘텐츠를 검토 할 수 있는 능력을 향상시키는" 툴킷인 ‘콘텐트 세이트프티 API’를 NGO 및 파트너에게 제공한다고 발표한 바 있다. ciokr@idg.co.kr

호주 윤리 트라우마 AFP 아동 학생 콘텐츠 식별

2019.07.02

아동 음란물 콘텐츠를 조사한 경찰관들이 트라우마를 겪는 경향이 있다. 타인과 상의하기 곤란하기 때문에 문제는 더 복잡해질 수 있다. 호주 연방 경찰청(AFP)이 경찰 조사원을 보호하기 위해 아동 음란물 자료를 확인하고 분류 할 수 있는 머신러닝 알고리즘 개발을 검토하고 있다.  AFP와 협력해 연구를 진행하고 있는 모나시 대학 연구진은 아동 음란물이 인간에 의해 조사되기 전에 분류하고 규정하는 것이 목표라고 전하며, 향후에는 조사자에게 심각한 심리적 고통을 유발할 수 있는 다른 테러 사례도 감지하도록 확장될 예정이라고 전했다.  법 집행을 위한 인공지능 공동 요원인 재니스 달린스 박사는 “이 이니셔티브의 궁극적인 목적은 법 집행과 지역 사회 안전을 향상시키는 데 있어 머신러닝 및 데이터 분석의 사용을 윤리적으로 연구하는 것이다”라고 전했다.  설명에 따르면 프로토 타입 시스템은 달린스와 데이터 61의 연구원이 작년에 처음 만들어냈다. 이미지 분류자는 구글의 텐서플로우를 비롯한 오픈소스 시스템 학습 프레임워크를 사용하여 작성됐다. 아직 아동 학대의 심각성을 분류하는 능력은 제한적이지만, 인간 조사자의 트라우마를 조기 진단하는 데에는 효과가 입증됐다고 연구진은 전했다.  AFP의 앤드류 콜빈 커미셔너는 이번 이니셔티브에 대해 “아동 음란물 자료 및 기타 참혹한 콘텐츠에 대한 AFP 임원의 노출을 최소화 할 것으로 기대한다. 동시에 이 콘텐츠를 식별하고 분류하는 능력을 크게 개선시킬 것으로 본다”라고 말했다.  한편 유사한 작업이 영국 경찰에 의해서도 진행되고 있다. 구글은 작년 “가급적 적은 사람들에게 노출되는 것을 요구하는 방식으로 콘텐츠를 검토 할 수 있는 능력을 향상시키는" 툴킷인 ‘콘텐트 세이트프티 API’를 NGO 및 파트너에게 제공한다고 발표한 바 있다. ciokr@idg.co.kr

2019.07.02

디지털 시대, IT일자리도 불안··· AI의 부상과 노동의 종말

한때 인간의 전유물로 여겼던 일자리까지도 인공지능과 프로세스 자동화가 잠식하고 있다. 지금 당신이 하는 일은 로봇이 할 수 없는 ‘철옹성’ 같은 일인가? 아니면 로봇이 충분히 대신할 수 있는 일인가?   인간과 기계 사이의 전쟁에서 기계가 우위를 점했다. 이미 컴퓨터가 체스, 퀴즈쇼 제퍼디, 바둑에서 인간을 상대로 이길 수 있음을 확인시킨 상태다. 한술 더 떠, 이제 인공지능(AI)에 기반을 둔 알고리즘이 한때 인간의 전유물로 여겼던 일자리에 도전하고 있다. 여기에는 의사, 변호사, 교사 같은 전문직, 그리고 IT 전문 직종도 포함된다. 맥킨지 추정에 따르면, 현재 가용한 기술을 사용해 자동화할 수 있는 노동 활동이나 업무가 전체의 약 절반에 달한다. 2030년에는 전세계 노동자의 최대 30%가 자동화로 대체될 수도 있다. AI는 수많은 일자리에 영구적인 변화를 가져올 전망이다. 자동화는 기존에 존재하지 않았던 새로운 역할과 기회도 창조할 것이다. 그렇지만 이렇게 새로 만들어진 일자리의 수가 없어진 일자리를 대체할 수 있을 정도로 충분한지 아닌지는 지켜볼 일이다. 당신은 어떤가? 알고리즘이 당신의 일자리를 대체할 위험이 있나? 그렇다면 여기에 어떻게 대처할 수 있나? 이에 로봇이 지배하는 미래 세상에 대해 알아야 할 내용을 소개한다. 자동화로 대체될 IT일자리는? 컨설팅회사인 EY의 글로벌 및 미국 컨설팅 리더인 키스 스트리어에 따르면, 거의 모든 산업에서 가장 먼저 자동화될 IT일자리는 사람의 재량(결정)이 많이 필요하지 않은 반복적인 수동 업무, 작업이다. 그는 “시스템 관리자나 티어 1 기술 지원 담당자라면, 또는 심지어 사이버보안 분야라도 주된 업무가 특정 신호와 지표를 찾는 일이라면 일자리에 위험이 초래될 것”이라고 전망했다. 옥스퍼드대학과 노스웨스턴대학 켈로그경영대학원의 조사 결과에 따르면, 데이터베이스 관리자 업무가 자동화로 대체될 수 있는 비율이 39%에 달한다. 그리고 I...

CIO 노조 노동조합 바둑 RPA 기계 알렉사 디지털 변혁 딥마인드 분석 코딩 윤리 일자리 데이터 과학자 아마존 구글 풀스택 엔지니어

2019.05.30

한때 인간의 전유물로 여겼던 일자리까지도 인공지능과 프로세스 자동화가 잠식하고 있다. 지금 당신이 하는 일은 로봇이 할 수 없는 ‘철옹성’ 같은 일인가? 아니면 로봇이 충분히 대신할 수 있는 일인가?   인간과 기계 사이의 전쟁에서 기계가 우위를 점했다. 이미 컴퓨터가 체스, 퀴즈쇼 제퍼디, 바둑에서 인간을 상대로 이길 수 있음을 확인시킨 상태다. 한술 더 떠, 이제 인공지능(AI)에 기반을 둔 알고리즘이 한때 인간의 전유물로 여겼던 일자리에 도전하고 있다. 여기에는 의사, 변호사, 교사 같은 전문직, 그리고 IT 전문 직종도 포함된다. 맥킨지 추정에 따르면, 현재 가용한 기술을 사용해 자동화할 수 있는 노동 활동이나 업무가 전체의 약 절반에 달한다. 2030년에는 전세계 노동자의 최대 30%가 자동화로 대체될 수도 있다. AI는 수많은 일자리에 영구적인 변화를 가져올 전망이다. 자동화는 기존에 존재하지 않았던 새로운 역할과 기회도 창조할 것이다. 그렇지만 이렇게 새로 만들어진 일자리의 수가 없어진 일자리를 대체할 수 있을 정도로 충분한지 아닌지는 지켜볼 일이다. 당신은 어떤가? 알고리즘이 당신의 일자리를 대체할 위험이 있나? 그렇다면 여기에 어떻게 대처할 수 있나? 이에 로봇이 지배하는 미래 세상에 대해 알아야 할 내용을 소개한다. 자동화로 대체될 IT일자리는? 컨설팅회사인 EY의 글로벌 및 미국 컨설팅 리더인 키스 스트리어에 따르면, 거의 모든 산업에서 가장 먼저 자동화될 IT일자리는 사람의 재량(결정)이 많이 필요하지 않은 반복적인 수동 업무, 작업이다. 그는 “시스템 관리자나 티어 1 기술 지원 담당자라면, 또는 심지어 사이버보안 분야라도 주된 업무가 특정 신호와 지표를 찾는 일이라면 일자리에 위험이 초래될 것”이라고 전망했다. 옥스퍼드대학과 노스웨스턴대학 켈로그경영대학원의 조사 결과에 따르면, 데이터베이스 관리자 업무가 자동화로 대체될 수 있는 비율이 39%에 달한다. 그리고 I...

2019.05.30

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.

10.5.0.9