2020.12.08
엔비디아 리서치(NVIDIA Research)가 지난 7일(현지 시각) 신경정보처리시스템학회(NeurIPS)에서 제한된 데이터세트만으로도 AI를 학습시킬 수 있는 방법을 개발했다고 발표했다.  생성적 적대 신경망(Generative Adve... ...
딥페이크(Deepfake)란 마치 진짜처럼 보이고 들리는 가짜 동영상 또는 오디오 녹음본이다. 한 때는 CIA나 GCHQ의 JTRIG 등 할리우드 특수 효과 스튜디오와 정보기관에게만 이를 만들어낼 역량이 있었지만 지금은 누구든 여가 시간에 딥페이크 소... ...
인공지능 애플리케이션을 노린 적대적 공격에 대한 우려가 높아지고 있다. 그러나 이러한 공격에 대비하는 기술 또한 부상하고 있다. 공격자가 AI 애플리케이션을 속일 목적으로 이미지, 비디오, 연설, 기타 데이터에 거의 보이지 않는 변경을 가하는 경... ...
  1. 엔비디아, 제한된 데이터세트로 AI 학습시키는 기술 발표

  2. 2020.12.08
  3. 엔비디아 리서치(NVIDIA Research)가 지난 7일(현지 시각) 신경정보처리시스템학회(NeurIPS)에서 제한된 데이터세트만으로도 AI를 학습시킬 수 있는 방법을 개발했다고 발표했다.  생성적 적대 신경망(Generative Adve...

  4. 머신러닝으로 만드는 가짜 영상··· 딥페이크란? 잠재적 위험성은?

  5. 2019.04.12
  6. 딥페이크(Deepfake)란 마치 진짜처럼 보이고 들리는 가짜 동영상 또는 오디오 녹음본이다. 한 때는 CIA나 GCHQ의 JTRIG 등 할리우드 특수 효과 스튜디오와 정보기관에게만 이를 만들어낼 역량이 있었지만 지금은 누구든 여가 시간에 딥페이크 소...

  7. 기고 | AI 노린 적대적 공격, 어떻게 대비할 것인가

  8. 2017.08.16
  9. 인공지능 애플리케이션을 노린 적대적 공격에 대한 우려가 높아지고 있다. 그러나 이러한 공격에 대비하는 기술 또한 부상하고 있다. 공격자가 AI 애플리케이션을 속일 목적으로 이미지, 비디오, 연설, 기타 데이터에 거의 보이지 않는 변경을 가하는 경...

X