을 이용한 납치 빙자 보이스피싱(전화
조회조회5회 작성일작성일24-11-07 13:41
본문
딥페이크 영상을 이용한 납치 빙자 보이스피싱(전화금융사기) 범죄가 발생하고 있다.
7일 뉴스1에 따르면 경찰청 국가수사본부는 이날 최근 한국을 여행.
경찰은 범인이 자녀의 목소리를 AI 기반 '딥보이스' 기술로 복제해 금융 사기를 벌일 수 있다며 딥페이크,딥보이스기술을 악용한 보이스피싱에 대비해야.
가짜 음성을 생성하는딥보이스도 유의해야 합니다.
범인이 자녀 목소리를 복제해 납치 범죄에 악용할 가능성이 있습니다.
경찰청은 "딥페이크와딥보이스는 실제 인물을 학습해야 하므로 소셜미디어(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄조직의 표적이 될.
가짜 음성을 생성하는딥보이스도 유의해야 합니다.
범인이 자녀 목소리를 복제해 납치 범죄에 악용할 가능성이 있습니다.
경찰청은 "딥페이크와딥보이스는 실제 인물을 학습해야 하므로 소셜미디어(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄조직의 표적이 될.
익시오는 온디바이스 AI 기반으로 통화요약·보이스피싱 탐지기능 등을 제공하는 아이폰용 AI 통화 에이전트다.
황 대표는 “통신사 근간은 통화며.
통화에 AI를 접목시켜 통화녹음·요약과 전화 대신받기, 보이는전화,보이스피싱 탐지 등 차별화 경험을 제공한다.
보이스피싱은 전화번호가 아닌 통화.
보이스피싱(전화금융사기) 범죄에 활용되는 사례가 해외에서 다수 발견되고 있다"며 "유사 사례가 국내에서도 발생할 수 있다"고 주의를 당부했다.
인공지능(AI) 기술을 활용한 딥페이크는 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임도 재현한다.
가짜 목소리를 생성하는딥보이스.
또 기술 발전이 빠르게 가속화되는 가운데 AI·클라우드·양자 컴퓨팅이 발달하고 규제 환경도.
피싱범죄에 악용될 수 있는 인공지능(AI) 기술에는딥보이스(Deepvoice)도 있다.
범인이 자녀의 목소리를 복제한 뒤 부모에게 전화하여 마치 납치된 것처럼.
딥페이크와딥보이스는 실제 인물을 학습해야 하므로 사회관계망 서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등은 범죄조직의 표적이 될 수.
A씨를 납치했다고 부모를 협박한 조직은 중국 보이스피싱 일당이었다.
이들은 A씨의 사진과 목소리로 AI·딥페이크 기술을 이용해 납치 영상을 제작했고.
경찰은 향후 AI 딥페이크·딥보이스기술이 범죄에 악용될 수 있다고 보고 있다.
소셜미디어(SNS) 등에 공개된 사진과 단 몇 초만의 음성으로도 충분히 가짜.
가짜 음성을 생성하는딥보이스도 유의해야 합니다.
범인이 자녀 목소리를 복제해 납치 범죄에 악용할 가능성이 있습니다.
경찰청은 "딥페이크와딥보이스는 실제 인물을 학습해야 하므로 소셜미디어(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄조직의 표적이 될.
7일 경찰청 국가수사본부는 인공지능(AI) 기술이 보이스피싱(전화금융사기) 범죄에 활용되는 사례가 해외에서 발견되고 있고, 유사 사례가 국내에서도 발생할 수 있다며 주의를 당부했다.
전화사기 범죄에 악용될 수 있는 AI 기술에는딥보이스(음성 복제·합성·변조)도 있다.
범인은 자녀의 목소리를 복제한 뒤.
- 이전글상승 폭을 기록하는 등 주담대에 24.11.07
- 다음글한 성과금 요구 협력사에 피해 24.11.07