“엄마, 나 지금 납치당했어. 빨리 돈 보내줘.” 2025년 4월, 서울 지하철 내방역에서 한 60대 여성이 겁에 질려 은행으로 향하던 중 역무원의 도움으로 보이스피싱 피해를 면했습니다. 그녀가 들은 것은 AI가 복제한 딸의 목소리, 바로 딥보이스(Deep Voice)였습니다. 딥보이스란 인공지능을 이용해 특정인의 음성을 합성하는 기술로, 2~3초의 짧은 음성 샘플만으로도 말투와 억양까지 정교하게 복제할 수 있습니다.
AI 사칭 범죄, 지금 얼마나 심각한가
미국 연방거래위원회(FTC) 자료에 따르면, 2023년 한 해 동안 AI 음성 사기 피해 신고 건수는 85만 건에 달했으며, 재정적 피해 규모는 약 20억 달러(약 2.7조 원)를 넘어섰습니다. 영국 스타링뱅크의 조사에서는 성인 4명 중 1명이 지난 1년간 AI 음성 복제 사기를 경험했다고 응답했습니다.
국내 상황도 심각합니다. 금융감독원 자료에 따르면 최근 5년간 보이스피싱 피해액이 4조 원을 넘어섰으며, 건당 평균 피해액은 487만 원에서 2,244만 원으로 4.6배 증가했습니다. 경찰청은 2024년 8월부터 2025년 3월까지 딥페이크 범죄 집중단속을 통해 963명을 검거했는데, 이 중 10대와 20대가 93.1%를 차지해 범죄의 저연령화가 두드러집니다.
딥보이스와 딥페이크는 어떻게 작동하는가
딥페이크(Deepfake)는 딥러닝(Deep Learning)과 가짜(Fake)의 합성어로, AI가 학습한 데이터를 바탕으로 실제와 구분하기 어려운 가짜 영상이나 음성을 생성하는 기술입니다. 현재 상용화된 음성 복제 AI 애플리케이션은 30초에서 1분 분량의 음성만으로도 해당 인물의 말투와 억양을 분석해 유사한 목소리를 구현합니다.
미국 컨슈머 리포트의 2024년 조사에 따르면, 조사 대상 6개 AI 음성 복제 기업 중 4곳이 별다른 보안 장치 없이 누구의 음성이든 쉽게 복제할 수 있도록 허용하고 있었습니다. 전문가들은 최근 2~3년 새 ‘쉬운 AI’를 표방하는 서비스가 속속 등장하며 범죄의 문턱이 낮아졌다고 경고합니다.
실제 피해 사례로 보는 AI 사칭 수법
국내 사례
- 2023년 부산: 60대 여성이 “딸이 잡혀갔다”는 AI 딥보이스 전화에 속아 2천만 원 송금
- 2025년 4월 서울: AI로 복제한 딸 목소리로 납치 사기 시도, 지하철 직원이 막아 피해 예방
해외 사례
- 손자 사기(Grandparent Scam): 미국에서 AI로 복제된 손자 목소리를 듣고 15,000달러(약 2,000만 원) 송금 피해
- 영국 에너지 회사: AI로 복제된 CEO 음성을 들은 회계 담당자가 24만 달러(약 3.2억 원) 송금
- 2021년 아랍에미리트: 대기업 임원 음성 사칭으로 420억 원 피해 발생
※ 본 링크는 광고가 아니며, 클릭/구매에 따른 수수료를 받지 않습니다.
AI 사칭 피해 자가진단 10가지 체크리스트
다음 체크리스트를 통해 AI 사칭 피해 가능성을 점검해보세요. 해당 항목이 많을수록 피해 위험이 높습니다.
통화 상황 점검 (5가지)
- 긴급한 금전 요청: 전화로 “지금 당장 돈이 필요하다”는 요청을 받은 적 있는가?
- 신원 확인 불가: 상대방이 직접 만나거나 영상통화를 피하는가?
- 비밀 유지 요구: “다른 가족에게 말하지 말라”고 요청하는가?
- 송금 방법 지정: 특정 계좌나 암호화폐로만 송금하라고 하는가?
- 음성의 부자연스러움: 말 사이 끊김, 기계적 억양, 배경 소음 이상이 느껴지는가?
개인 보안 상태 점검 (5가지)
- SNS 음성 노출: 본인이나 가족의 음성이 담긴 영상을 SNS에 공개 게시했는가?
- 가족 간 암호 부재: 가족 간 신원 확인용 암호나 질문이 없는가?
- 금융 알림 미설정: 계좌 출금 시 실시간 알림을 받지 않는가?
- 보안 앱 미사용: 스팸 차단이나 보이스피싱 탐지 앱을 사용하지 않는가?
- 피해 유형 미인지: AI 음성 복제 사기가 존재한다는 사실을 몰랐는가?
진단 결과 해석
- 0~2개: 양호 – 기본적인 보안 의식이 있으나 지속적인 주의 필요
- 3~5개: 주의 – 일부 취약점 존재, 보안 강화 권장
- 6개 이상: 위험 – 즉각적인 보안 조치 필요
AI 사칭 피해 예방을 위한 실천 방법
1. 가족 간 안전 암호 만들기
안전 암호란 가족이나 가까운 지인과 미리 정해둔 비밀 단어나 질문으로, 전화로 신원을 확인할 때 사용합니다. 예를 들어 “우리 집 강아지 이름이 뭐야?”처럼 당사자만 알 수 있는 정보를 활용합니다.
2. 확인 질문 활용하기
의심스러운 전화를 받으면 상대방만 알 수 있는 질문을 해보세요. 거주지역, 직업, 고향, 출신학교, 최근 만난 장소 등 AI가 학습하지 못한 개인 정보를 물어보면 진위를 파악할 수 있습니다.
3. 끊고 다시 전화하기
가족이나 지인이 금전을 요구하면, 통화를 끊고 직접 저장된 번호로 다시 전화하세요. 범죄자는 발신번호를 조작할 수 있지만, 본인이 직접 거는 전화는 조작할 수 없습니다.
4. SNS 음성 노출 최소화
경찰청은 SNS에 본인이나 가족의 영상·사진을 전체 공개로 올리지 않도록 주의를 당부하고 있습니다. 특히 음성이 포함된 게시물은 AI 학습 데이터로 악용될 수 있어 비공개 설정을 권장합니다.
5. 보안 앱 설치 및 활용
KT는 2025년 7월 ‘AI 보이스피싱 탐지서비스 2.0’을 상용화했습니다. 이 서비스는 화자인식 기술과 딥보이스 탐지 기능을 통합해 범죄자의 실제 음성과 AI 변조 음성을 식별합니다. ‘후후(whowho)’ 앱을 설치하면 통신사에 관계없이 이용할 수 있습니다.
통신사와 정부의 AI 보이스피싱 대응 현황
KT의 대응 (2025년 기준)
KT의 AI 보이스피싱 탐지 서비스는 2025년 상반기 동안 약 1,460만 건의 통화 트래픽을 분석해 91.6%의 탐지 정확도를 기록했습니다. 이 기간 동안 약 710억 원의 피해를 예방한 것으로 추산되며, 2025년 전체로는 약 1,300억 원 규모의 피해 예방 효과를 달성했습니다.
SK텔레콤의 대응
SK텔레콤은 2025년 한 해 동안 각종 통신 사기 시도 약 11억 건을 선제적으로 차단했습니다. ‘통화패턴 분석 기반 AI 모델’을 도입해 음성 스팸·보이스피싱 통화 2억 5천만 건, 문자 8억 5천만 건을 차단했으며, 이는 전년 대비 35% 증가한 수치입니다.
정부 대응
경찰청은 2027년까지 91억 원의 예산을 투입해 딥러닝 기반 허위조작 콘텐츠 복합 탐지 기술을 개발할 계획입니다. 또한 개인정보보호위원회, 과학기술정보통신부, 국립과학수사연구원과 협력해 ‘그놈목소리’ 데이터베이스를 구축하고 있습니다.
※ 본 링크는 광고가 아니며, 클릭/구매에 따른 수수료를 받지 않습니다.
피해 발생 시 즉각 대응 방법
AI 사칭 피해가 의심되거나 발생했다면 다음 절차를 즉시 진행하세요.
- 송금 중단: 이체 진행 중이라면 즉시 중단하고 해당 금융기관에 연락
- 경찰 신고: 경찰청 112 또는 전기통신금융사기 통합신고센터에 신고
- 계좌 지급정지: 금융감독원 1332 또는 해당 은행 콜센터에 피해 계좌 지급정지 요청
- 증거 보존: 통화 녹음, 문자 메시지, 송금 내역 등 관련 자료 보관
신고 연락처
- 경찰청: 112
- 금융감독원: 1332
- 디지털성범죄 피해자지원센터: 02-735-8994
- 한국인터넷진흥원(KISA) 스팸신고센터: 118
자주 묻는 질문
AI가 복제한 목소리와 실제 목소리를 어떻게 구분할 수 있나요?
정확한 구분은 어렵지만 몇 가지 단서가 있습니다. AI 생성 음성은 말 사이 부자연스러운 끊김, 감정 표현의 단조로움, 배경 소음의 이상함이 나타날 수 있습니다. 가장 확실한 방법은 직접 저장된 번호로 다시 전화하거나, 당사자만 아는 질문을 하는 것입니다.
SNS에 올린 짧은 영상도 음성 복제에 악용될 수 있나요?
2~3초의 짧은 음성 샘플만으로도 AI가 해당 인물의 말투와 억양을 학습해 복제할 수 있습니다. SNS에 음성이 포함된 영상을 올릴 때는 전체 공개보다 친구 공개나 비공개 설정을 권장합니다.
AI 보이스피싱 탐지 앱은 어떤 것이 있나요?
KT의 ‘후후(whowho)’ 앱은 통신사에 관계없이 설치 가능하며, AI 보이스피싱 탐지서비스 2.0을 지원합니다. SK텔레콤 이용자는 ‘에이닷 전화’ 앱의 ‘AI 보이스피싱 탐지’ 기능을 활용할 수 있습니다. 두 서비스 모두 통화 중 실시간으로 위험을 감지해 알려줍니다.
가족 간 안전 암호는 어떻게 정하면 좋을까요?
SNS나 인터넷에 공개되지 않은 개인적인 정보를 활용하세요. 예를 들어 “첫 반려동물 이름”, “초등학교 때 별명”, “2025년 가족여행 장소” 등 가족만 아는 정보가 좋습니다. 암호는 정기적으로 변경하고, 너무 쉽게 추측 가능한 정보는 피하세요.
이미 송금한 경우 돈을 돌려받을 수 있나요?
피해 인지 즉시 금융감독원(1332)이나 해당 은행에 지급정지를 요청하면 범인이 인출하기 전이라면 피해금 환급이 가능합니다. 다만 금융감독원 자료에 따르면 보이스피싱 자율배상 신청 중 실제 배상이 이뤄진 비율은 약 10.4%에 불과하므로, 예방이 가장 중요합니다.
※ 본 링크는 광고가 아니며, 클릭/구매에 따른 수수료를 받지 않습니다.
마무리
AI 기술의 발전은 우리 삶을 편리하게 만들었지만, 동시에 새로운 형태의 범죄 위협도 가져왔습니다. 영국 스타링뱅크의 2024년 조사에서 응답자의 46%가 AI 음성 복제 사기의 존재조차 몰랐다는 점은 인식 제고가 얼마나 중요한지 보여줍니다.
오늘 소개한 10가지 자가진단 체크리스트를 통해 본인과 가족의 보안 상태를 점검해보세요. 가족 간 안전 암호를 정하고, 의심스러운 전화에는 끊고 다시 거는 습관을 들이는 것만으로도 피해를 크게 줄일 수 있습니다. 한국인터넷진흥원(KISA)이 강조하듯, AI 기반 음성 사기는 기술적 차단만으로는 한계가 있어 가족 간의 사전 예방 조치가 무엇보다 중요합니다.