티스토리 뷰

 

엄마, 나 사고났어. 빨리 돈 좀 보내줘.” 만약 당신이 가족의 진짜 목소리와 똑같은 누군가로부터 위 같은 도움전화를 받는다면 어떻게 행동할까. 최근 인공지능(AI) 딥페이크가 보이스피싱에 활용되면서 더 큰 피해가 우려된다. 자녀를 사칭하는 것부터 피해자에게 혼란을 야기하는데, 목소리까지 같다면 속을 수밖에 없기 때문이다.

딥페이크 음성 탐지 소프트웨어 개발

이에 국내 한 연구팀은 딥페이크로 모방한 음성을 탐지하는 소프트웨어 기술개발에 나서 관심이 쏠린다. 15일 정보통신기획평가원(IITP) 주간기술동향에 따르면, 정수환 숭실대 정보통신전자공학부 교수는 딥페이크로 모방한 음성을 탐지하는 소프트웨어 기술을 내년 12월을 목표로 개발 중이다.

 

 

이 기술은 딥러닝 학습을 통해 딥페이크 조작 여부를 탐지해 낸다는 게 특징이다. 스마트폰 등 IT기기에 탑재해 상용화함으로써 피해를 예방하는 게 목적이다.

보이스피싱 사례 및 딥페이크 기술의 악용 가능성

이미 외국에서는 딥페이크를 이용한 보이스피싱에 대한 우려가 한 차례 나왔다. 지난 3월 캐나다에서는 보이스피싱범이 “아들이 교통사고로 미국인 외교관을 숨지게 한 혐의로 수감됐다”며 부모에게 2만1000 캐나다 달러(약 2021만원) 상당의 암호화폐를 송금하라고 요구했다.

 

당시 범인은 딥페이크 기술이 적용된 ‘가짜’ 아들의 목소리를 들려줬고, 부모는 감쪽같이 속아 돈을 송금했다. 또 2019년 영국 한 에너지 회사는 최고경영자(CEO) 목소리를 AI가 위조한 보이스피싱 공격을 받자 24만3000달러(약 3억 933만원)를 송금하는 금융사기에 휘말리기도 했다.

 

국내에서도 성우, 유명인 등의 목소리를 딥페이크 기술로 복제해 원하는 내용의 글을 음성으로 변환해주는 음성 합성기술 개발이 시작되고 있어, 범죄에 악용될 가능성이 높다고 보고서는 지적했다.

딥페이크 음성 탐지 기술의 필요성

보고서는 “AI를 활용한 보이스피싱 위험이 많이 증가했으나 변조 음성탐지 기술은 거의 없는 상황”이라며 “해외연구는 주로 영어 발화에 대한 연구이기 때문에 한국어 딥페이크 음성탐지 연구가 절실하다”고 강조했다.

 

 

관련 업계에서는 AI로 위조된 음성 탐지기술이 활성화하면 보이스피싱 예방뿐 아니라 공격자가 특정한 개인이나 공인을 흉내 내 명예를 훼손하는 가짜 뉴스, 신원 합성을 통한 사기 등의 예방에도 활용될 것으로 보고있다.

 

결론

인공지능 딥페이크 기술이 보이스피싱에 활용되면서 실제 목소리와 구분이 어려운 피해 사례가 발생하고 있다. 딥페이크 음성 탐지 소프트웨어 개발이 진행되고 있으며, 이 기술이 활성화된다면 보이스피싱 예방과 함께 다양한 범죄 예방에도 활용될 것으로 전망된다.

 

https://youtu.be/jQQsA7YGdhk