다크넷 위협 행위자가 AI 생성 딥페이크와 실시간 음성 변경을 통해 금융 플랫폼의 KYC 신원 확인 시스템을 속이는 새로운 사기 키트를 판매하고 있습니다.
소셜 피드의 코인텔레그래프.
"Jinkusu"로 알려진 위협 행위자가 은행 및 암호화폐 플랫폼에서 고객 파악(KYC) 확인을 우회하도록 설계된 사이버 범죄 도구를 판매하고 있는 것으로 알려졌습니다.
이 도구는 금융 플랫폼의 KYC 인증 시스템을 속이기 위해 딥페이크와 음성 조작을 사용한다고 사이버 범죄 추적기 Dark Web Informer가 Sunday Xpost에 썼습니다.
사이버 보안 회사인 Vecert Analyser는 Jinkusu가 생체 인식을 회피하기 위한 음성 변조와 함께 "유동적인 제스처 전송"을 위해 Insight Face를 통해 실시간 얼굴 교환에 AI를 사용한다고 덧붙였습니다.
블록체인 보안 플랫폼 Cyvers의 CEO인 Deddy Lavid에 따르면, 딥페이크 도구의 출현은 KYC 인증 시스템의 단점을 부각시키기 때문에 업계에 "경종"입니다.
Lavid는 Cointelegraph와의 인터뷰에서 “AI가 합성 신원 사기에 대한 장벽을 낮추면 정문은 항상 취약한 상태로 남게 됩니다. ”라며 플랫폼이 신원 확인과 실시간 AI 모니터링을 결합한 계층화된 보안 접근 방식을 채택할 것을 촉구했습니다.
바이낸스 최고 보안 책임자 지미 수(Jimmy Su)는 2023년 5월 딥페이크 기술의 위협이 커지고 있음을 강조했습니다.
그는 AI 알고리즘을 개선하면 피해자의 사진 한 장을 사용해 KYC 신원 시스템을 해독할 수 있을 것이라고 경고했습니다.
관련: Revolut는 전직 직원이 암호화폐 몸값을 위해 KYC 데이터를 유출하겠다고 위협했음을 확인했습니다.
또한 새로운 사기 키트를 통해 사기꾼은 기술적 지식 없이도 '돼지 도살'과 같은 로맨스 사기를 실행할 수 있습니다.
암호화폐 투자자들은 5달러를 잃었습니다. 2024년 돼지 도살 건수는 50억~20만 건에 이를 것으로 예상됩니다.
새로운 사기 패키지 작성자인 Jinkusu는 2026년 2월 피싱 키트 Starkiller를 출시한 위협 행위자와 동일한 것으로 의심됩니다.
2월 19일 보고서에서 사이버 보안 플랫폼인 Abnormal은 전통적인 HTML 기반 피싱 키트와 달리 Starkiller는 Docker 컨테이너 내에 헤드리스 Chrome 브라우저를 생성하고 대상 브랜드의 정품 로그인 페이지를 로드한 후 로그인 및 비밀번호를 포함한 모든 사용자 입력을 위협 행위자에게 전달하여 실시간 역방향 프록시를 생성한다고 설명했습니다.
Scam Sniffer는 1월 보고서에서 암호화폐 피싱 공격으로 인한 손실이 2025년에 83% 감소했지만 악성 암호화폐 지갑 드레이너 스크립트는 여전히 활성 상태로 유지되었으며 새로운 악성 코드가 계속 등장했다고 밝혔습니다.
매거진: 모두가 GPT-5를 싫어합니다. AI는 소셜 미디어를 고칠 수 없다는 것을 보여줍니다.
원문 제목: New AI cybercrime tool targets crypto, bank KYC systems via deepfakes
A darknet threat actor is selling new fraud kit to trick KYC identity verification systems on financial platforms via AI-generated deepfakes and real-time voice altering.
Cointelegraph in your social feed.
A threat actor known as “Jinkusu” is allegedly selling cybercrime tools designed to bypass Know Your Customer (KYC) checks at banks and crypto platforms.
The tool uses deepfakes and voice manipulation to trick KYC verification systems on finance platforms, cybercrime tracker Dark Web Informer wrote in a Sunday Xpost.
Cybersecurity company Vecert Analyzeraddedthat Jinkusu uses AI for real-time face swaps via InsightFace for “fluid gesture transfers,” along with voice modulation to evade biometrics.
The emergence of deepfake tools is a “wake-up call” for the industry, as it highlights the shortcomings of KYC verification systems, according to Deddy Lavid, CEO of blockchain security platform Cyvers.
“As AI lowers the barriers to synthetic identity fraud, the front door will always remain vulnerable,” Lavid told Cointelegraph, urging platforms to adopt a layered security approach combining identity verification with real-time AI monitoring.
Binance chief security officer Jimmy Su highlighted the growingthreat of deepfaketechnology back in May 2023.
He warned that improving AI algorithms will be able to crack KYC identity systems by using a single picture of the victim.
Related:Revolut confirms ex-employee threatened to leak KYC data for crypto ransom.
The new fraud kit also enables scammers to run romance scams, such as “pig butchering,” with no technical knowledge.
Crypto investors lost $5.
5 billion to 200,000 flaggedpig butchering casesin 2024.
The author of the new fraud package, Jinkusu, is suspected to be the same threat actor who released the phishing kit Starkiller in February 2026.
Unlike traditional, HTML-based phishing kits, Starkiller creates a real-time reverse proxy by creating a headless Chrome browser inside a Docker container, loading the genuine login page of the target brand and relaying all user input, including login and passwords, to the threat actor, explained cybersecurity platform Abnormal, in a Feb.
19report.
While losses tocrypto phishing attacksfell 83% in 2025, malicious crypto wallet drainer scripts remained active and new malware continued to emerge, Scam Sniffer said in a January report.
Magazine:Everybody hates GPT-5, AI shows social media can’t be fixed.