老板10分钟被骗430万,AI新骗术太离谱!
哎咆科技 科技 2023-05-30 11:19:11 · 热度999

大家看没看到一条热搜「AI 诈骗正在全国爆发」。

包头警方发布一起利用 AI 实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

老板10分钟被骗430万,AI新骗术太离谱!

利用 AI 进行诈骗,怎么搞的?

根据报道,郭先生好友突然通过微信视频联系他,称需要 430 万保证金,公对公账户过账,想借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把 430 万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。

简单来说,就是利用 AI 换脸+拟声技术来行骗。

AI 换脸已经不是新技术了,此前已经出现了很多明星换脸的电视剧,甚至普通人都能使用软件轻松实现换脸。只需要一张正脸照片,就能完成换脸,门槛极低。

老板10分钟被骗430万,AI新骗术太离谱!

而 AI 拟声如何实现?一般来说,骗子会先通过骚扰电话录音来提取某人的声音信息,然后通过软件将声音素材进行合成。现在有了 AI 的帮助,只需要5美元就能实现完整的声音克隆。

然后,用 AI 换脸+拟声来进行诈骗,警方表示新骗局的诈骗成功率竟然接近100%。你觉得你不会被骗到?那你的父母、爷爷奶奶、亲朋好友呢?当你的父母接到一通来自「你」的视频电话,说遇到急事需要转账,他们会不会转?

随着技术发展,骗子甚至不需要什么专业技能就能进行这种「高明」的诈骗手法。

比如苹果前几天公布的新辅助功能,就能让 iPhone 在 15 分钟内学会模仿用户的声音,而这项功能既不用付费,又没有学习门槛,会不会导致新型诈骗更加泛滥呢?

老板10分钟被骗430万,AI新骗术太离谱!

AI 诈骗虽然逼真,但也不是没有破绽。

比如换脸的人物在视频中用手在脸周围晃,面部就会变形,很容易分辨真假。在声音方面,克隆的声音很难表达出情绪,像是尖叫、惊恐,大家可以通过这方面来做鉴别。

另外,大家需要注意不要轻易提供自己的面部、指纹等个人信息给他人,不要过度公开分享自己的动图、视频等。

转账前一定要核实对方身份,有异常可以及时通过110报警。

我建议你可以跟朋友设置个暗号,像是「脸红什么?」,「容光焕发!」,「怎么又黄了?」,「天冷涂的蜡!」

如果对不上,那肯定是骗子。

老板10分钟被骗430万,AI新骗术太离谱!

除诈骗外,近来也有人使用 ChatGPT 来编造谣言,大家注意鉴别。

鸟哥笔记学院全新上线
哎咆科技
0
0