- UID
- 46859
- 主题
实习版主
- 金钱
-
- 威望
-
- 贡献
-
- 日志
- 好友
- 帖子
- 主题
- 听众
- 收听
- 性别
- 保密
|
一位科技公司老板,竟然在10分钟内被人利用人工智能(AI)骗走人民币数百万元。相关案例在网上曝光后,“AI诈骗”的话题迅速冲上了热搜榜首位。
. {$ |! I8 o+ O3 ]- a, R7 i( d) ]' c6 u) A$ g( _6 \3 D
近日,福州市某科技公司法人代表郭先生遭骗子利用AI技术骗走430万元的案例,被包头警方在网络上披露出来,引起了网友对AI诈骗的热烈讨论。本周一(5月22日),“AI诈骗正在全国爆发”的话题,冲上了互联网社交平台的热搜第一。' f3 [. A" | x# g& C" @
4 u% Q* |6 S- V据“每日经济新闻”网22日报导, 今年4月20日11时40分许,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他。两人简单寒暄几句后,好友告诉郭先生,自己的一个朋友在外地投标,需要公对公账户过帐430万元的保证金,想要借用郭先生公司的账户走一下帐。
0 J2 @8 N1 I- W$ a" Q3 ^
8 e* k! W/ B( I6 m& ^* Y因为是视频聊天,出于对友好的信任,郭先生把公司的银行卡号告诉了对方,在对方声称已经把钱打到郭先生的账户上后,也没有立即再核实一下钱是否到账,就于11时49分先后分两笔把430万元给对方打了过去。钱款转账完成后,郭先生给好友的微信发了一条短讯,告诉他事情已经办妥。不料,好友竟回发了一个问号。; R5 F: f/ r8 ]
/ \ ^8 V% S- e$ n8 u' E9 p
郭先生随即拨打好友电话核实,结果对方坚称没有这回事,郭先生这才意识到自己可能遇到使用了智能AI换脸技术的“高端”骗局,并立即报了警。事后回忆起当时的情形,郭先生说:“我在视频中也确认了面孔和声音,所以才放松了戒备。”
* }+ m- f# P# J2 W& Y) N2 N
W* `% i2 m) `/ ^媒体归纳了目前比较常见几种AI诈骗方式:
! i* d o( ~% {! F7 a6 g% j+ b9 g. n+ J7 v
其一,利用声音合成技术行骗。通常骗子会先通过骚扰电话录音等方式提取某人的声音素材,然后利用AI 技术进行声音合成,再利用足以乱真的伪造的声音进行诈骗。
8 j4 H8 F4 |; r8 M3 V( V
" O8 K% O8 I, X2 c( h, [" J' U一个比较有代表性的例子是:某公司财务接到领导电话,要求立刻给某供应商转款2万元,并将转账信息以邮件形式发送。由于老板的口音十分逼真,该财务人员信以为真,立即执行转款,后来才发现那是一个骗局。
! I7 B5 D- C1 F6 g- @5 \6 l6 o c* A& E8 C& D
其二,利用AI换脸技术行骗。使用AI技术换脸,让骗子可以伪装成任何人,再通过视频方式进行信息确认。通常来说,人脸效果更易取得对方的信任。2 x9 l' H: G5 b
5 \5 _' T3 C% Y& J8 r7 \9 ~! G其三,通过转发微信语音的方式行骗。骗子先盗取目标对象所信赖的好友的微信号后,然后以好友身份向对方“借钱”,再转发好友之前的语音以骗取对方的信任,达成骗取钱款的目的。
0 \5 U/ ?" A9 K6 E, z# `
! I: V1 s* Q/ ]/ u" f Y" M# T大陆媒体称,尽管微信没有语音转发功能,但骗子可以通过提取语音文件或安装非官方版本(插件)的方式来实现语音转发。' u4 S+ Q) C; f9 p
& W& |7 E, w( K0 g) `: z3 i* b4 f* g4 |报导表示,利用AI技术的诈骗潮已来袭,而且这类诈骗的成功率接近100%,公众需要增强防范意识。一方面,尽可能避免自己的人脸及指纹等个人信息被他人获取,切勿轻易暴露自己的银行账户和卡号;另一方面,如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过打电话或直接见面等途径进行核实确认,以免上当受骗。
. r2 @: Q1 W4 m- M |
-
|