三星高薪挖角销售高管,30万美元争夺美国芯片订单
阅读全文

锤刻创思寰宇网
人工智能技术的快速发展已经能够实现以假乱真的模仿效果,即生成与你声音和相貌完全一致的音频和视频。这类深度伪造内容有时可能无害,比如用于名人、政客等公众人物的恶搞表情包。但正如你所料,诈骗分子也正利用该技术从毫无戒心的人那里窃取钱财。
这种被称为“祖父母骗局”的套路往往令人猝不及防。究其原因,在于大众尚未意识到该技术已变得如此易得且精密。早在两年前,微软(Microsoft)的VALL-E模型仅需3秒语音样本就能克隆特定人声,而此后AI技术仍在持续升级。
更关键的是,多数人自认平凡不会成为目标,或被用作诱骗亲友的幌子。而且并非所有人都记得电话号码能被伪造——来电显示信息可被篡改为任意虚拟号码。
设想当下场景:若亲友收到自称是你在异国失联急需资金的Facebook消息,他们或许会心生疑虑。但当接到“你”带着哭腔求助的电话甚至视频通话时?他们很可能毫不犹豫伸出援手,最终落入骗局陷阱。
其实只需一个低技术含量的解决方案就能防范——安全词(并非某些特殊场景所指的类型)。正如Malwarebytes等网络安全公司所建议,这个亲友间约定的特殊短语能在通话时验证身份。我个人更倾向称之为语音密码,因为搜索引擎中“安全词”的联想结果往往与网络安全无关。
安全词需选择独特甚至无意义的组合(避免使用故乡、宠物名、爱好等易猜信息)。当亲友遭遇以下场景时,这个密码就成为判断真伪的关键:
事故骗局:“你”声称遭遇意外急需救助
保释骗局:“你”伪装被捕需要保释金
虚拟绑架:“你”谎称遭绑架索要赎金
社交媒体时代,获取音视频样本变得异常简单。即便你远离社交平台,也无法保证熟人未曾拍摄过含你影像的内容。对于活跃用户,建议设置双重验证:不仅要安全词,还需回答仅有彼此知晓的私密问题。如此无论诈骗者如何伪装,最终要么知难而退,要么在紧要关头被你们识破笑谈。