人工智能(AI)已用來收集声音元数据,以复制口音。
大马反贪委员会最近发出警告,接到无声来电,千万不要说话。该委员会发布2分钟的视频警告公众,AI科技可以克隆声音,冒充受害者向亲友求救,逃过声音检测完成转账。
如果来电完全没有声音,一旦接听者讲话,语音就会被录制,然后用来连接银行和官方机构的系统。
公众此刻应当注意:
- 连续来电但拨电者没有反应
- 不熟悉的号码,包括国外电话
- 来电没有背景声音
- 接到与银行或官方机构接触的短讯
接到无声来电,应当这样做:
- 保持沉默,不要联络来电者
- 马上挂线
- 避免说“是”或者确认你的名字
- 如果随即收到短讯,不要交换个资或者按连接
(如果对方真的有要紧的事,将会尝试继续联络你,或传来短讯、口讯。)
怎样避免受骗:
- 阻截可疑号码
- 向反贪会投保
- 避免在社交媒体交换号码
- 不要回电不明号码
- 安装过滤或防护诈骗电话的软件
参考:反贪委员会/英文星抱/马新社
图片:Sinar Daily


