星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

地方

|
发布: 4:52pm 26/09/2023

陌生来电

民众

声音

复制

陌生来电

民众

声音

复制

避免声音遭“复制” 民众勿接陌生来电

大都会/民众勿接陌生来电,不法集团利用AI“复制”声音仿人诈骗/1图
欧伟杰认为,在不能阻止科技发展,民众不能忽视人工智能变成不法集团诈骗工具的可能性。

(加影26日讯)人工智能(AI)发展迅速,AI语音功能模仿他人已成为不法集团诈骗工具,受促勿接,避免个人声频被“”。

马来西亚防范网络罪案公会副主席欧伟杰提醒,AI语音功能仿人声音在海外地方逐渐普遍,但是本地民众对有关方面认知不深,面对诈骗手法层出不穷,不法集团会将有关功能成为另一种诈骗工具。

ADVERTISEMENT

他说,当一个人声频被盗取复制后,不法集团利用复制声音人士的语音,向当事人身边亲友下手,一般人是不易察觉语音是此人非彼人,若没有提高警觉,会有被骗财的可能。

他解释,要复制他人声频,不需要30秒,不法集团只要随意致电某人,通过某人的说话录取语音,然后通过AI功能编制模仿对方声音。

他说,最近在中国发生“AI孙燕姿”就是最好例子,AI语音功能仿声线和当事人相似度极高,普通人要在短时间内分辨真伪是不容易。

“既然不可能阻止科技发展,但民众亦不能忽视人工智能变成不法集团诈骗工具的可能性。”

“很多诈骗手法在中国已屡见不鲜,而本地不法集团有样学样,抄足中国不法集团的诈骗手法去欺骗本地人,所以若接获陌生来电,最好不要接听,我们不会知道来电者是否是不法集团。”

他重申,AI语音功能模仿他人声音在本地未算普及化,尤其是对科技不熟悉人士,必须对陌生来电提高警觉性。

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT