(加影26日讯)人工智能(AI)发展迅速,AI语音功能模仿他人声音已成为不法集团诈骗工具,民众受促勿接陌生来电,避免个人声频被“复制”。
马来西亚防范网络罪案公会副主席欧伟杰提醒,AI语音功能仿人声音在海外地方逐渐普遍,但是本地民众对有关方面认知不深,面对诈骗手法层出不穷,不法集团会将有关功能成为另一种诈骗工具。
ADVERTISEMENT
他说,当一个人声频被盗取复制后,不法集团利用复制声音人士的语音,向当事人身边亲友下手,一般人是不易察觉语音是此人非彼人,若没有提高警觉,会有被骗财的可能。
他解释,要复制他人声频,不需要30秒,不法集团只要随意致电某人,通过某人的说话录取语音,然后通过AI功能编制模仿对方声音。
他说,最近在中国发生“AI孙燕姿”就是最好例子,AI语音功能仿声线和当事人相似度极高,普通人要在短时间内分辨真伪是不容易。
“既然不可能阻止科技发展,但民众亦不能忽视人工智能变成不法集团诈骗工具的可能性。”
“很多诈骗手法在中国已屡见不鲜,而本地不法集团有样学样,抄足中国不法集团的诈骗手法去欺骗本地人,所以若接获陌生来电,最好不要接听,我们不会知道来电者是否是不法集团。”
他重申,AI语音功能模仿他人声音在本地未算普及化,尤其是对科技不熟悉人士,必须对陌生来电提高警觉性。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT