(加影26日訊)人工智能(AI)發展迅速,AI語音功能模仿他人聲音已成為不法集團詐騙工具,民眾受促勿接陌生來電,避免個人聲頻被“複製”。
馬來西亞防範網絡罪案公會副主席歐偉傑提醒,AI語音功能仿人聲音在海外地方逐漸普遍,但是本地民眾對有關方面認知不深,面對詐騙手法層出不窮,不法集團會將有關功能成為另一種詐騙工具。
ADVERTISEMENT
他說,當一個人聲頻被盜取複製後,不法集團利用複製聲音人士的語音,向當事人身邊親友下手,一般人是不易察覺語音是此人非彼人,若沒有提高警覺,會有被騙財的可能。
他解釋,要複製他人聲頻,不需要30秒,不法集團只要隨意致電某人,通過某人的說話錄取語音,然後通過AI功能編制模仿對方聲音。
他說,最近在中國發生“AI孫燕姿”就是最好例子,AI語音功能仿聲線和當事人相似度極高,普通人要在短時間內分辨真偽是不容易。
“既然不可能阻止科技發展,但民眾亦不能忽視人工智能變成不法集團詐騙工具的可能性。”
“很多詐騙手法在中國已屢見不鮮,而本地不法集團有樣學樣,抄足中國不法集團的詐騙手法去欺騙本地人,所以若接獲陌生來電,最好不要接聽,我們不會知道來電者是否是不法集團。”
他重申,AI語音功能模仿他人聲音在本地未算普及化,尤其是對科技不熟悉人士,必須對陌生來電提高警覺性。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT