星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

地方

|
发布: 4:52pm 26/09/2023

陌生来电

民众

声音

复制

陌生来电

民众

声音

复制

避免聲音遭“複製” 民眾勿接陌生來電

大都會/民眾勿接陌生來電,不法集團利用AI“複製”聲音仿人詐騙/1圖
歐偉傑認為,在不能阻止科技發展,民眾不能忽視人工智能變成不法集團詐騙工具的可能性。

(加影26日訊)人工智能(AI)發展迅速,AI語音功能模仿他人聲音已成為不法集團詐騙工具,民眾受促勿接陌生來電,避免個人聲頻被“複製”。

馬來西亞防範網絡罪案公會副主席歐偉傑提醒,AI語音功能仿人聲音在海外地方逐漸普遍,但是本地民眾對有關方面認知不深,面對詐騙手法層出不窮,不法集團會將有關功能成為另一種詐騙工具。

ADVERTISEMENT

他說,當一個人聲頻被盜取複製後,不法集團利用複製聲音人士的語音,向當事人身邊親友下手,一般人是不易察覺語音是此人非彼人,若沒有提高警覺,會有被騙財的可能。

他解釋,要複製他人聲頻,不需要30秒,不法集團只要隨意致電某人,通過某人的說話錄取語音,然後通過AI功能編制模仿對方聲音。

他說,最近在中國發生“AI孫燕姿”就是最好例子,AI語音功能仿聲線和當事人相似度極高,普通人要在短時間內分辨真偽是不容易。

“既然不可能阻止科技發展,但民眾亦不能忽視人工智能變成不法集團詐騙工具的可能性。”

“很多詐騙手法在中國已屢見不鮮,而本地不法集團有樣學樣,抄足中國不法集團的詐騙手法去欺騙本地人,所以若接獲陌生來電,最好不要接聽,我們不會知道來電者是否是不法集團。”

他重申,AI語音功能模仿他人聲音在本地未算普及化,尤其是對科技不熟悉人士,必須對陌生來電提高警覺性。

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT