JKF 捷克論壇

搜尋
邱鴻洲
威爾斯親王 | 2024-4-17 15:30:07

(中央社記者王心妤台北17日電)
更新時間: 2024年4月17日 週三 上午10:07
AI科技日新月異,近期社群軟體LINE上流傳一段訊息,提醒民眾接到電話不要先講話,若對方不出聲就直接掛掉,否則AI技術恐會搜集聲音。台灣事實查核中心詢問資安專家後表示,靠電話聲音模擬出的人聲容易失真,民眾不須過度防備。

近期社群軟體Line上流傳一段訊息,提醒民眾接到電話不要先講話,若對方不出聲就直接掛掉,否則AI技術恐會搜集聲音。台灣事實查核中心表示,靠電話聲音模擬出的人聲容易失真,民眾不須過度防備。(示意圖/Getty Images)
台灣事實查核中心指出,國立成功大學統計學系副教授許志仲說,電話聲音容易失真,若只有一、兩句問候語,難以做出品質佳的AI聲音,現在或許有詐騙集團利用AI模擬家人聲音借錢等案例,但比起其他手法,仍是少數。

資安專家、Whoscall資深產品策略協理劉彥伯也說,傳言立意良善但過於誇張,AI現在的確能模擬人聲,但必須在5至10秒內連續說話、並有抑揚頓挫,AI才能有效學習,但民眾若覺得電話可疑或疑似詐騙電話,應直接掛掉,不要繼續對話。

資安與AI專家都認為,民眾不須過度防備,也不需要接起電話先不出聲,或是民眾也可以在親友間建立「通話密語」,若不確定對方身分,就能多重認證。



本文章中包含更多資源

您需要 登入 才可以下載或查看,沒有帳號?加入會員

x
分享分享 收藏收藏
FB分享
bustblade88
回覆 使用道具
Darionhuang
子爵 | 2024-4-17 15:46:02

歡迎進入AI世界

本文章中包含更多資源

您需要 登入 才可以下載或查看,沒有帳號?加入會員

x
引言 使用道具
您需要登入後才可以回覆 登入 | 加入會員

建議立即更新瀏覽器 Chrome 95, Safari 15, Firefox 93, Edge 94。為維護帳號安全,電腦作業系統建議規格使用Windows7(含)以上。
回頂部 下一篇文章 放大 正常倒序 快速回覆 回到列表