美國佛羅里達州居民埃裏卡·安德森在家中工作時,手機突然收到一條視頻通話請求,顯示的來電號碼正是她17歲女兒的手機。接通後,屏幕中的“女兒”穿着平日校服,聲音也與女兒一模一樣,對她說:“媽媽,開門,我不舒服。”
![]()
安德森感到疑惑,隨即調出門外監控攝像頭查看,卻發現門前空無一人。她立刻致電學校,得知女兒當時正在考場內答題,手機被鎖在儲物櫃裏。調查顯示,這通電話是通過AI僞造的——一名青少年使用了能夠實時生成假畫面和假音頻的AI軟件進行惡作劇,該軟件可以將人臉和聲音替換成任意指定人物。
![]()
安德森表示,她之前聽說過AI電話騙局,但從沒想到連視頻通話也能被僞造,這讓她意識到需要擔心的事情遠比想象中更多。涉事青少年的家長已向安德森道歉,她也未提起訴訟。不過,安德森採取了一系列防範措施:與女兒約定只有家人知道的密碼詞,更換門禁報警系統,調整現有攝像頭角度,並新增了兩臺安全攝像頭。
![]()
網絡安全公司邁克菲的研究表明,AI語音克隆系統僅需約3秒的音頻樣本,就能生成相似度高達85%的聲音複製品,社交媒體上的短視頻足以成爲AI克隆的素材。當地警方建議,手機用戶接到可疑視頻通話時應立即掛斷,用已知號碼重新撥打以覈實對方身份;觀看視頻時,可留意手部變形、面部邊緣不自然等破綻。
![]()
安全專家普遍建議,家庭成員之間應提前約定一個密碼詞,在緊急通話中用於覈驗對方是否真實。這一方法被視爲目前對抗AI僞造視頻通話的有效防線。
更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com
