随着人工智能技术
和语音大模型应用的发展
如今,AI声音随处可见
但相关乱象也随之频发
从“张文宏医生”推销蛋白棒视频
被本人“打假”
到多位配音演员发声维权
控诉声音被AI“盗用”
再到不法分子利用AI合成语音
实施新型电信诈骗……
而这一系列乱象背后
声纹被盗用
正是其核心风险所在
仅需5秒
你的“声音”就能被偷走
声纹如同指纹一样具有唯一性,是个人身份的重要生物标识。而随着人工智能语音合成技术的成熟,声纹的采集与复刻门槛已大幅降低。
据国内声纹识别领域领军企业相关负责人表示,当前技术水平下,仅需5到10秒的语音样本,即可完整提取并复刻一个人的声纹。

5-10秒语音就能复刻你的声纹
这些样本往往来自日常通话中的随意应答、社交平台上的语音留言、彩信、短视频,甚至是在与陌生号码“闲聊”时不经意间留下的声音片段。
此前,央视也曾曝光过AI克隆声音乱象,在多个网络平台上,以“声音克隆”为关键词进行搜索,能轻易找到大量相关教程视频和软件下载信息。部分博主不仅详细演示操作过程,还直接提供软件资源。
网络安全专家潘季明介绍,基于开源的语音大模型,只需一段清晰的语音样本,任何人的声音都可能在极短时间内被克隆,并能被操纵说出攻击者设定的任意内容。
新型诈骗套路用你的声音
骗你的亲友
当前,一种正在悄然蔓延的新型诈骗模式:犯罪分子通过非法渠道获取目标人物的少量语音样本,利用AI语音合成技术复刻其声纹,再冒充本人向亲友实施诈骗。
“妈,我手机丢了,这是我新号,急需用钱!”“爷爷我打架进派出所了!”“姥姥我女朋友怀孕急需手术费!”骗子通过非法渠道获取家庭信息,用哭喊、喘息声甚至AI合成语音模拟求救声音,虚构车祸、斗殴、疾病等突发事件制造恐慌。
声音几乎一模一样,再加上情感上的紧迫感,亲属很容易放松警惕。这类骗局之所以成功率极高,正是因为它绕过了传统诈骗中“口音不正”“话术生硬”的弱点,直接利用了人与人之间最基础的信任——声音的辨识。
日常生活中如何警惕并防范
声纹被盗用及AI换声诈骗
不随意与陌生号码“闲聊”
接到自称“客服”“熟人”“公检法”等陌生来电时,避免长时间对话,更不要主动提供语音回应。一旦发现可疑,立即挂断。
不随意发送语音与彩信
在社交平台、短视频、短信等场景中,避免向陌生账号或公开渠道发送个人语音信息。语音彩信、语音留言同样可能被截取利用。
选择可信平台
不要随意下载未经官方认证的App,即便其提供免费通话或其他看似诱人的功能,也可能暗藏陷阱。
涉及转账汇款,务必“双重核实”
凡是接到亲友通过陌生号码、社交平台新号提出借钱、转账、代付款等请求,必须通过原有联系方式进行视频通话或当面核实。仅凭“声音像”就转账,存在极高风险。
声纹和身份证、银行卡密码一样
是我们个人核心隐私的一部分
无论是主动规避
抑或是在信息泄露后
及时止损、留存证据维权
每一步都需要我们
主动警惕、积极行动
保护好个人敏感信息
就是守住个人权益的第一道关卡
唯有重视细节、做好防范
才能让信息泄露的“暗箭”
无处可藏
东方网综合央视新闻、湖北日报、法治日报、深圳新闻网
点击右上角
微信好友
朋友圈

点击浏览器下方“
”分享微信好友Safari浏览器请点击“
”按钮

点击右上角
QQ

点击浏览器下方“
”分享QQ好友Safari浏览器请点击“
”按钮
