最近,有两起与AI“假人”相关的热点,引起不少人的思考和忧虑。
一是演员王劲松的形象被AI深度伪造,制成财富诈骗视频,逼真到其本人惊呼“连我家人都分不清”。

二是复旦大学肖仰华教授团队开发的AI智能体,自主在朋友圈发状态、评论区互动,自然到好友留言要求“证明你真的是肖老师”。

一面是灰产作恶,用AI“假扮他人”,一面是学术展示,用AI“代替自己”。二者看似相悖,但都造成了身边的熟人突然间无法确认“你是你”。当你的面容、声音乃至行为模式都被AI精准复刻或代理,社会赖以运转的信任基石,也面临前所未有的消解风险。
进一步看,这两种“假人”的影响层次与应对逻辑,又有所区别。
AI伪造视频,是人为设计的骗局,危害在于“污染”信息的事实层。其背后,存在治理链条的全方位滞后:源头上,虽有生成式内容需有AI标识的法律规定,但监管与灰色产业的“猫鼠游戏”从未停止,灰产的规避手段层出不穷;传播中,面对海量伪造内容生产,平台分发审核机制有诸多不足,“事后删除”也赶不上“事前造假” 的速度;惩戒上,如王劲松所言,法律对违法者的处罚“代价可以忽略不计”,监管的威慑力亟待强化。
而AI智能体,则指向了更深层、更前沿的挑战——开始侵入人们观点的表达与情感的互动层面。智能体自主规划并完成“发朋友圈互动”这一行为链,意味着AI能力已从静态的身份冒用,跃升为动态的行为代理。问题是:AI智能体是否能被赋予某种法律主体资格?其行动的伦理边界在哪里?若造成损害,责任应由哪方承担?这已是对既有社会运行规则的全新挑战。
AI模仿乃至替代部分人类能力的时代已经来了。我们需要的,绝非让技术慢下来、停下来。而要建立超越“堵漏”的被动应对思维,治本之策是为AI的不同应用领域制定清晰的“交通规则”:对作恶行骗的AI“假人”必须重拳出击,提高违法成本,而对前沿的AI创新要明确权责,主动在开发初期嵌入安全和伦理评估。
这种AI时代下“证明我是我”的日常荒诞不能没完没了。
作者:央视网评论员
点击右上角
微信好友
朋友圈

点击浏览器下方“
”分享微信好友Safari浏览器请点击“
”按钮

点击右上角
QQ

点击浏览器下方“
”分享QQ好友Safari浏览器请点击“
”按钮
