刷脸时代警惕“数字面具”!雷军呼吁尽快立法整治乱象

2025-03-05ASPCMS社区 - fjmyhfvclm

十四届全国人大三次会议开幕前

全国人大代表雷军

提交了五份建议

其中包括一份:

️关于加强“AI换脸拟声”

️违法侵权重灾区治理的建议

全国人大代表雷军在建议中指出:人工智能(AI)深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域广泛兴起,成为社会喜闻乐见、传播力强、易成热点的技术应用。

但同时也看到,️“AI换脸拟声”不当滥用造成了违法侵权行为的重灾区,易引发️侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,甚至造成难以挽回的大规模形象和声誉损害,带来社会治理等风险。

AI深度合成技术所需素材获取便利、技术使用门槛低、侵权主体及其手段隐蔽性强等特点,给治理带来较大挑战。

️雷军提出的建议方向包括:

1.加快单行法立法进程,在安全与发展并重的基础上提升立法位阶;2.强化行业自律共治,压实平台企业等各方的责任和义务;3.加大普法宣传的广度力度,增强民众的警惕性和鉴别力。

️青少年对前沿技术应用好奇心强,而老年人数字素养欠缺,往往会成为“Al换脸拟声”网络陷阱锁定的主要目标,对其身心健康、财产安全以及社会稳定造成负面影响。

️骗子冒充警察老人险遭“AI换脸”诈骗

2024年11月,湖南长沙清水塘派出所民警接到群众线索,称一老人疑似遭遇诈骗。民警找到老人时,发现她️正在与一位身着“警服”的男子视频通话

老人与骗子的视频通话截图民警见状迅速夺过手机,当场表明身份、怒斥骗子,骗子顿时哑口无言,见行骗失败随即挂断通话。据老人讲述,视频中对方身着警服、神情严肃,️称老人涉嫌违法犯罪,需配合警方进行资金核查。见到视频中的“警察”,老人瞬间慌了神。为证清白,老人一边配合“视频笔录”,一边在纸上记下了通话内容,按照对方的指示去购买新手机、办理新卡,️打算下载软件缴纳“犯罪款项”

老人手写记下与骗子的通话内容了解事情经过后,民警判断这是一起冒充“公检法”的诈骗,通话时️骗子的声音与人物口型不吻合,应是使用了AI换脸技术

AI换脸会提取人脸图像的面部特征那么一张静态的人像照片被诈骗分子窃取后也能进行换脸吗?

️眼见不一定为实单张照片可实时视频换脸

工业和信息化部反诈专班实验室的技术人员称,经过一段时间的模型训练,一张照片可以在演示者的控制下,️像真人一样做出转头、张嘴、眨眼、微笑等表情和动作

专家表示,除了让照片上的人像活化,AI换脸技术️还能实现在即时视频通信状态下的实时换脸

不过想要达到实时换脸的效果,一张照片是远远不够的,️需要采集不同角度的照片近千张。声音的交流同样不是难事,需预先采集一些目标人群当中的声音,进行模型训练后就能进行声音还原。

因此,建议公众️不要在社交平台过度公开或分享自己脸部的图像、动图及视频。

️AI换脸拟声诈骗泛滥到底怎么防?

️让对方用手指或其他遮挡物在脸前晃动

可以要求对方用手指摁鼻子,或用其他遮挡物在脸前晃动,如画面出现类似️果冻效应或者扭曲,那对方很可能正在使用AI换脸技术。

️询问对方一些私密的问题

可通过询问对方自己的️生日、电话、喜好等,来确认对方的身份。

️要求对方线下见面

凡是对方提到转账、借钱等️涉及经济往来的,为安全起见,可要求对方线下见面。

国家应急广播提醒,️AI诈骗是隐私信息泄露与诈骗陷阱的结合。要加强对个人隐私的保护:不轻易提供人脸、指纹等个人生物信息;不过度公开或分享动图、视频;涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过多种途径核实确认。不过公众也不要对AI诈骗过度恐慌,国内的科研团队、科技企业️已经在研发专门针对虚假信息的检测技术,不断提升对于语音、面部合成信息的检测成功率。可以预测的是,这些人工智能反诈技术都将成为对抗“魔法”的“魔法”。

️▌来源:国家应急广播综合央视新闻、、光明网

全部评论