
(资料图片)
AI换脸技术为诈骗分子提供了更多更便捷的诈骗手段,已经出现了通过AI换脸技术制作的虚假视频进行诈骗的案例。
随着现代科技飞速发展,一些不法分子利用音频视频读取合成技术,把到处搜集到的每个人的人脸、指纹、声音等信息合成到一起,变成他们谋财的手段。 骗子的作案方式包括:先盗取QQ或微信号,从账号内找到号主的照片、视频等,大面积找好友聊天,看到有回复的,再使用“AI换脸”技术与之进行视频聊天,后找各种理由借钱,受害人往往看到视频聊天界面是好友本人,便相信转账。 此类诈骗一般为团伙作案,内部分工明确。盗号、“AI换脸”视频聊天、转账收款环节专人负责,环环相扣。因“AI换脸”视频聊天过于逼真、难以分辨,受害人往往相信是好友本人,进而被骗取钱财。 面对利用AI人工智能等新型手段的诈骗,如何进行防范呢? 1、多重验证,确认身份。AI换脸难以肉眼区分,因此在确认涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。 2、不听不信不转账。身正不怕影子斜。凡是突然收到不明来历的视频、照片,一律删除,不要理会,更不要转账汇款,同时将到账时间设置为“24小时到账”,以预留处理时间。 3、加强隐私保护。提醒大家在网上坚持“四不晒”,即不晒个人或家人照片,不晒位置信息,不晒行程票据,不晒车牌、门牌等。 4、应当及时报警。如果遇到此类诈骗,请立即向公安机关举报。如果万一不幸被骗,请注意保存好相关证据,第一时间拨打110报警。关键词: