为保护用户权益,防止账号被盗,很多社交软件都设置了人脸识别的登录验证环节。然而,这一验证环节可能并不需要本人来操作,在湖北黄石就刚刚破获一起用AI换脸技术解锁社交账号并倒卖获利的诈骗案。
前段时间,湖北黄石的王先生偶然进入某炒股直播间,王先生添加了直播间推送的社交账号后,跟对方一起进行股票投资。随着投资金额不断增加,当王先生想要提现时,发现对方的社交账号因涉嫌诈骗已被冻结,资金无法取出。
受害人 王先生 :一直取不出来,这个时候就发现了不对,因为他老是找各种理由让你取不了钱。后来我发现他的社交账号被冻结了。
警方在侦办案件过程中,意外发现该涉案社交账号突然解冻并重新登录,推测可能有团伙帮助诈骗嫌疑人解封了账号。调查发现账号IP所在地在河南,黄石警方在当地配合下,很快抓获三名嫌疑人,现场查获13台电脑、9部平板、119部手机和80张电话卡。经讯问,高某与许某2023年9月底开始在网上贩卖和帮他人解锁社交账号,通过AI换脸融合的动态视频帮人解锁一些被平台冻结的交友账号。
湖北省黄石市公安局下陆分局指挥中心民警 王楚奇 :他通过自己在网上购买的一款视频合成软件,按照社交账号要求解封作认证的这些规定动作,利用他自己的人脸和他合成的那个视频,生成的AI视频上传到社交账号的后台,来进行认证。
据了解,这个团伙每解锁一个账号收费15元至30元不等,其中许多账号是因涉嫌诈骗被冻结的账号。该团伙共解冻了2107个账号,从中获利40万元。民警告诉记者,AI合成视频已经成为新型网络诈骗的重要手段。
湖北省黄石市公安局下陆分局新下陆派出所治安巡防副队长 张军 :不要将自己的身份证号、身份证头像、手机号等等自己的隐私信息在网上进行暴露,加强自己的隐私信息的保护。
眼见不一定为实
单张照片可实时视频换脸
我们常说“眼见为实”,但在AI时代,肉眼所看见的也不一定是真相。一些不法分子利用“AI换脸”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频”,都可能被不法分子利用作为诈骗的手段和工具。
在工业和信息化部反诈专班的实验室里,技术人员向记者展示了两种常用的AI换脸技术。通过一张事先从网络上公开获取的记者本人照片,经过一段时间的模型训练。这张照片就能在展示者的控制下像真人一样做出转头、张嘴、眨眼、微笑等表情和动作。
工业和信息化部反诈工作专班专家 李坤 :不法分子首先会通过各种公开的渠道获取受害人的个人肖像或视频,然后利用AI技术,对这些照片中的面容特征进行学习,从而模仿眨眼、摇头等动作,实现以假乱真的效果。
李坤表示,除了让照片上的人像活化,AI换脸技术还能实现在即时视频通信状态下的实时换脸。技术人员也通过AI换脸技术让记者体验了一下与另一个“自己”视频对话的效果。
工业和信息化部反诈工作专班 技术人员 :主要找了一些公开的社交媒体平台,去拉取一些公共的视频。拿了这些数据,整体的训练时间差不多花了1天,24小时达到目前这个效果。 如果时间长点的话,我们画面的清晰会有所提升。
技术人员告诉记者,所有用于AI换脸训练的记者照片和视频都是从网上公开收集的,总共只用了四五张照片和不到五分钟的素材。如果有充足的训练时间,仿真效果会更好。除了面容以外,声音也可以通过同样的技术来仿冒。专家指出,虽然目前AI换脸和仿声有一定的技术门槛和较高的实现成本,但如果被不法分子掌握,就可能在即时通信或者社交软件上伪装成他人,开展相应的诈骗活动。
AI换脸诈骗检测与预警技术正在测试中
利用AI技术制作换脸视频或合成声音来实施诈骗的确让人防不胜防,那么如何防范这种风险呢?有关部门正在开发相关的反制技术和手段。
工业和信息化部反诈专班专家 李坤 :我们正在会同行业内的手机终端企业,将推出AI换脸诈骗风险提醒功能。这项功能仅在手机端来本地运行,能够有效保护用户数据不泄露,经过用户授权后,可为用户提供AI换脸诈骗风险预警提醒。
记者在反诈专班的实验室现场体验了正在测试中的AI换脸诈骗检测与预警技术。当用AI换了脸的技术人员与记者发起视频通话时,测试手机终端提示“对方疑似假冒身份”。点击检测按钮,经过图像扫描,系统提示“AI换脸合成概率93%”。
据了解,AI换脸主要是使用深度合成技术。《互联网信息服务深度合成管理规定》提出了算法备案、安全评估的手段,要求深度合成服务提供者对深度合成的内容添加显式或隐式水印。
中国信通院人工智能所安全与元宇宙部专家 陈文弢 :要对生成合成的内容去添加一些水印,这个水印的本质其实就是要一方面去提示公众这个内容是由AI生成或者合成的,另一方面也是要追溯它的来源。
专家提醒,AI诈骗是隐私信息泄露与诈骗陷阱的结合,要加强对个人隐私的保护,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等,尤其涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过多种途径核实确认,不要未经核实随意转账汇款。
(总台记者 孙蓟潍 唐志坚 徐之昊 孙丽鹏 黄石台)
警惕“AI换脸”新骗局
警惕“AI换脸”新骗局
中国互联网协会公众号发文提示“AI换脸”新骗局。 今年以来,ChatGPT和GPT-4等技术的应用,成为了信息科技领域的热点,引起公众对AI技术的广泛关注和热情。 但伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。
包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信网络诈骗的案件。 不法分子利用AI技术,通过声音合成,伪造成特定人物的声音,通过AI换脸,伪装成特定人物,实时与他人进行视频通话。 更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。
面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。
一、做好个人信息安全第一责任人
1、加强个人信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。
提示:发现APP过度、强制收集个人信息,请至投诉。
2、陌生链接不要点、陌生软件不要下载、陌生好友不要随便加、不明二维码不要随便扫。 管理好自己的朋友圈,不要向陌生人开启手机屏幕共享。
3、做好个人防护,安装安全软件,防止手机和电脑中病毒;对个人账户的安全状况保持警惕,尤其是陌生设备的登陆情况,防止微信、QQ等被盗号给亲朋好友带来麻烦。
4、对于不常用的APP,建议卸载前注销个人帐号。
提示:APP不提供个人帐号注销方式,或为注销帐号设置各类障碍的,请至投诉。
二、远程转账务必多重验证,把好“钱袋子”
如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以“手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游需要帮忙买机票”“给领导办私事需紧急转账”“遭遇车祸需要马上手术”“情况特殊,需要过桥资金拆借”等各种方式和理由诱导你转账汇款,务必第一时间提高警惕。在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款!无论对方是谁!
提示:遭遇诈骗信息,请至反诈专栏举报,如发生资金损失请及时报警。
一直以来,中国互联网协会不断推进行业自律,积极开展防范治理电信网络诈骗工作。 中国互联网协会将组织举办“2023年电信网络诈骗治理工作培训”,解读电信网络诈骗治理法律法规,分析研判电信网络诈骗治理的重点工作和发展形势,助力企业落实防范治理电信网络诈骗责任,提高管理能力,促进行业健康发展。
如何防范AI换脸新型电信诈骗
随着科技的不断发展,各种新型骗局层出不穷,全国多地相继出现了一种新的骗局,名为AI换脸骗术,据长春市公安局反诈中心工作人员介绍,这种骗术成功率接近100%。 骗子只需要一张照片,就能给视频中的人“换脸”,最新的AI技术还可以实时捕捉,让你在和别人视频通话的时候,把对方替换成你想要换的任何一个人物,效果到了几乎以假乱真的地步。 这种骗局的成功率很高,主要是因为人们对AI技术的了解不够,无法辨别视频是否真实,以及对身边人的信任度过高,不容易怀疑。 AI诈骗通过利用换脸和拟声技术模仿他人的形象和声音,以此达到欺骗的目的。 为了防范这类诈骗,我们需要提高警惕并采取以下措施:1. 增强安全意识:对于陌生人发来的信息、电话或视频通话,要保持警惕,切勿轻信。 2. 核实身份:在进行重要操作或涉及财产安全的事务时,务必通过多渠道核实对方身份,确保信息的真实性。 3. 设置验证问题:在涉及敏感操作的场景下,可以设置验证问题,确保与你沟通的人确实是你认识的人。 4. 保护个人信息:避免在社交媒体上过度透露个人信息,以降低被诈骗的风险。 5. 了解技术风险:了解换脸和拟声技术的原理及其可能带来的风险,提高识别虚假信息的能力。 6. 及时报警:当发现可能的诈骗行为时,立即向相关部门报警,并向亲友告知,提醒他们防范类似诈骗。 7. 教育亲友:与亲友分享防范AI诈骗的方法,帮助他们提高防范意识。 8. 使用安全软件:安装并定期更新安全软件,以防范可能的网络威胁。 防范AI诈骗需要我们在生活中保持警惕,不断提高自己的安全意识和防范能力。 只要我们采取积极的预防措施,就能有效降低被诈骗的风险。 9.我们应该谨慎对待陌生人的请求,加强对于AI技术的了解,以此应对各种新型骗局的威胁。 同时,我们也应该认识到科技的发展是一个不断探索和平衡的过程,我们需要在保障安全的前提下,充分利用AI技术带来的好处,推动科技的发展和创新。 对于AI技术的应用,我们需要保持警惕,不断探索和完善规范和安全标准,让科技成为我们的助力和工具,而不是成为我们的威胁和隐患。
?科技:警惕ai“换脸”诈骗成功率接近100%如何警惕新骗局来袭?
AI换脸诈骗是一种利用AI技术伪造视频来欺骗受害人的新型骗局。 每个人都应该保持警惕,提高安全意识,加强防范措施,以避免成为这类骗子的受害者。 AI换脸这是原本令人想象不到的骗局,但它快速成为了现实。 这种骗局的诈骗成功率接近100%,可谓是十分危险的新型骗局。 近期,全国多地相继出现了一种新的骗局:利用AI换脸技术和“照片活化”技术生成动态视频来诈骗。 这种骗局成功率高达100%,令人惊讶。 现在网络通讯十分便捷,为大家提供了方便的同时,也为一些骗子提供了可乘之机。 许多人还不懂得如何运用AI 绘画技术,但这些骗子却已经玩得溜起来了。 这种新科技骗局严重威胁着财产安全。 基于AI绘画技术的诈骗,也称“人脸合成”,其原理是将受害人的照片通过AI算法进行加工处理,生成一个看起来和原照片极为相似的视频。 骗子通常会选择一些社交网络平台,将这些假视频用于诱骗受害人。 骗子利用此技术生成一个看起来与受害人极为相似的视频,发布到受害人的社交媒体平台上,导致受害人误认为这是真实的,点击进入链接。 一旦点击进入,骗子就能够通过网络的漏洞,获取受害人的隐私信息,甚至直接盗取银行账号等敏感信息。 因此,面对这类骗局,应当注意要时刻保持警惕。 无论是有关金钱、证件等敏感信息的邮件、短信,一定要格外小心,不要随意点击。 要保持怀疑和警惕心态,遇到可疑信息时,应先仔细核查身份信息再作回应。 要完善个人信息保护措施,这包括密码设置、网络安全软件的使用、及时更新系统补丁等。 给自己的账户设置一个强度较高的复杂密码,隔一段时间更换,这可以有效防止账户被攻击。 要提高网络诈骗的认知水平,了解现在已经出现的主要诈骗方式,了解如何发现、避免和应对这些诈骗行为。 对于不明来历的信息,千万不要轻信。