岂能滥用 司法机关明确法治底线 AI换脸 说法

岂能滥用

傅某在某个社交平台上看到,有人利用“AI换脸”(AI:人工智能)技术,帮助他人通过相关平台的人脸验证,登录非本人账号,以此赚钱。

傅某顿时觉得自己找到了一条“致富路”。于是,便“立即行动”,从网上购买相关软件和教程。

在下了一番“苦功”之后,傅某“自学成才”。他开始发布“广告”招揽“生意”,帮人通过人脸验证,大量登录非本人账号,以此收费牟利。

平台

傅某的行为,司法机关如何处理?等待傅某的,将是法律怎样的制裁?

本期“说法”,让我们一起关注这起利用“AI换脸”实施犯罪的案例。(金歆)

AI换脸
傅某

如何防范智能AI诈骗?

针对花样翻新的智能AI诈骗,公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。 如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。 如不慎被骗或遇可疑情形,请注意保护证据立即拨打报警。 1AI诈骗层出不穷随着ChatGPT和各类AI技术的广泛应用,AI诈骗手段日渐丰富,各类案件层出不穷。 4月7日,浙江杭州萧山区检察院曝光的一个“女神群”引发关注。 80后安徽小伙虞某在网上推广AI换脸技术及相关的软件从中获利。 为吸引他人关注,虞某将原本“换脸软件资源群”的群名更改为“女神试看群”,通过互联网下载了部分淫秽视频,截取片段后发布在该公开群中,吸引、招揽观看者加入,观看者若要看完整版则需缴纳198元-498元不等的“会费”进入“内部群”。 此外,虞某宣称,顾客还能使用不同的女明星的形象,进行“私人定制”。 截至案发,公安机关共在虞某所组建的公开群内查证淫秽视频1200余部、图片1600余张,经鉴定,上述均系淫秽物品。 2023年3月28日,萧山区检察院依法以制作、传播淫秽物品牟利罪对虞某提起公诉。 案件目前正在法院审理中。 对此,萧山检察官提醒,“AI换脸技术”即便只是用来搞笑或者制作恶搞照片,也有可能涉及侵犯肖像权、名誉权,造成严重后果的,还可能构成侮辱罪或者诽谤罪。 希望大家依法使用该项技术,一旦遇到类似本案中利用“AI换脸技术”实施犯罪行为的,应第一时间固定证据,并及时向司法机关报案。 除利用AI换脸诈骗外,还有人利用ChatGPT炮制不实信息。 不久前,甘肃平凉市公安局网安大队就侦破一起类似案件。 4月25日,平凉市公安局崆峒分局网安大队在日常网络巡查中发现,某网络账号出现一篇标题为“今晨甘肃一火车撞上修路工人 致9人死亡”的文章,初步判断为信息虚假不实。 民警发现,共计21个网络账号在同一时间段发布该文章,文章内容地点涉及全国多地。 经查,涉案网络账号均为深圳某自媒体公司所有,其法人代表洪某弟有重大作案嫌疑。 原来,洪某弟购买大量“百家号” ,并通过ChatGPT人工智能软件将搜集到的热点新闻修改编辑,随后上传赚取大量流量获利。 目前,洪某弟已被采取刑事强制措施,案件正进一步侦办中。 2AI诈骗常用手法第一种:声音合成骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。 案 例某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。 由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。 第二种:AI换脸人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。 在视频通话中利用AI换脸,骗取信任。 案 例近日,小李的大学同学通过QQ跟她借钱。 对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。 然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。 警方判断,那段视频很有可能是被人换了脸。 第三种:转发微信语音微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。 尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。 第四种:通过AI技术筛选受骗人群骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。 他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。 举个栗子:当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。 运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?3如何防范?面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:01多重验证,确认身份在涉及到转账交易等行为时,小伙伴们要格外留意,可以通过电话、视频等方式确认对方是否是本人。 在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。 尽量通过电话询问具体信息,确认对方是否为本人。 即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。 建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。 一方面有利于核实对方身份,另一方面也有助于跟进转账信息。 一个俄罗斯的程序员觉得在家开会无聊,就开发了这样一款软件,可以把自己的连换成任何人进行聊天,马斯克、马云、马化腾都可以,让老板和同事误以为大佬乱入会场。 02保护信息,避免诱惑加强个人信息保护意识,小伙伴们要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。 对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。 03相互提示,共同预防这些高科技手段的诈骗方式,迷惑了很多小伙伴。 警察蜀黎也提示各位要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。 做好家中老人的宣传防范工作。 提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。 04拒绝诱惑,提高警惕小伙伴们要学会拒绝诱惑,提高警惕。 避免占便宜心理,警惕陌生人无端“献殷勤”。 4监管层发布规定针对技术手段日益更新的AI诈骗事件,2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(下称《规定》),自2023年1月10日起施行。 国家互联网信息办公室有关负责人说,出台《规定》,旨在加强互联网信息服务深度合成管理,弘扬社会主义核心价值观,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。 近年来,深度合成技术快速发展,在服务用户需求、改进用户体验的同时,也被一些不法人员用于制作、复制、发布、传播违法和不良信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等,影响传播秩序和社会秩序,损害人民群众合法权益,危害国家安全和社会稳定。 出台《规定》,是防范化解安全风险的需要,也是促进深度合成服务健康发展、提升监管能力水平的需要。 《规定》明确了深度合成数据和技术管理规范。 要求深度合成服务提供者和技术支持者加强训练数据管理和技术管理,保障数据安全,不得非法处理个人信息,定期审核、评估、验证算法机制机理。 深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。 提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。 要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。 【《正经社》综合整理,来源:平安包头、东方网、新甘肃客户端、武汉市反电信网络诈骗中心、人民日报等】责编|唐卫平·编辑|杜海·百进·编务|安安·校对|然然声明:文中观点仅供参考,勿作投资建议。 投资有风险,入市需谨慎转载正经社任一原创文章,均须获得授权并完整保留文首和文尾的版权信息,否则视为侵权

AI换脸是否侵权他人肖像权?

AI换脸就是通过AI人工智能技术,把别人的脸换成自己的脸。 AI换脸脸部表情自然,效果逼真,整个过程你只需要通过一张照片,然后用AI技术可以使用自己或他人的照片替视剧或者小视频中的人物,从而生成以自己或他人为主角的视频。 网友咨询:AI换脸是否侵权他人肖像权?律师解答:用AI换脸技术伪造他人的脸进行恶搞的,一般会构成侵权,即有可能侵犯他人的肖像权。 根据《民法典》规定任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。 未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。 未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像。 除了法律另有规定的情况,无论是否以盈利为目的,未经他人同意制作并发布换脸视频将违法。 AI换脸技术通过提取脸图,运用算法将训练好的A的脸部模型把B的脸换下来,制作成图片或视频,这涉及到肖像权的制作权能,自然构成《民法典》规定的侵犯肖像权的行为要件。 需要注意的是,肖像权虽然具有财产权性质,但更多体现的仍是精神性人格利益,因此,侵害肖像权并不以加害人主观上具有营利目的为前提。 律师补充:被侵权人如果已经发现网上有人利用AI换脸技术制作发布侵权视频,又难以联系上发布者,要尽可能固定证据并报警,由公安机关侦查视频的来源及合法性。 任何人如果发现有通过AI换脸技术制作虚假视频可能已经侵权或构成犯罪的,切记不能随意转发。 因为根据相关司法解释,雇佣、组织、教唆或帮助他人发布、转发网络信息侵害他人人身权益,被侵权人请求行为人承担连带责任的,人民法院应予以支持。

AI换脸技术可能被滥用吗?

金歆 司法

换脸技术和拟声技术的快速发展为我们的生活带来了许多便利,但同时也带来了一些风险和挑战。 恶意使用这些技术的人可以伪造身份,通过诈骗手段骗取他人的财产。 为了防范这种AI诈骗,我们需要采取一些预防措施来保护自己的财产和个人信息。 首先,保持警惕是非常重要的。 在网络上或社交媒体平台上接收到来自陌生人的联系或信息时,要保持怀疑和审慎的态度。 不要轻易相信陌生人的身份和所说的话,尤其是涉及到财务交易或敏感信息的情况。 其次,加强个人信息的保护。 定期检查和更新自己的隐私设置,确保个人信息只对信任的人可见。 不要随意在网络上公开个人的敏感信息,比如身份证号码、银行账户等。 此外,要注意个人信息的泄露渠道,避免在不安全的网络环境中进行敏感信息的输入和传输。 此外,强化账号安全是必要的。 采用强密码,并定期更改密码。 不要使用容易被猜到的密码,最好使用包含字母、数字和符号的复杂密码。 同时,开启双重认证功能,增加账号的安全性。 如果发现异常活动或可疑登录,要及时通知相关平台或服务提供商,及时采取措施防止进一步损失。 另外,培养良好的网络安全意识也是非常重要的。 要时刻保持警觉,不要随意点击陌生链接、下载不明文件,避免访问不安全的网站。 教育自己和家人关于网络安全的知识,了解常见的诈骗手段和防范措施,提高识别和防范的能力。 最后,保持软件和设备的及时更新。 定期更新操作系统、应用程序和安全补丁,以修复已知的漏洞和弱点,提高系统的安全性。 同时,安装信任的安全软件,可以及时检测和拦截恶意软件或病毒的攻击。 综上所述,防范AI诈骗的关键在于保持警惕和加强个人信息的保护。 我们应该始终意识到,虽然AI技术带来了便利,但也存在滥用的风险。 通过保持警惕,加强个人信息安全和账号安全,培养网络安全意识,以及定期更新软件和设备,我们可以大大减少成为AI诈骗受害者的风险。 另外,针对换脸和拟声技术的特点,我们还可以采取一些额外的防范措施。 首先,要谨慎对待收到的图片和音频信息。 不要轻信通过社交媒体、聊天软件或电子邮件发送的未经核实的图片和音频,特别是涉及财务事务或敏感信息的情况。 如果接收到可疑的信息,可以通过其他方式验证发送者的身份,例如电话或面对面交流。 其次,要注意验证身份和授权的过程。 在进行重要财务交易或敏感操作之前,确保对方的身份是真实可靠的。 可以通过多种方式进行身份验证,如视频通话、实体见面或利用双因素身份验证等。 不轻易相信仅凭面部特征和声音的身份确认。 此外,保持对AI技术的了解也是重要的。 随着科技的发展,新的AI诈骗手段不断涌现,我们应该持续关注相关的安全警报和信息,及时了解新的诈骗方式,并采取相应的防范措施。 参加网络安全培训和研讨会,与专业人士和其他用户分享经验和知识,共同提高对AI诈骗的认知。 最后,如果不幸成为AI诈骗的受害者,要及时报案并与相关的执法机构和服务提供商联系。 及早采取行动可以提高追回损失和抓捕犯罪分子的机会。 总之,AI诈骗利用换脸和拟声技术是一种新兴的威胁,但我们可以通过保持警惕、加强个人信息保护、培养网络安全意识以及与时俱进的防范措施来减少风险。 同时,保持对新兴技术和诈骗手段的了解,及时报案并与相关机构合作,也是防范AI诈骗的重要一环。 只有综合运用多种防范措施,我们才能更好地保护自己的财产。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/keji312/14517.html
注意防范雷击灾害 @所有人 雷雨高发季节
监护人存在严重失职 谁之过 律师 河北 11岁小孩公路骑行身