牟利伪造涉嫌不雅换脸滥用(换脸技术视频骗子不雅)「换脸视频合法吗」

8月28日,刘昊然工作室发布声明称,有人利用AI换脸技术传播对刘昊然带有侮辱性的视频、截图,并做报警处理。
此消息一出,引发网友对AI换脸的再度热议。
“一键换脸,让明星做你想看的事”、“大叔秒变萝莉御姐网红音”……AI变声换脸应用,玩法多样。
随着技术的发展,从AI“换脸”技术到人脸识别支付,人脸信息运用的领域越来越广泛,但却有不法人员“移花接木”制作不雅视频牟利甚至诈骗勒索。
现象AI技术就能轻松换脸 真假难辨所谓AI换脸就是通过人脸特征自动提取、编码等技术,将视频中的角色进行“改头换面”。
其实早在2019年就有一个流传甚广的换脸视频,阅读量上亿还登上了热搜。
有人将《射雕》里饰演黄蓉的朱茵换成了杨幂的脸。
从轮廓、表情上很自然,不易发现其中端倪。
近来,某些艺人因个人行为触犯法律,被列为劣迹艺人,作品也被下架处理。
但剧方为了顺利播出并挽回一定的损失,对于还没来得及播出的影视剧中涉及此艺人的形象会用AI技术换成另一位演员的脸。
在2020年播出的《了不起的儿科医生》中,就有眼尖的网友发现原本由被列为劣迹艺人的仝卓饰演的雷皓一角被全程“AI换脸”,由另一男演员李欢替代。
不少网友认为,不仔细看很难察觉有换脸迹象,可见AI技术已达到一定的成熟度。
“换脸版”不雅视频热传 明星频中招8月28日,男艺人刘昊然的工作室的一则声明引发关注,其中称,有人利用AI换脸技术传播对刘昊然带有侮辱性的视频、截图,同时还有含有存在诽谤言论的聊天记录。
该工作室表示,今年1月就曾被恶意传播,目前已向警方报案。
甚至更有不法分子利用AI技术移花接木制作不雅视频,将视频中的人脸换成明星后在网络上出售,女明星最易成受害对象。
据此前外媒报道,泰勒·斯威夫特、艾玛·沃特森等多位女演员被换脸成为不雅影片的女主角。
北青-北京头条记者发现,截至目前,网上仍有很多提供程序、教程甚至代做服务的商家。
有店家称,一张照片就能做成高清动态换脸视频。
“一条视频,一块九毛八。
多条还可以优惠。
”分析AI变声换脸诈骗也登场 警方揭秘此外,这项技术还成为新型诈骗手段。
江苏常州一90后小伙就因好奇和骗子“过招”被骗11万。
他明知可能遇到了裸聊骗局,但出于好奇想看看骗子是怎么骗钱的。
结果只因露了一下脸,就被骗子的AI换脸技术坑了。
骗子给他AI换脸伪造了一段“裸聊视频”…… 骗子还发来他的手机通讯录,告知如果不花钱消灾,就让他在家人朋友面前抬不起头。
无奈小伙将仅有的11万全部转账后,骗子才罢休。
AI不仅能换脸甚至能变声。
北青-北京头条记者梳理公开报道发现,警方就曾对AI诈骗常用手法进行了揭秘。
所谓声音合成就是骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
比如,2020年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。
由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
警方表示,骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。
他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。
相对来说,人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防。

牟利伪造涉嫌不雅换脸滥用(换脸技术视频骗子不雅)


骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。
在视频通话中利用AI换脸,骗取信任。
在一起案例中,小李的大学同学通过QQ跟她借钱。
对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。
然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。
警方判断,那段视频很有可能是被人换了脸。
警方表示,面对利用AI人工智能等新型手段的诈骗,要多重验证,确认身份。
目前,AI换脸难以肉眼区分。
因此,在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。
保护信息,避免诱惑也很重要,要加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
此外,还要做好家中老人的宣传防范工作。
提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
律师随意换脸挑战法律底线 可能涉嫌犯罪作为一项新兴的技术,总会带来新体验。
AI换脸也让许多人跃跃欲试,在这场互动性强、参与度高的尝试中,滥用的行为挑战了法律和公序良俗的底线。
随意换脸的行为是否侵权?受害方又该如何维权?山东诚功律师事务所律师孔姣表示,目前来说,AI作为新兴科技本身在法律上本身是不受禁止的,只有行为人通过人脸技术实施具体的违法犯罪行为时,才会需要承担相应的法律责任。
她认为,这项技术之所以如此泛滥,一个重要原因是它能够被低成本快速地获取和运用,各类软件上的一键换脸功能导致人脸技术不再需要高水平的操作,普通人也能够轻而易举的实现换脸。
孔姣介绍,对于刘昊然等艺人的不雅视频事件,已经不单单是民事侵权的问题,利用AI技术制作不雅视频获利的行为,已经涉嫌犯罪,根据《中华人民共和国刑法》第三百六十三条规定,以牟利为目的,制作、复制、出版、贩卖、传播淫秽物品的,处三年以下有期徒刑、拘役或者管制,并处罚金;情节严重的,处三年以上十年以下有期徒刑,并处罚金;情节特别严重的,处十年以上有期徒刑或者无期徒刑,并处罚金或者没收财产。
她还指出,随意换脸的行为侵犯了他人的肖像权,同时,如换脸采取了对肖像权人进行丑化或其他可能导致肖像权人社会名誉降低的行为,根据《民法典》第一千零二十四条之规定,可能同时构成名誉权侵权,制作者需要承担相应的侵权责任,包括停止侵权、消除影响、赔礼道歉、以及损害赔偿。
对于平台上的网络用户利用网络服务实施侵权行为的,权利人有权通知网络服务提供者采取删除、屏蔽、断开链接等必要措施。
通知应当包括构成侵权的初步证据及权利人的真实身份信息。
网络服务提供者接到通知后,应当及时将该通知转送相关网络用户,并根据构成侵权的初步证据和服务类型采取必要措施;未及时采取必要措施的,对损害的扩大部分与该网络用户承担连带责任。
“至于购买者客观上并未实施侵权行为,如未进一步对外进行传播,则无需承担法律责任。
”孔姣称,作为受害者,当发现自己的权利受到侵犯,应当第一时间进行取证,保留侵权的证据,同时向平台方进行投诉,避免损失的进一步扩大。
同时,一旦发现涉嫌刑事犯罪,及时向公安机关进行报案,通过合法的途径维护自己的合法权利。
文/北京青年报记者 宋霞编辑/白龙

联系我们

在线咨询:点击这里给我发消息