被换脸色情片的韩国女孩,来到微博呼救

雷叔写故事 2024-10-11 08:51:41

这几天,微博首页被这群韩国女生的求助刷屏了。

先给不了解情况的朋友,捋一下来龙去脉。

8月初,有韩国网友惊讶地发现“N号房”卷土重来了。在Telegram上,一个通过AI Deep fake(深度伪造)制作、传播色情图像的聊天室聚集了20多万男性受众。他们偷拍身边的女性,把她们的脸或躯体合成到H片里。再把这些淫秽图像传到群组,找兄弟们一起品鉴、意淫。

被deep fake的女性,有女兵、女教师、女护士、女大学生,还有未成年的小女孩。而犯罪者大多是青少年。

志愿者卧底发现,几乎每所学校都有一个秘密的男性聊天室。某些群组成员还要求入伙的新人必须提交自家女性家庭成员的全身照片,作为投名状。于是,一些男孩把偷拍神功用到了自己的姐妹,甚至妈妈身上。

更过份的人,趁着自己的妹妹睡觉,去掀了她的裙子。

这件事情在韩国造成了极其恶劣的影响。500多所学校被牵扯其中,就连延世大学、首尔国立大学和高丽大学这种名校有师生参与其中。年轻学生深爱这种深度伪造的“游戏”。他们并不觉得这是龌龊的犯罪行为,反而责怪举报者小题大做,不懂幽默。记者问他们为什么要用熟人照片?他们说:“这样更真实。”记者追问:“你们不怕被抓吗?”他们直接回怼:“只有傻瓜才会被被警察逮住。”境外网站的隐蔽性让他们有恃无恐,而这种心态让韩国女性相当愤怒。所以一群韩国女生注册微博,呼吁外国人关注韩国正在发生的事情。

这种下作的犯罪,不是应该找韩国总统、韩国警察处理吗?为啥跑来中国求救?这是因为韩国女性对公权力失望透顶。她们深知,无论是韩国警方,还是尹锡悦政府,都无法铲除这种恶劣且隐蔽的性剥削。一方面,现在的韩国总统尹锡悦,本来就是靠着“反女权”言论被选上去的。另一方面,李胜利的所作所为只受到很轻的处罚。知情人士透露,韩国青年(15-29岁)男性人口有430万,而Deepfake Room的用户有22万。也就是说,差不多20个男性里,就有一个“房中人”。法不责众。警方处理案件只抓主谋,很难惩处每一个用户。鸡贼的人趁机钻空子跑路,躲避法律的制裁。

与此同时,考虑到事件的影响面实在太广,就连韩媒都开始对这件丑闻做冷处理。女士们直言:“韩国女性没有国家。”“我们生活在一个无法有效惩罚或预防针对女性犯罪和暴力的社会中,失去了日常生活的安全感,仿佛生活在一个没有国家的状态中。这样的社会还有存在的必要?”

除了中国,她们也去了其他国家的社交平台发帖求救,希望借此得到全世界女性的声援。也希望国际舆论能向韩国政府施压。

为什么我们要关注这件事?因为,被换脸的恐怖故事不仅会发生在韩国女性身上,还可能发生在我们每一个人身上。

没有管制的deep fake可以轻松毁掉每个人的生活。把女性的脸换到色情片上,显然不止出现在韩国。中国、美国、欧洲,全世界的女性都遭遇过类似的事情。2017年,有人在reddit上开了换脸版块,专门和“志同道合”的网友一起,将女演员的脸庞深度伪造到色情影片上,受害者皆是知名女性艺人。

它甚至成了一门产业链。有人收钱定制这些女明星的换脸淫秽视频牟利。

这甚至不止和性有关。我们不妨设想一些场景。现在年轻人都在外工作,留下父母在老家,平时沟通全靠网络一线牵,最常用的就是视频通话。要是这视频被伪造了呢?当父母远在千里之外,突然接到你的求助电话,紧张不安地说自己遇到了麻烦,缺钱花,希望他们能帮帮你,父母会是什么反应呢?着急之下,他们除了先打钱还能做什么呢?你看,联系方式是平时的联系方式,视频对面的人是他们熟悉的你,说话的声音也没有区别,他们除了担心,又怎么会怀疑你不是你呢?毕竟父母对这些科技知之甚少,很难防备啊。还有很多可能。如果有不安好心的犯罪分子掌握了你的形象,以及更多的身份信息呢?他们完全可以拿着你的身份去网恋,去裸聊,去当做杀猪盘的素材,去搞诈骗,去犯罪。反正这些事现在都可以通过网络来完成的,套上AI这个壳子,他就成了你啊。

而且这AI都可以做任何表情和动作了,直接解锁什么银行卡的面部识别信息,恐怕也不在话下吧。要是直接以你的名义去贷款,然后把钱卷走后,留下一屁股债。你又该如何应对呢?恐怕要等某天突然有人敲开大门来讨债,才知道真相吧。要是那些公众人士被AI化就更麻烦了。你看现在电视上那么多明星代言卖货直播的,好多人趋之若鹜,可万一那些视频背后不是本人,而是AI伪造出来的呢?反正输入什么,AI就能说什么。那某些三无产品啦金融产品啦,岂不是想让谁站台就能让谁站台,谁更有号召力就让谁来代言。主打一个无法无天。搞不好还有人趁机打着某些公众人物的旗号,去到处寻求合作,让人家先交定金。或者私下搞些传销传教之类的违法活动。

反正这种大名鼎鼎的重要人物肯定是见不到面的,只有视频让大家沟通也很合理啊。谁知道剥开AI那层皮,里头到底是谁呢?更糟糕的。如果不法之徒掌握了某些重要人士的形象,他们完全可以躲在背后,以这些重要人士的身份去发言很多重要言论,来引导舆论,重塑规则。

感觉世界都要乱套了。还可以多想一层。万一有人用魔法来对抗魔法呢?比如故意露出破绽,让人以为视频是AI做出来的效果,好显得自己是被陷害的无辜。但其实,根本就是本人的千层套路?

而且,现在的技术肯定不是AI的巅峰,再这么发展下去,搞不好还能结合全息,搞出那种肉眼都分辨不出来的效果,一个人眨眼就变另一个。那时候,别说影像了,眼见都不一定为实。我站在我妈面前,我妈可能还得和我对上八百个暗号,才能分辨出来我到底是我,还是骗子。光是想想,就觉得更毛骨悚然了。

04说这么多,不是我危言耸听,更没有杞人忧天,现在国内外都已经有很多案例了。有的仅仅依靠AI配音,就能大骗特骗。美国CBS电视台做过一期节目,现场展示黑客通过克隆声音来窃取信息的过程。

整个过程可谓是迅雷不及掩耳之势。仅用了5分钟,对方就通过AI克隆的当事人的声音,并且通过工具替换了手机来电显示,从而成功骗过了身边的人,获取了相当多私人信息。国内的“靳东”骗局也一直存在。很多直播间循环播放着明星的视频,再加上后期配音的旁边,就吸引了很多阿姨的关注。

阿姨们听到声音误以为这就是真的明星,没想到都是骗子利用AI软件模拟出来的声线。目的当然只有一个——骗钱。

有人胃口更大,不甘心只骗普通人的小钱,还要骗公司的大额投资。于是伪装出男明星的声音去谈合作,好在公司比较警惕,才没能让对方得逞。

现在又有了AI在视频方面的辅助,骗子更是如鱼得水,让人防不胜防。前几天看综艺,黄晓明说曾经发现自己在不知情的情况下,给某个品牌代言了。不仅有自己和刘亦菲参加品牌活动的视频,还在现场讲了很多品牌相关的内容。但他本人对此却毫无印象,就很恍惚。

后来才知道,这视频是用AI做出来的,发言也都是AI操作的结果。连本人都差点被忽悠,何况看视频的其他人呢?现在某些直播间,开始用AI换脸明星搞带货。不知情的人看了又怎么能区分呢?

国外也一样。斯嘉丽前几天告了一名AI程序开发者,因为对方直接用她的形象和声音来打广告。明明是《黑寡妇》的幕后花絮,摇身一变,就成了AI程序的宣传广告。好一个偷天换日。

网络上本来就很容易出现那种看图说话的假消息,经常一张图下去八百个故事就编出来了。如今有了AI技术,你想编什么故事,它就给你凭空造出什么,真与假、是与否的边界更加模糊。反倒更方便了造谣传谣的人,也给了不法之徒发挥空间。有人分享过更恶劣的被骗经历。骗子截取到他的人脸识别视频,然后利用AI换脸技术,拼接出一段裸聊视频,然后威胁当事人要把这视频群发给他的通讯录好友们。

即使当事人知道自己并没做过这样的事,也会在一瞬间陷入恐慌,然后被骗子榨干价值。

或许你会说不要相信网上那些人就好,但是万一AI伪装成你熟悉的人来寻求帮助呢?福州的郭先生就遇到过。一位好友打来微信视频,请求帮助。虽然对方一开口就是430万这样的巨款,但微信视频已经打消了他的怀疑,他二话不说转了钱。

哪知道,这年头视频也能造假。视频对面的也不是真朋友,而是披着AI外皮的骗子,只是用了换脸和拟声的手段。

说起现在这些套路,就连年轻人都难分辨,每每看到都要感慨一句,学无止境。要是那些本就对网络科技知之甚少的老年人碰到,就更容易上当受骗了。反倒是骗子,总是走在学习新技术的前沿。虽然都说互联网是虚拟的,但很多时候构建起互联网的底层逻辑却是真实和信任。这下可好,人与人的信任岌岌可危。名人会被deep fake出自己从没讲过的话,喜提鲁迅同款待遇。上班族会被deep fake出的老板骗得云里雾里。之前就有个公司财务,被拉进一个视频通话群组里,里面每个董事会的老板都在。然后财务就被“换脸”老板们,骗走了2亿多港币。

老人会被deep fake出的子女骗到倾家荡产。普通人会被deep fake出的莫须有视频弄得百口莫辩。……所有“真相”都可以被伪造。所有人都可以被技术玩弄于股掌之间。AI时代,没有真相。这时候我们又该怎么办呢?“科学技术是第一生产力”,这当然是事实,毕竟我们直白地享受着科技发展带来的好处。与此同时,我们不该忽略科技可能带来的破坏性。伴随着高速的科技发展,社会结构迎接着巨大冲击,固有的生产模式更频繁地遭遇被淘汰的命运,无法及时跟上发展的人经历着动荡。我们总说科技的发展是双刃剑。但它的剑刃究竟指向哪方,是由人来决定的,而非由技术。所以,比担心AI技术的失控与风险更重要的是,加强对AI生成内容的监管,增加限制。总好过让它不受约束地自由发展。毕竟现实中,开锁的师傅都得去公安局备案,更何况是这些更不受控的内容呢?

0 阅读:0