随着人工智能技术的快速发展,相关的应用正在进入我们生活的方方面面。然而,这也给个人信息保护带来了新的挑战。
一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。
比如“AI换脸”技术
仅需一张目标人物的静态照片
就能让照片中的人物动起来
“本身是一张不会动的静态图片,演示者做一些动作之后,AI换脸软件采集到了演示者面部动起来的特征,把特征融合到静态图片当中,就让图片照着演示者的动作动了起来,也可以形成一个视频。”中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍。
张博介绍,尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取,就有可能被用来假冒他人,实施相关的犯罪活动。“ 当前AI换脸技术还是比较成熟,能支持视频通话实时换脸,可以达到以假乱真的程度。 再结合着换背景环境、换声音等,逼真度就会更高,更加难以分辨。”
通过“换脸”伪造不雅照
不法分子敲诈勒索
AI换脸、换声等技术一旦被不法分子利用,还会成为敲诈勒索的工具,此类案例在各地已经发生了很多起。
前不久,深圳警方打掉一个犯罪团伙,这个团伙从网络等各种渠道收集被害人图片信息,然后进行合成处理,用来敲诈勒索。
据报道,深圳市民吴先生突然收到一个陌生手机号码发来的彩信,点开一看竟然是他和一名陌生女子在酒店房间内的不雅照片。
“当时我收到一条彩信,里面是我的一张裸照。他当时威胁我,在几点之前要跟他联系、转钱,我当时一想不对劲,就报警了。”吴先生回忆。
深圳警方接到报案后,立即对吴先生提供的线索进行侦查。通过梳理报案记录,警方发现深圳全市有同样遭遇的不止吴先生一人,犯罪嫌疑人的敲诈勒索方式都如出一辙。
随着调查的深入,警方发现这是一个以王某为首的犯罪团伙, 团伙内分工明确,有人负责修图,有人负责寻找作案目标,有人负责发短信打电话敲诈勒索 。在掌握大量线索后,深圳警方展开统一收网行动,成功抓获以王某为首的10多名犯罪嫌疑人。
在犯罪嫌疑人的电脑里,警方发现了 大量经过合成换脸后的不雅照片。
目前,王某等人已被检察机关提起公诉。案件正在进一步审理当中。
专家:加快相关反制技术的
开发和应用
据了解,目前针对“AI换脸”技术实施各类侵犯个人信息的行为时有发生,在灰色领域甚至违法犯罪领域被滥用。网络安全专家建议应加快相关反制技术的开发和应用。
专家介绍,可以通过人工智能检测技术来识别视频的真实性,判断是否有伪造的内容。另外也可以结合身份认证、数字水印的手段来加大伪造难度。从管理方面,需要加快相关法律法规以及监管措施的制定和落实,来规范AI应用的使用方式和应用场景。
网络安全专家提示,AI换脸等违法行为的最关键原因是个人隐私信息的泄露。因此,我们在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享。如果接到“家人”“领导”等转账、汇款的视频,一定要仔细甄别真伪。 “ 如有必要可以要求对方做快速地抬头、点头、转头的动作,进一步判断视频是否有异常的细节, 来确认这个视频是真实的。”
警惕!
这几种照片千万不要随便发
日常生活中,不少人喜欢在朋友圈、短视频上晒美食、晒美景,但是如果不小心的话,这些行为很可能间接泄露你的个人信息。如果被别有用心的人获取,可能会危及自己和家人的财产乃至人身安全。
哪些照片一定要小心
千万不要随意发到网上呢?
01 不要公布手持身份证或手持白纸照这些照片中会包含个人姓名、身份证号码、住址等敏感信息,一旦泄露,不法分子可能利用这些信息进行身份盗用,办理信用卡、贷款等金融业务,甚至进行违法活动。另外,手持白纸或手持报纸等照片常被用于验证身份,如果被不法分子获取,可能被用于制作假证件或进行网络诈骗,会给个人带来经济损失和名誉损害。
0 2 不要发布各种票据类的照片很多人出差、旅游都喜欢拍火车票或飞机登机牌,发到自己的朋友圈分享。这些票据上不仅会包含姓名、出发地、目的地等信息,而且在条纹码或者二维码中也会含有乘客的个人信息,存在被不法分子破解并窃取的可能。
0 3 不要晒家门钥匙、车牌等照片不法者通过技术手段,可以分析出发布者特定时间所处的特定位置,也会获取发布者相关的生活习惯。所以,最好的办法就是不要在照片中出现特征明显的物品,例如家门钥匙、车牌号码等。
专家提醒
保护个人隐私至关重要
日常生活中应提高警惕
来源:人民日报编辑:沈雨露
转载请注明出处
温馨提示: 由于微信修改了推送规则,没有经常点“在看”的,会慢慢收不到推送。如果你还想看到我们发布的权威信息,请将“路桥发布”加为星标,每次看完后别忘记点下“赞”“在看”。