泰国新闻网XTHAI报道,近期香港大学爆出一宗令人震惊的事件,一名法律系男学生涉嫌利用AI技术制作大量色情照片,受害女性人数超过20人。这可不是什么小事,而是深度伪造技术滥用又一铁证,让人直呼“科技咋就成了双刃剑”!
据透露,这名学生早在二月中就被发现电脑中藏有超过700张色情照片,涉及20到30名女性。受害者中既有他的同学、师姐,也有朋友,甚至连中学老师都没能幸免。更令人发指的是,这些照片都是他利用网上免费AI软件,将熟人社交媒体上的近照“改头换面”制成裸露色情图片,而所有受害者均未授权使用她们的照片。有的是关系亲近的朋友,有的仅仅是点头之交,甚至还有只见过一面的陌生人,简直是“熟人作案”的极端版!
事件曝光后,这名男学生还试图“大事化小”,主动联系部分受害者道歉,并声称涉及人数只有五个。但事实摆在眼前,受害者数量远超他的说辞,明显是想淡化事件的严重性。这样的行为,真是让人寒心又愤怒。
说到深度伪造技术,近年来类似事件在全球范围内层出不穷。根据相关报道,AI生成色情内容已变得异常简单,有时仅需一张清晰的面部照片和不到半小时,就能炮制出令人难辨真假的伪造视频或图片。而受害者中,女性和女孩占比高达99%,成为这种技术滥用的最大受害群体。
更别提,这类事件的影响力还在不断扩大。比如在香港,警方近期还破获了一个利用深度伪造图像进行恋爱投资诈骗的团伙,逮捕了31名嫌疑人。而在韩国,2024年与深度伪造相关的数字性犯罪报告数量激增至1384起,同比增加了三倍以上,受害者多为青少年和二十多岁的年轻人。
这起港大事件只是冰山一角,深度伪造技术正在以我们难以想象的速度侵蚀着个人隐私和安全。说到底,技术本身无罪,关键在于使用者的道德底线和社会的监管力度。那么问题来了,我们该如何防范这种“隐形犯罪”?是时候给科技套上“紧箍咒”了,否则下一个受害者可能就是你我身边的人。