随着人工智能技术的飞速发展,其相关应用已逐渐渗透到我们生活的方方面面,为我们带来了诸多便利。然而,这也给个人信息保护带来了前所未有的挑战。在2024年国家网络安全宣传周上,AI换脸、换声等技术如何侵害个人隐私的话题引起了广泛关注。一张看似普通的“人像照片”或一段近距离的人物视频,都有可能成为不法分子犯罪的新工具。
在网络安全博览会上,各大安全企业纷纷展示了安全领域的新产品和新技术,其中针对人工智能的安全防护更是成为各大企业的重点领域。技术人员现场演示的“AI换脸”技术,仅需一张目标人物的静态照片,便可让照片中的人物“活”起来,实现以假乱真的效果。
中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,这种AI换脸技术相当成熟,甚至能支持视频通话实时换脸,再结合换背景环境、换声音等,逼真度更高,令人难以分辨。一旦该技术被不法分子获取,便可能被用来假冒他人,实施相关犯罪活动。
近期,深圳警方破获了一起利用AI换脸技术实施敲诈勒索的案件。该团伙从网上收集被害人图片信息,经过合成处理后,用于敲诈勒索。警方在犯罪嫌疑人的电脑里发现了大量经过合成换脸后的不雅照片,这些照片成为了他们敲诈勒索的工具。
面对这一挑战,网络安全专家建议加快相关反制技术的开发和应用,并呼吁公众提高警惕,避免在网络上随意发布包含个人敏感信息的照片,特别是不要发布手持身份证或白纸照、各种票据类照片以及家门钥匙、车牌等照片,以免个人信息被不法分子利用。
在此,我们也呼吁相关部门加快制定和落实相关法律法规及监管措施,规范AI应用的使用方式和应用场景,共同维护网络安全和个人隐私。让我们携手共筑一个更加安全、可靠的网络环境。
百度分享代码,如果开启HTTPS请参考李洋个人博客