这种照片不要随便发!紧急提醒!
2024-9-13
小土豆
来自湖北
在线钟祥
近日韩国曝出“Deepfake”(深度伪造技术)事件多个关于“韩国AI深度伪造”的话题词引发网友热议据韩媒报道针对女性的深度伪造犯罪在韩国日趋猖獗Deepfakes是利用AI换脸制造色情图频韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群其中有成员创建和分享露骨的性“深度伪造”图像对象涉及未成年女孩在此过程中加害者还毫不犹豫地公布受害女性的身份威胁受害人,索要钱财据央视新闻报道韩国教育部9日表示今年已发生400多起涉及中小学的相关案件受害者累计超过600人韩国教育部就涉深度伪造性犯罪问题,对全国17个地方教育厅展开调查。结果显示,今年初至9月6日,全国小学、初中和高中共发生434起利用深度伪造技术实施的性犯罪,受害者数量共计617人。其中,受害学生588人,教职员工29人。从学校级别来看,上述案件中,涉高中的有243起、初中179起、小学12起。从调查数据看,利用深度伪造技术的犯罪数量呈激增势头。8月28日至9月6日仅10天内,韩国新增238起涉中小学的相关案件。从年初到8月27日,相关案件总数为196起。如何快速识别AI换脸变声诈骗?深度鉴伪5秒让AI换脸诈骗无处遁形如何为“一老一小”构建安全通讯环境?AI技术强力反制电信诈骗9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。画面中技术人员正在演示的就是“AI换脸”技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,“尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。”通过“换脸”伪造不雅照深圳警方打掉一个犯罪团伙AI换脸、换声等技术一旦被不法分子利用还会成为敲诈勒索的工具此类案例在各地已经发生了很多起前不久深圳警方打掉一个犯罪团伙
免责声明:本文来自网友发表,不代表在线钟祥观点和立场,因发表不实信息而造成后果的,本平台不承担任何责任。请各位网友们理性发言!未经在线钟祥授权,禁止转载!