重庆理工学生“攻陷”图像识别技术,AI安全问题再引热议!
随着人脸识别、动作识别、货物识别、图像识别等应用场景的出现,AI与安全结合的用途越来越广泛。
与此同时,这一新兴技术面临的安全问题也逐渐浮出水面,引起社会的广泛关注。
近日,由阿里和清华大学联合举办的“安全AI挑战者”比赛结束。
重庆理工大学研三学生刘野,运用最少的代码“攻陷”了由清华专家给出的AI图像识别技术题,获得本场比赛的第一名。
这场比赛主要是针对证件文档类图像伪造进行的对抗攻击竞赛,旨在通过实战解决证书文档信息伪造问题。
据刘野透露,每位参赛者会领到1000个图像文件,他们需要编写代码,让计算机自动修改图像的像素点,使得AI无法识别出画面上的人。
谁编写的代码修改像素越少并且越能阻止人工智能识别,谁就胜出,刘野为了完成比赛足足花了半个月时间钻研。
“每张图像的像素点有500×500,有25万个。我修改了平均大约1200个,修改的像素点其实很少的。”刘野说到。
据了解,这项“安全AI挑战者计划”由清华大学和阿里巴巴联合举办,目的就是通过对现有AI技术的攻陷,来发现问题,从而抵御现实应用中的安全风险。
竞赛题目以对抗样本为核心,提供场景、技术、数据、算力等支持,召集“挑战者”以防守者的身份打磨AI模型安全,发掘培养更多新基建安全技术人才。
在此前举办的4期比赛中,主题分别为人脸对抗识别比赛、ImageNet图像对抗比赛、辱骂场景文本对抗比赛、通用目标检测的对抗攻击。
这几个主题都是目前AI与安全结合最多,且最受人们质疑的点。
参赛者们通过代码修改像素形成的“对抗样本”,肉眼看上去没有什么变化,但足以影响人工智能的判断。
比如说一只狗的图片,AI可以很容易推出这是一条狗,但是对抗样本的出现,可以对狗的图片做一些人眼不可察觉的改变,让机器识别不出来它是狗,甚至可以指定让算法识别出它是一只猫。
这个过程可以提前暴露人工智能的局限性,促进技术的进一步发展。
一旦比赛模拟的情况在现实生活中出现,人工智能真的受到攻击,就可能有监控摄像头认不出画面里的人、自动驾驶汽车识别不到前方障碍物等存在安全风险的情形发生。
由此可见,人工智能在机遇中也面临诸多挑战。当前,一个围绕“新基建”的数字社会,正如火如荼地构筑,AI技术安全的重要性随即凸显。
提升算法的安全性和可靠性,是未来的重要目标之一,也是算法大规模部署和应用的基础。
但数据表明目前AI安全方面人才缺乏,2020年网络人才缺口达到140万,并且缺乏实战场景也使安全人才缺少打磨技能的机会。
这既是挑战,也是机遇!未来随着AI技术更加广泛的应用,谁能掌握控制AI的相关技能,谁就能在未来更受高校和企业的青睐!
玩仔在此送上一份精品编程课,赶紧点击下图领取,解锁这项迎接AI时代的必备技能吧~
2节视频课+1节体验课
量身定制能力提升规划
为孩子开启编程天赋
掌握AI时代的必备技能
已有19237位家长领取
👇👇👇