研究人员收集令人困惑的图像以暴露人工智能视觉的弱点
从上到下,从左到右,这些图像被错误地识别为数字时钟,灯塔,器官,注射器,巨嘴鸟,波斯猫。
非常需要研究这些图像当我们将机器视觉系统置于人工智能安全摄像头和自动驾驶汽车等新技术的核心时,我们相信计算机以与我们相同的方式看待世界对抗性图像证明他们没有
对抗性图像利用机器学习系统的弱点
为了证明这一点,来自加州大学伯克利分校,华盛顿大学和芝加哥大学的一组研究人员创建了一个包含大约 7,500 个自然对抗样本的数据集他们用这些数据测试了许多机器视觉系统,发现它们的准确度下降了 90%,在某些情况下,该软件只能识别 2% 或 3% 的图像
您可以在下面的图库中看到这些自然对抗样本的样子:
网格视图
8 个中的 1 个
叶子上的虫子被误认为是沉船。模型复杂度快速提升,数据量及算力成为模型改进的关键。人工智能模型的参数是从历史数据中训练得到的,前沿模型的参数呈现指数级的增长。根据《福布斯·模型参数量排行榜》,2011年的AlexNet有0.6亿个参数,而2020年OpenAI发布的GPT-3模型拥有1,750亿个参数,2021年Google发布的SwitchTransformer模型将参数量提升至6万亿,成为首个参数量超过万亿级的模型。对海量数据的触达及运用能力成为AI公司的核心竞争力。。
在随附的论文中,研究人员表示,这些数据有望帮助训练更强大的视觉系统他们解释说,这些图像利用了源于软件过度依赖颜色,纹理和背景线索的深层缺陷来识别它所看到的内容
在下面的四张蜻蜓图像中,AI 对颜色和纹理进行了磨练,从左到右分别是臭鼬,香蕉,海狮和手套在每种情况下,您都可以看到为什么会犯错误,但这并不会让它变得不那么明显
人工智能系统犯这些错误并不是新闻多年来,研究人员一直警告说,使用深度学习创建的视觉系统浅薄和脆弱——这意味着他们无法以同样的细微差别理解世界和作为人类的灵活性
有关的
这个彩色印刷补丁让你几乎看不到人工智能
这些贴纸让计算机视觉软件产生不存在的幻觉
Magic AI:这些是欺骗,愚弄和flummox计算机的错觉
但这是否意味着这些机器视觉系统已不可挽回地损坏了一点也不所犯的错误通常是微不足道的,例如将排水盖识别为检修孔或将货车误认为是豪华轿车
虽然研究人员说这些自然对抗样本会骗过很多视觉系统,但这并不意味着他们会骗过所有人许多机器视觉系统都非常专业,例如用于在医学扫描中识别疾病的机器视觉系统虽然这些都有自己的缺点,但他们无法像人类一样了解世界并不能阻止他们发现癌性肿瘤
机器视觉有时可能很快而且很脏,但它通常会得到结果这样的研究向我们展示了下一步需要填补的盲点
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
2021-12-08 15:29
2021-12-08 15:28
2021-12-08 15:27
2021-12-08 15:27
2021-12-08 15:26
观察家网© 2012-