热门关键词:凯旋门国际平台,凯旋门国际平台首页  
凯旋门国际平台首页:知道你的图片是如何被分类的吗?GoogleAI告诉你
2021-01-09 [88643]

随着人工智能的发展,用AI对图片库进行分类已经不再有趣。但是图片不是单一的自拍电影,也不是单一的物体,而是包含了多种背景元素,比如多人合照,风景照等等。

凯旋门国际平台

那么,AI是如何让图像分类器识别并做出决策对各种图像进行分类的呢?针对这个问题,国外媒体报道已经说明了对所涉及论文的理解,(微信官方账号:)开发了不改变初衷的编译器。【来源:Google Owner: Google】人们一般不会指出,随着AI系统复杂度的降低,其可解释性不会变差。但研究者开始用函数库来挑战这一点,比如解释深度自学的神经网络框架PyTorch是如何满足Facebook的Captum、IBM的AI可解释性360 Toolkit、微软的InterpretML的要求的。为了让AI的决策更加半透明,来自谷歌和斯坦福的一个研究团队最近开发了一个机器学习模型——自动基于概念的解释(Automatic Concept-based AnalYSiS,ACE),它需要自动提取“对人类有意义”的视觉概念,以获取模型预测所需的信息。

正如研究人员在他们的论文中解释的那样,大多数机器学习方法不转换单个特征(如像素、超级像素、单词向量),但与每个目标模型相似。但是,这不是一个极端的方法,因为它更容易受到一些输出变化的影响,即使它大于变化。

与大多数机器学习解释方法相比,ACE识别高级概念:在提取概念和确认每个概念的重要性之前,它不输出一个训练好的分类器和一组类的图像。具体来说,ACE片段图像具有多个分辨率,以在将相似的片段分组为相同的概念并返回最重要的概念之前,在多个级别捕获纹理、对象部分和对象。

为了测试ACE的健壮性,研究小组使用了谷歌的盗梦空间-V3图像分类器模型,在ImageNet数据集上进行训练,从数据集的1000个类中自由选择100个类的子集应用于ACE。研究小组认为,标记为最重要的概念通常是直观的。比如检测警车的时候,执法人员部门的标识就变得比地上的沥青更重要。然而,情况并不总是如此,这反映在一些差异微不足道的情况下。

比如预测篮球图像的时候,球员的球衣比篮球更重要。此外,研究人员回应说,他们通过人体实验测试了它的意义和一致性,进一步证实ACE确实负载了明显的预测信号。

同时,研究人员也相信他们的方法.自动将输出特征分组到高级概念中;一些有意义的概念经常作为连贯的例子出现,这对准确预测它们呈现的图像非常重要。值得一提的是,研究者们也否认ACE毕竟是终极,因为它不能有效地提取出极其简单或困难的概念。

然而,他们指出ACE对模型的自学习相关性的洞察不会提高机器学习的安全性。记录:本文的编译器发表在KYLE WIGGERS的venturebeat上。

允许禁止发表的原创文章。以下是发布通知。【凯旋门国际平台】。

本文来源:凯旋门国际平台首页-www.worldfootgolf.com