人工智能发展至今天,利用 AI 来分类图片库早已不是什么有意思的事情了。但是,图片并不都是单一的个人自拍电影或是单一物体,而是包括多种背景要素,例如多人合影、风景山水照等。
那么,AI 是如何让图片分类器辨识并作出决策将各种图片展开分类的呢?针对这一问题,国外媒体的涉及报导通过对涉及论文的理解做出了说明,(公众号:)对其展开不转变本意的编译器。【 图片来源:Google所有者:Google 】人们一般来说不会指出 ,随着 AI 系统复杂性的减少,它的可解释性不会显得更加劣。但是,研究人员开始用函数库来挑战这一点子,比如说明深度自学的神经网络框架 PyTorch 是如何做到要求的 Facebook 的 Captum、IBM 的 AI Explainability 360 工具包、以及微软公司的 InterpretML。
为了使 AI 的决策更为半透明,Google 和斯坦福的一个研究团队近期研发了一个机器学习模型——基于概念的自动说明(按:Automated Concept-based Explanation,ACE),这个模型需要自动萃取出有“对人类有意义”的视觉概念,为模型的预测获取信息。正如研究人员在其论文中说明的那样,大多数机器学习说明方法不会转变单个特征(例如像素、超级像素、单词向量),去相似于每一个目标模型。
不过,这是一种不极致的方法,因为它很更容易受到一些输出变化的影响,哪怕是大于的变化。和大多数机器学习说明方法构成对比的是 ACE 辨识高级概念的方法:它在萃取概念并确认每个概念重要性之前,不会将一个训练过的分类器和一个类别的一组图像作为输出。具体来说,就是 ACE 片段图像在将类似于片段作为完全相同概念展开分组,并将最重要的概念回到之前,具有多个决议去捕捉多个层次的纹理、对象部分以及对象。
为了测试 ACE 的鲁棒性,该研究团队用于了 Google 的 Inception-V3 图像分类器模型,让其在 ImageNet 数据集上训练,并从数据集中于的 1000 个类中自由选择 100 个类的子集来应用于 ACE。研究团队认为,被标记为最重要的概念往往是遵守人的直觉的,例如,在检测警车时,执法人员部门的标识比地面上的沥青变得更为重要。不过,情况也不都是如此,在一些区别性不显著的案例中就有所反映。
比如,预测篮球图像时,更为重要的是球员的球衣,而不是篮球。另外,研究人员回应,他们通过人类实验检验了其意义和一致性,并更进一步证实了 ACE 的确是装载着明显的预测信号。同时,研究人员还认为,他们的方法...自动将输出特性分组为高级概念;一些有意义的概念作为连贯的示例经常出现,这对于准确预测它们所呈现出的图像十分最重要。
值得一提的是,研究人员也否认了 ACE 毕竟是极致的,因为它还无法有效地萃取出现异常简单或艰难的概念。但是,他们指出,ACE 对模型的自学相关性获取的洞见不会增进机器学习的安全性用于。录:本文编译器自 KYLE WIGGERS 公开发表在 venturebeat 上的文章。原创文章,予以许可禁令刊登。
下文闻刊登须知。
本文关键词:澳尼斯人娱乐网址
本文来源:澳尼斯人娱乐网址-www.datangrq.com