必威体育Betway必威体育官网
当前位置:首页 > IT技术

NELL框架

时间:2019-07-09 23:42:06来源:IT技术作者:seo实验室小编阅读:62次「手机版」
 

nell

文章目录

    • Never-Ending Learning
    • Abstract
    • Introduction
    • Related Work
    • Nerer-Ending-Learning
      • 举个例子,永动学习机
      • NELL的学习问题
      • 实证评估
    • 最后讨论
      • 优势
      • 劣势
      • 缺陷

#信息抽取(Nell框架论文)

标签(空格分隔): 自然语言处理


Never-Ending Learning

Abstract

Introduction

机器学习作为ai的一个重要分支,被广泛应用于垃圾邮件过滤到语音识别、从信用卡诈骗检测到人脸识别。尽管如此、和人类学习的方式相比,电脑学习的方法依然非常狭窄。本文提出了了一种更接近人类学习的多样性、能力和积累能力的一种模型。我们叫他NELL。

上述的问题中,人们都说用一个单独的方法去解决一个单独的任务问题,经常是人们标注好的输入和输出的模型。我们这个方法不是上面提到的在短时间内在组织好的规律数据上的模型,人类学习东西也是一个依赖于丰富经验的和丰富背景知识长期工程。

这篇论文的主题是:

  • 学习许多不同的模型和知识

  • 多年的自我监督学习

  • 用一种分阶段的形式,以前学到的知识可以用来学习更多的新的知识

  • 具有自我反思和制订新特征和新学习任务的方式使得模型可以避免停滞和学习瓶颈的出现

Related Work

之前的研究考虑设计长时间持续学习系统的问题,比如:终身学习和并学习学习,然而能在实践中证明自己的系统很少。一般问题的架构已经被引用与多个领域,但是没人用可持续学习的方法。

除了对体系的研究,人们对系统的子问题也进行了研究。

Nerer-Ending-Learning

我们设计了一种永不停止的模型,像人类一样,学习很多类型的知识,已经具有自我监督的经验,然后利用学到的知识改善后续学习,并通过充分的自我反思来避免学习中的平台期。

我们的任务包括两个:

  • 有一个问题集合L = {Li}, 其中每一个任务都是 Li = <Ti,Pi,Ei> , 通过T和E来预测P

  • image_1cst49ob25541hmg16br1isb1q309.png-12.2kB

  • 每个人物都有一个最好的函数f

image_1ctbt3ij413u0192d1jl1gmf11ua9.png-8.8kB

这个任务的特点

  • 学习许多不同的任务

  • 主要是自我学习出来的

  • 顺序关系的,下一个问题的解决依赖于上一个问题的结果与答案

  • 自我反馈机制

举个例子,永动学习机

输入

  • 一个初始的本体类别和二元关系。

  • 每种类别和关系的大约十二个标记的训练样例(例如,运动的例子可能包括名词短语“棒球”和“足球”)

  • 5亿原始网页

  • 偶尔人类互动

任务

  • 每天24小时工作

  • 阅读(提取)来自网络更多信息,并删除旧的错误信息,以填充不断增长的知识库,其中包含对每个信息的信心和来源

  • 自我进化

NELL的学习问题

任务情况

  • 类别分类,对名词的语义类别进行分类,如:判断一个名词是否属于一个"食物"类别,NELL学习者280个类别分类器,允许一个词指向两个类别。对每个分类器,都有五个特征函数:

    • 字符特征,比如是这个字符是否以“brg”结尾

    • 上下文信息,如:名词N出现在“N的市长”这个上下文语境中

    • 实时搜索的上下文信息

    • HTML信息,是否与一些著名城市出现在一起

    • 这个名词的图片信息

  • 关系分类,判断一个实体对是否满足某一关系,327关系,

  • 实体解决方案,判断两个名词是否是同义词,包括:

  • 推理规则,根据一篇论文而来

NELL的共限制

- 由于用了很多方法进行分类,所以每一个实体的类别是一定的,即使是依据的不同的特征来算的

- 父子关系

- 当类别C被添加到NELL的本体时,指定已知与C不相交的类别(与C互斥)

- 指定参数的类型

- 规则的反作用,R1 + R2 -> R3,则以后用到R1的时候会考虑R3的

NELL包含2500多个学习任务,超过100万对限制,NELL是open ended的,就是NELL可以加新的规则和新的学习任务

NELL学习方法与架构

  • NELL处于无限循环中,类似于用于半监督学习的EM算法,在每次迭代时执行类似E的步骤和M类步骤

  • 完整的EM算法在nell中是不切实际的,

  • NELL可以用扩展kb、OntExt考虑NELL当前本体中的每对类别,在三个步骤中搜索类别对成员之间经常讨论的关系的证据、提取两个类别的已知实例的句子、从提取的句子中,通过上下文共生矩阵构建上下文,然后将相关的上下文聚类在一起。 每个集群对应于两个输入类别实例之间可能的新关系、在允许新关系之前,使用训练有素的分类器和手动过滤的最后阶段

实证评估

  • 我们在实验上评估NELL的主要目标是了解NELL随着时间的推移而改善的程度通过学习,无论是阅读能力还是学习能力KB的大小和质量。

image_1ctpmhjvnjis3c2rra9dh1dlk13.png-56.2kB

image_1ctpmkf8n1f9o1md41lnjk5oehj20.png-70kB

高置信度代表至少大于0.9,或者在多个模块汇总有了该置信度,NELL的KB显然在增长,尽管它的高信心信念增长速度比其总信念增长速度慢。

我们假定KB的状态只依赖于KB,所以我们做了不同时刻的,不同迭代次数的NELL的效果

我们测试了十个点的NELLkb的效果,我们评估十八个类别和十三个关系。每个结果会选择top1000的预测。

然后,我们创建了一个实例池来手动注释。

对于每次迭代,我们包括每个谓词的排名前10位的预测,从排名11-100中随机均匀抽样的20个预测,以及来自排名101-1000的另外20个预测。 这为每次迭代的每个谓词提供了50个(可能重叠的)实例,在所有迭代中平均每个谓词约350个实例。 我们手动地将这些实例中的每一个注释为正确或不正确,产生大约11,000个关于31个谓词的注释信念,我们在每次迭代时用来评估NELL

image_1ctrdflqe10bq60ipqrkdp1jvd29.png-128kB

首先考虑NELL在31个谓词中的每一个中排名最高的10个新预测的平均精度(总共310个预测),在这10个时间点中的每个时间点。如图4所示,这个NELL精度的度量随着时间的推移呈现出逐渐上升的趋势,NELL最近的迭代产生最高精度,目前为0:85(前25个预测的精度为0:84)。注意,与迭代261到731相比,迭代166也具有相对高的精度。这可能是在迭代100到166期间对NELL的异常高的人类反馈速率的结果,导致精确度的临时提升。在这67次迭代中,NELL在其866次迭代中收到了人类反馈的31%。 NELL精度的第二个度量,如该图的右图所示,是从相同的31个谓词的前1000个预测中抽取的数据样本的平均精度(MAP)。在这里,我们再次看到NELL在每个谓词的前1000个新预测中的准确性逐渐提高,表明NELL确实在一段时间内提高了它的阅读能力。

  • 评测其反馈机制

    平均每个预测收到了2.4次的回馈每月,该直方图中的每个条形显示在78次迭代间隔期间人类提供负反馈的NELL信念的数量。在NELL的58个月的运营中,根据NELL的本体,每个谓词平均每月反馈2.4项反馈

image_1ctre90e813s9145d17ui11jnv8q65.png-75.2kB

NELL对不同的预测的能力表现差距很大,对一些像“河流”、“身体部位”、“生理状态”等的1000的置信度超过了0.95,对“机器学习作者”,“国家的首都”等识别能力低于0.5,这是因为NELL会学习类别的互斥类别,可以新增。还有一个因素是就是数量,一个类别较少时候, 会导致传播失误。

另一个因素是该类别的实际成员数量:

例如,类别“星球”只有少数实际成员,但NELL正在寻找更多,所以它提出了诸如“反地球”和“小行星ida”之类的成员。在某些情况下,NELL在谓词到期时失败了 由于其引导学习而传播的特定错误。 例如,对于“运动队位置”类别,NELL有许多正确的成员,例如“四分卫”和“第一垒”,但它已经获得了一个系统错误,因为他们坚信以“层”结尾的短语(例如,“ 防御层“和”云层“)指的是运动位置。 虽然有些人这样做,但大多数人都没有,但NELL没有简单的方法来确定这一点。所以后面会抓取不那么常见的属性,

  • 以后的方向

(1)为NELL增加一个自我反思能力,使其能够检测到它在哪里做得很好,在哪里做得很差,当它已经充分填充任何给定的类别或关系时,使其能够以更智能的目标分配其工作 时尚,

(2)扩大NELL用于提取信念的数据范围,例如通过包括英语以外的语言,图像数据和Twitter,

(3)通过更多地依靠自动算法发明新的关系和类别,以及将其他开源本体(如DBpedia)合并到NELL的本体中,大大扩展了NELL的本体论。

(4)为NELL添加新一代的“微读”方法 - 对单个句子和文本段落进行深度语义分析的方法,因此不需要依靠网络冗余来实现准确的阅读。 我们目前正在积极探索这些方向

NELL速度在下降,至少对于高置信度的数据,因为NELL会很早的提取出常见的信念,

最后讨论

优势

  • 多个函数学到的东西相互约束

  • 可以学习额外的约束

  • 学习新关系,实现无止境学习

  • 将一组学习任务组织成一个容易上手的难度课程。 考虑到一系列复杂的学习任务,通常情况下,某些学习任务更容易,有些学习任务可以为其他人提供必要的知识。 在NELL,我们通过随着时间的推移手动引入新类型的学习任务来进化系统。 在NELL的前六个月,其唯一的任务是将名词短语分类为类别,将名词短语对分类为关系。 后来,一旦它在这些方面达到某种程度的能力,并相应地增加了它的KB,它就可以面对更具挑战性的任务。 此时,我们引入了数据挖掘KB的任务,以发现有用的Horn子句规则,以及根据NELL的类别实例知识发现新的关系谓词的任务。 一个关键的开放式研究问题是学习代理本身如何发展一个有用的学习任务课程。…

劣势

  • 自我反思和学习子目标的明确议程。 目前,NELL因其监控自身业绩和进展的能力非常弱而受到影响。 例如,它没有注意到它在过去一年中没有学到“国家”类别的有用新成员,尽管它在这方面的知识已经饱和,但它仍在继续解决这个问题。 此外,它没有尝试将其学习努力分配给将特别有效的任务(例如,收集描述其仅具有低置信度信念的实体的新网络文本)。 很明显,开发自我反思能力来监测和估计其自身的准确性,并根据感知需求规划特定的学习行动,将使系统更有效地使用其计算工作。
  • 普遍的可塑性。 尽管NELL能够通过学习来修改其行为的许多方面,但其行为的其他部分却是无法修改的。 例如,NELL用于检测文本中的名词短语的方法是不对学习开放的固定过程。 在设计永无止境的学习代理时,理解如何构建代理以使其尽可能多的行为方面是可塑的,即对学习开放是很重要的。 否则,代理会冒着达到性能平台的风险,其中进一步的改进需要修改系统本身不可修改的部分。
  • 表征和推理。 目前,NELL使用简单的基于框架的知识表示,由PRA推理系统增强,该系统基于受限制的Horn子句执行易处理但有限类型的推理。 NELL的能力已经局限于其缺乏更多

    强大的推理组件:目前缺乏表示和推理时间和空间的方法。 因此,代表性和易处理性推理的核心AI问题也是永无止境的学习代理人的核心研究问题。

缺陷

  • 无法判断正确

  • 学习平台问题

相关阅读

分享到:

栏目导航

推荐阅读

热门阅读