请选择 进入手机版 | 继续访问电脑版

大唐名人网

 找回密码
 暂停注册
大唐名人网 门户 IT 查看内容

斯坦福深度学习课程:词向量内部和外部任务评价

2016-6-13 20:46| 发布者: admin| 查看: 327| 评论: 0

  2016-06-13 大数据文摘

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

  像追美剧一样追课程!

  大数据文摘已获斯坦福大学深度学习课程CS224d翻译授权,

  重磅启动“斯坦福深度学习课程CS224d”的翻译工程,

  所有译文将会免费发布,计划每周发布1篇。

  期待你的加入,加入要求见文末

  报名请点击文末“阅读原文”。

  大数据文摘作品,转载需授权

  翻译:熊杰 王昱森

  调整校对:寒小阳 龙心尘

  特别鸣谢:曾宪超

  大数据文摘“机器学习”专栏介绍

  本文为大数据文摘机器专栏推出的学习分享项目启动篇,我们将以Stanford、Harvard等优秀高校的前沿数据科学课程为主线的学习与分享,将数据科学普及给更多国内的读者,也通过相互学习和交流加深对数据领域知识的理解认识。

  课堂笔记:第二节

  关键词:内部任务评价(Intrinsic Evaluation)和 外部任务评价(extrinsic evaluations)。超参数影响下的类比评价任务。人类决策和词向量距离的相关性。结合上下文处理歧义。窗口分类。

  这个课堂笔记我们将会对词向量(也就是词嵌入)的内部任务评价和外部任务评价方法进行讨论。主要的内容是单词类比(word analogies)技术,我们会把它当做内部任务评价的技术并展示其相关示例,它会在词向量的调谐(tune)中发挥重要作用。我们还会讨论如何训练模型的权重/参数,并关注用来进行外部任务评价的词向量。最后,我们会简单地提到人工神经网络,它在自然语言处理中表现极好。

  ◆ ◆ ◆

  1、词向量的评价

  在前面的Lecture1中,我们讨论了Word2Vec和GloVe等词嵌入的方法。它们用来训练和发现词汇在语义空间中的向量表示。今天我们来探讨如何对词向量的效果进行评价。

  1.1 内部任务评价

  内部任务评价是对在特定子任务(如完成单词类比)中生成的词向量进行的评价,这些词向量可以由词嵌入技术(如Word2Vec和GloVe)生成。这些子任务往往很简单,计算速度很快,可以帮助我们理解生成这些词向量的系统。一个内部任务评价往往返回一个数值,来表示这些词向量在子任务上的表现。

斯坦福深度学习课程:词向量内部和外部任务评价

  图1:左侧子系统(红)训练消耗较大,通过替换为一个简单的内部任务评价子系统(绿)来优化。

  内部任务评价的特点如下:

  •   一般是在一个特定的子任务中进行评测

  •   计算很快

  •   有助于理解相关的系统

  •   在实际的NLP任务中表现好坏,可能需要外部关联实际应用

  咱们考虑一个例子,比如我们的目标是要建立一个以词向量为输入,能够回答问题的系统。一种方法是训练一个机器学习的模型,主要步骤如下:

  1.   输入词语

  2.   将词语转换成词向量

  3.   将词向量作为一个复杂的机器学习系统的输入

  4.   把系统的输出映射到自然语言词汇

  5.   生成词语组成答案

  显然,为了训练这样一个问答系统,我们需要为下游机器学习系统(比如深度神经网络)建立一个最优的词向量表示。这在实际操作中,就需要我们调节Word2Vec 子系统中的许多超参数(如向量维度)。 尽管最理想的方法是每次调整参数后重新训练整个系统,但这在工程上是不现实的。因为这里的机器学习系统(第3步)一般都是一个含有几百万参数的深度神经网络,需要极长时间去训练。等得花儿都谢了。 所以,我们希望有一个简单的内部任务评价方法来评价词向量生成系统的好坏。显然,其中一个要求是内部任务评价结果和整个系统的最终精度是正相关的。

  1.2 外部任务评价

  外部任务评价是对在实际任务中产生的词向量进行的评价。这些任务通常是很复杂的,且它们的计算过程比较缓慢。在我们前面使用的例子中,允许基于问题对答案进行评估的系统是一种外部任务评价系统。一般来讲, 优化外部评价系统的时候我们无从知晓是哪个子系统除了问题,所以需要进一步进行内部任务评价。

  外部任务评价的特点如下:

  •   在一个实际任务中进行评测

  •   需要花很长的时间来计算精度

  •   不太清楚是否是某个子系统或者其他子系统,又或是几个子系统互相作用引起的问题

  •   如果替换原有的子系统后获得精度提升,则说明替换很可能是有效的

  1.3内部任务评价示例: 词向量类比

  一个比较流行的内部任务评价是词向量类比的。 在词向量类比中,我们先输入一组不完整的类比:

  a:b::c:?

  内部任务评价系统找出最大化余弦相似度的词向量

斯坦福深度学习课程:词向量内部和外部任务评价

  我们可以直观地解释这个衡量指标。理想情况下,我们想得到xb?xa=xd?xc(例如,王后–国王 = 女演员 – 男演员)。于是xb?xa+xc=xd, 所以我们只需要找出一个与xb?xa+xc的标准化内积(比如余弦相似度)取最大值的词向量就可以了 。

  使用内部任务评价的时候需要比较谨慎,要考虑到训练文集的各个方面。例如,如下形式的类比

  城市1 : 城市 1所属州 : : 城市2 : 城市2所属州

斯坦福深度学习课程:词向量内部和外部任务评价

  表1:语义词向量类比(内部评价)会因为同名城市而产生问题

  美国有许多同名村镇,所以很多州都符合正确答案。比如在美国至少有十个地方叫Phonix,所以Arizona不一定是唯一的正确答案。 再看以下类比形式:

  首都城市1 : 国家1 : : 首都城市2 : 国家2

斯坦福深度学习课程:词向量内部和外部任务评价

  表2: 这些是语义词向量类比(内部任务评价),此类比存在的问题在于国家在不同时期会有不同的首都

  上面这个例子中的城市只是近期的国家首都。比如,1997年之前Kazakhstan的首都是Almaty。如果我们用来训练的文集比较旧,就很容易出现问题。

  之前的两个例子说明了如何使用词向量进行语义测试。我们还可以使用词向量类比进行语法测试。下面的内部任务评价能够评估词向量获取形容词最高级的能力。

斯坦福深度学习课程:词向量内部和外部任务评价

  表3:语法词向量类比(内部评价)在形容词最高级上的测试

  类似的,下面的内部任务评价能够测试词向量捕捉过去式的能力

斯坦福深度学习课程:词向量内部和外部任务评价

  表 4: 这些是语法词向量类比(内部任务评价),此类比可评估获取过去式的能力

  1.4 内部任务评价调节示例: 类比评测

  我们在内部任务评价任务中调整(tuning)一个词嵌入技术时,可能会考虑一些参数:

  ? 词向量的维度

  ? 资料库的大小

  ? 资料源/类型

  ? 上下文窗口的大小

  ? 上下文的对称性

  大家还能想到其他在这个阶段可以调整的超参数吗?

  我们现在探索一些词向量生成技术(如Word2Vec和GloVe)中可以用内部任务评价调节的参数。我们先看一下在超参数相同的情况下,词向量生成方法在类比评测中的表现。

斯坦福深度学习课程:词向量内部和外部任务评价

  表5:比较不同参数和数据集情况下各种模型的性能

  我们从上表中主要可以看到3点:

  •   精度和使用的模型高度相关:

      这一点并不意外,因为这些生成词向量的方法所依据的特性是完全不同的(如同时出现的次数,奇异向量等。)

  •   文集量越大,精度越高:

      这是因为,例子越多,生成的系统学习到的经验就更丰富。比如在完成词汇类比的例子中,系统如果之前没有接触测试词,就可能会生成错误的结果。

  •   如果维度特别低或特别高,精度就会比较低

      低维度词向量无法捕捉文集中不同词语的不同意义。这可以视为我们模型复杂度过低而导致的高偏差。比如 “king”, “queen”, “man”, “woman” 这几个词,我们需要至少2个维度像”gender” 如 “leadership” 来把它们编译成 2-字节 词向量。 过低的维度将无法捕捉四个词之间的语义差别,而过高的维度将捕捉到一些对泛化能力没有用的噪音– 即高方差的问题。

  tip3: GloVe 一般在使用中间词的两侧大小为8的窗口时表现较好

斯坦福深度学习课程:词向量内部和外部任务评价

  图2:图中能看出训练时间对训练精度的帮助

斯坦福深度学习课程:词向量内部和外部任务评价

  图3:我们可以看到随着文集增大精度的改善

斯坦福深度学习课程:词向量内部和外部任务评价

  图4:我们可以看到GloVe的精度随着向量维度及上下文窗口大小的改变而改变

  1.5 内在评价的例子:相关性评价

  另外一个评测词向量质量的简单方法是人为对两个词的相似度在一个固定区间内打分(比如说 0-10),再跟对应向量的余弦相适度进行对比。这个方法曾在多个包含人为评价的数据集上实施过。

斯坦福深度学习课程:词向量内部和外部任务评价

  表6:这里我们看到不同生成方法产生的词向量的相似度,与人为评价的相关性。

  1.6 延伸阅读:处理多义性

  可能有些同学也想到了,有时候我们会遇到一些特殊的情况:在我们生活中,有时候同一个单词在它的不同上下文和语境下,有着不同的含义/用法,这时候我们希望我们希望用不同的词向量来捕捉到这个单词的不同用法。举个例子说,“跑(run)”既是一个名词又是一个动词,在不同语境中,它可能是不同的词性。Huang等人(2012)在论文《Improving Word Representations Via Global Context And Multiple Word Prototypes》中描述了如何在自然语言处理中解决上面提到的问题。他们提出的方法本质在于以下几点:

  1.   针对目标单词出现的所有位置,收集固定大小的语境窗口(例如,此单词之前的5个单词至此单词之后的5个单词)

  2.   用上下文中词向量的加权平均(用idf-weighting)来表示每段上下文(当前语境) 。

  3.   应用球面k均值算法对第二步中的结果进行聚类。

  4.   最后,每一次的单词出现都被重新标签成它所属的类,并且针对这个类,来训练相对应的词向量

  ◆ ◆ ◆

  2 、对外在性任务进行训练

  前面我们着重讨论了内在性任务,并且强调了它们在生成优质词嵌入技术(词向量)中的重要性。当然,最终目的是利用词向量解决外部的实际问题。 这里我们讨论处理外部任务的一般方法。

  2.1 问题描述

  大多数的NLP外部任务都可以被描述成分类任务。比如说,我们可以对句子做情感分类,判断其指代的情况是褒义,贬义还是中性的。 类似的,在命名实体识别(NER)中,我们需要找出上下文中的中心词所属的类别。例如输入为“Jim bought 300 shares of Acme Corp. in 2006”, 我们期望分类完成后的输出是, “”[Jim]人名bought 300 shares of [Acme Corp.]机构名in [2006]时间.”

斯坦福深度学习课程:词向量内部和外部任务评价

  图5:针对词向量的分类问题,上图是一个二维词向量分类问题,用简单的线性分类器,比如逻辑回归和支持向量机完成分类

  对于这样的问题,我们一般有以下形式的训练集:

斯坦福深度学习课程:词向量内部和外部任务评价

  其中x(i)是用某种方法生成的d纬词向量。y(i) 是一个C维 one-hot 编码向量(译者注:one-hot,“独热”,意为只有一个元素为1,其余元素均为0),用来表示我们最终要预测的标签(感情色彩, 其他词, 专名, 买/卖决策, 等)。在一般的机器学习任务中, 我们通常固定输入数据和目标标签,然后用最优化技术(诸如梯度下降法,L-BFGS法,牛顿法等)训练权重。在自然语言处理中,我们引入了重训练的想法,也就是针对外在性任务时,重新训练输入的词向量。接下来我们讨论何时需要进行这样的操作,以及为什么考虑这么做。

  2.2 重训练词向量

  应用贴士:在训练集比较大的时候,才需要进行词向量重训练,否则反而会影响精度。

  我们一般先用一个简单的内部任务评价来初始化用于外部任务评价的词向量。在很多情况下,这些预训练的词向量的在外部任务中的表现已经非常好了。 然而,一些情况下,这些词向量在外部任务中的表现仍然有提升空间。不过,重训练词向量是由风险的。

斯坦福深度学习课程:词向量内部和外部任务评价

  图6:我们看到”Telly”, “TV”, 和 “Television” 在重训练之前的分类是准确的。”Telly” 和 “TV” 在外部任务训练集中,而”Television”只出现在测试集中。

  如果要在外部任务上重新训练词向量,我们需要保证训练集的大小足够覆盖词库中的大多数单词。因为Word2Vec或GloVe 生成的语义相关的词会在词空间中落在同一部分位置。如果我们用一个比较小的训练集去重训练,这些词在词空间中的位置就会发生变化,在最终任务上的精确度反而可能降低。我们看一个例子。图6中预训练的2维词向量在某个外部分类任务重被正确分类了。 我们如果只重新训练其中两个词向量,因为训练集较小,从图7中我们可以看到,由于词向量的更新,分类边界的变化,其中一个单词被错误的分类了。

  因此,如果训练集较小,则最好不好重训练词向量。如果训练集很大,重训练也许能够提升精度。

斯坦福深度学习课程:词向量内部和外部任务评价

  图7:我们看到”Telly”和”TV”在重训练之后的分类是准确的。而”Television”的分类错了,因为它只出现在测试集中,训练集中没见着。

  2.3 Softmax分类与正则化

  我们知道Softmax分类函数形式大概是下面这个样子:

斯坦福深度学习课程:词向量内部和外部任务评价

  上面我们计算了词向量x属于类别j的概率。然后根据互熵损失函数,一个单词在模型中的损失如下:

斯坦福深度学习课程:词向量内部和外部任务评价

  因为上式中的yj只有在x属于正确的类时才等于1,其他均为0。如果我们假设k是那个正确的类,那上式可以简化为:

斯坦福深度学习课程:词向量内部和外部任务评价

  当然,我们数据集内不止这一个单词,假设我们的训练集是有N个数据点的数据集,那总损失应该有如下的形式:

斯坦福深度学习课程:词向量内部和外部任务评价

  这个公式有一点点不同,注意到其实这里的k(i)现在是个函数,返回每个x(i)所对应的正确的类。

  咱们来估一估,如果我们同时要训练模型中的权重参数(W)和词向量(x), 需要训练多少个参数呢? 一个以d-维词向量为输入,输出一个其在C 个类上的分布的简单的线性模型需要C·d个参数。如果我们训练时更新词库中每个单词的词向量,则需要更新|V|个词向量,而每一个都是d维。综合一下,我们知道,一个简单的线性分类模型需要更新C?d+∣V∣?d个函数。

斯坦福深度学习课程:词向量内部和外部任务评价

  对于一个简单的线性模型来说,这个参数量就显得非常大了,带来的问题是模型很容易在数据集上过拟合。为了缓解过拟合,我们需要引入一个正则项,用贝耶斯的角度来讲,这个正则项其实就是一个给模型的参数加上了一个先验分布,从而希望他们的值更接近0。

斯坦福深度学习课程:词向量内部和外部任务评价

  如果咱们找到合适的正则项权重λ,那最小化上面的损失函数得到的模型,不会出现某些权重特别大的情况,同时模型的泛化能力也很不错。需要多说一句的是,正则化这个操作,在我们接触到神经网络这种复杂的模型的时候,更加重要,咱们更应该约束一下,不让模型那么容易过拟合。

  2.4 词窗分类

斯坦福深度学习课程:词向量内部和外部任务评价

  图8:我们这里看到的是一个中心词,和长度为2的左右窗口内的词。 这种上下文可以帮助我们分辨Paris是一个地点,还是一个人名

  我们前面提到的外部任务都是以单个单词为输入的。实际上,由于自然语言的特性,这种情况很少会出现。在自然语言中,有很多一词多义的情况,这时候我们一般会参考上下文来判断。 比如说,如果你要给别人解释”真有你的”是什么意思。你马上就知道根据上下文的不同,”真有你的” 可以是称赞,也可以是生气。 所以在大多数的情况下,我们给模型输入的是一个词序列。这个词序列由一个中心词向量和它上下文的词向量组成。上下文中词的数量又叫词窗大小,任务不同这个参数的取值也不同。一般来讲,小窗口在句法上的精度较高,大窗口在语义上的表现较好。如果我们要把词窗作为Softmax模型的输入,我们只要把x(i)换成以下形式的

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

  那相应的,我们计算损失函数梯度的时候,得到的就是如下形式的向量了:

斯坦福深度学习课程:词向量内部和外部任务评价

  多说一句的是,这个过程中的每一项其实都是独立的,因此在现在工业界的实际操作中,这一步是可以进行分布式计算的。

  2.5 非线性分类器

斯坦福深度学习课程:词向量内部和外部任务评价

  图9

斯坦福深度学习课程:词向量内部和外部任务评价

  图10

  最后我们简单提一下非线性的分类模型,如神经网络。在图9中我们可以看到很多点被错误的分类了。在图10中,如果使用非线性的决策边界,我们发现训练集中的样本就可以被分对了(因为分界线可以弯曲了嘛)。这是一个简化的例子,但是已经足以说明,为什么实际应用中很多时候需要非线性的决策边界。接下来的课程里,我们会逐步讲到神经网络,这个在深度学习中表现尤为出色的非线性模型。

  附录:斯坦福大学CS224d课程目录

  Lecture 1:自然语言入门与次嵌入(已发布)

  •   1.1 Intro to NLP and Deep Learning

  •   1.2 Simple Word Vector representations: word2vec, GloVe

  Lecture 2:词向量表示:语言模型,softmax分类器,单隐层神经网络(已发布)

  •   2.1 Advanced word vector representations: language models, softmax, single layer networks

  Lecture 3:神经网络与反向传播:命名实体识别案例

  •   3.1 Neural Networks and backpropagation -- for named entity recognition

  Lecture 4:神经网络与反向传播实践与应用建议

  •   4.1 Project Advice, Neural Networks and Back-Prop (in full gory detail)

  Lecture 5:实际应用技巧:梯度检查,过拟合,正则化,激励函数等等的细节

  •   5.1 Practical tips: gradient checks, overfitting, regularization, activation functions, details

  Lecture 6:Tensorflow介绍

  •   6.1 Introduction to Tensorflow

  Lecture 7:应用在语言模型和相关任务上的循环神经网络

  •   7.1 Recurrent neural networks -- for language modeling and other tasks

  Lecture 8:在机器翻译等领域广泛应用的GRU和LSTM

  •   8.1 GRUs and LSTMs -- for machine translation

  Lecture 9:可用于文本解析的循环神经网络

  •   9.1 Recursive neural networks -- for parsing

  Lecture 10:用于其他任务(情感分析,段落分析等)上的循环神经网络

  •   10.1 Recursive neural networks -- for different tasks (e.g. sentiment analysis)

  Lecture 11:用于句子分类的卷积神经网络

  •   11.1 Convolutional neural networks -- for sentence classification

  Lecture 12:嘉宾讲座:Andrew Maas讲述语音识别

  •   12.1 Guest Lecture with Andrew Maas: Speech recognition

  Lecture 13:嘉宾讲座:Thang Luong讲述机器翻译

  •   13.1 Guest Lecture with Thang Luong: Machine Translation

  Lecture 14:嘉宾讲座:Quoc Le 讲述序列到序列学习与大规模深度学习

  •   14.1 Guest Lecture with Quoc Le: Seq2Seq and Large Scale DL

  Lecture 15:自然语言处理上深度学习前沿方向:动态记忆网络

  •   15.1 The future of Deep Learning for NLP: Dynamic Memory Networks

  ◆ ◆ ◆

  斯坦福CS224d翻译项目招募及组队情况

  2016年6月6日,大数据文摘发布了《重磅启动!翻译斯坦福大学课程:深度学习与自然语言处理》一文,宣布正式获得斯坦福大学深度学习课程翻译授权,重磅启动了“斯坦福深度学习课程CS224d”的翻译工程,并且诚招翻译志愿者。

  尽管专栏提出了较高的招募要求,在过去的一周中,我们依然收到了超过60人的报名清单,这些候选人中不乏精英大咖,他们中有的是有30多年相关教学经验的大学教授、有的是踌躇满志在这个领域有着自己独特见解的海外留学生、还有很多在相关行业从业超过10年的专业人士。

  因为课程的专业度较高,本着对读者负责的原则,经过严格的筛选和试译流程,我们从中挑选了8位有着专业素养的译者组成了第一批战队,披挂出征,正式开启了翻译工程。第一篇翻译文章也在今天火热出炉。

  当然,如果你已报名但是还未接到通知,请不要着急,我们的斯坦福课程共包括20+周,简历筛选和试译仍在进行,请耐心等待。

  此外,后期我们还将陆续推出stanford、harvard等优秀高校的前言课程,所需译者还远远不够。如果你也希望像追剧一样翻译课程,希望和志同道合的小伙伴一起将数据科学普及给国内更多的读者,请点击文末阅读原文报名!

  招募要求:

  1.背景需求(满足其一即可):

  专业是机器学习方向、数学统计方向或者ee方向

  从事机器学习、数据挖掘相关工作

  参加过相关数据挖掘竞赛或有相关项目经历者优先

  能够运用markdown写文档加分

  2.英文水平

  翻译能力表达能力尚佳

  课程翻译过程中以意译为主,有一定文字表达功力加分

  3.工作投入

  每周3个小时时长,持续3个月

  如果你也对是相关专业的大拿,如果你也对数据科学/机器学习感兴趣,且乐于分享,请点击文末“阅读原文”报名加入我们。

  ◆ ◆ ◆

  大数据文章斯坦福深度学习课程战队

  专栏主编

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

  译者战队

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

斯坦福深度学习课程:词向量内部和外部任务评价

  项目管理

斯坦福深度学习课程:词向量内部和外部任务评价

  内容运营:魏子敏

  统筹:汪德诚


相关阅读

投稿、合作、联系:admin2#tangedu.cn| 小黑屋|网站地图|大唐名人网 |京ICP备07504790号|

GMT+8, 2022-8-17 16:26 , Processed in 0.079338 second(s), 23 queries .

Powered by Discuz!

© 2001-2015 Comsenz Inc.

返回顶部