参考:
自然语言处理与词嵌入
Natural Language Processing and Word Embeddings
词嵌入(word embeddings),这是语言表示的一种方式,可以让算法自动的理解一些类似的词,比如 男人对女人,比如 国王对王后
one-hot 向量来表示词,缺点:它把每个词孤立起来,算法对相关词的泛化能力不强(每两个词之间的向量内积都是0)
用词嵌入做迁移学习的步骤:
词嵌入 在语言模型、机器翻译领域用的少一些,因为这些任务你有大量的数据(可用于训练,不必使用迁移)
人脸识别中的人脸Encoding算法,未来可能涉及到海量的人脸照片 而自然语言处理 有一个固定的词汇表 embedding,而像一些没有出现过的单词我们就记为 未知单词UNK
总结:
用词嵌入来实现迁移学习,抛弃原来的one-hot表示,而是用之前的嵌入的向量,你的算法会泛化的更好,你也可以从较少的标记数据中进行学习
我们的目标是学习一个嵌入矩阵。
我们将随机地初始化矩阵,然后使用梯度下降法来学习这个300×10000
的矩阵中的各个参数,然后取出你需要的列
如果想建立一个语言模型,用目标词的前几个单词作为上下文是常见做法
如果你的目标是学习词嵌入,那么你就可以用这些其他类型的上下文(下图所示),也能得到很好的词嵌入
为了解决 softmax 对分母求和很慢的问题:
如果对上下文进行随机均匀采样,像 the、of、a、and、to 之类出现得相当频繁,于是你会发现你的上下文到目标词的映射会相当频繁地得到这些种类的词。
实际上,词p(c) 的分布并不是单纯的在训练集语料库上均匀且随机的采样得到的,而是采用了不同的分级来平衡更常见的词和不那么常见的词
以上就是 Word2Vec 的其中一种 Skip-Gram 模型,另一个叫做CBOW,即连续词袋模型(Continuous Bag-Of-Words Model),它获得中间词两边的上下文,然后用周围的词去预测中间的词,这个模型也很有效
总结下:CBOW是从原始语句推测目标字词;而Skip-Gram正好相反,是从目标字词推测出原始语句。
CBOW对小型数据库比较合适,而Skip-Gram在大型语料中表现更好
构造一个新的监督学习问题,就是给定一对单词,比如orange和juice,要去预测这是否是一对上下文词-目标词(context-target)
选取负样本采用经验分布:
因为在softmax分类器中计算成本很高。本节我们学到了如何通过将其转化为一系列二分类问题使你可以非常有效的学习词向量。
当然网上也有别人预训练过的词向量,你想要在NLP问题上取得快速进展,去下载他人的词向量是很好的方法,在此基础上改进
GloVe代表用词表示的全局变量(global vectors for word representation)
情感分类一个最大的挑战就是可能标记的训练集没有那么多。
对于情感分类任务来说,训练集大小从10,000到100,000个单词都很常见,甚至有时会小于10,000个单词,采用了词嵌入能够带来更好的效果(泛化好),尤其是只有很小的训练集时。
根据训练模型所使用的文本,词嵌入能够反映出性别、种族、年龄、性取向等其他方面的偏见,修改学习算法来尽可能减少或是理想化消除这些非预期类型的偏见是十分重要的