Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >自然语言处理构建文本向量空间1.百科2.源代码3.参考:

自然语言处理构建文本向量空间1.百科2.源代码3.参考:

作者头像
JasonhavenDai
发布于 2018-04-11 06:26:57
发布于 2018-04-11 06:26:57
53500
代码可运行
举报
文章被收录于专栏:JasonhavenDaiJasonhavenDai
运行总次数:0
代码可运行

1.百科

  • TF-IDF

2.源代码

  • 系统环境

python 3.6 scikit-learn==0.19.1

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# utf-8

import os
import math
import numpy as np

'''
不使用NLTK和Scikits-Learn包,构建文本向量空间模型

reference:
https://mp.weixin.qq.com/s/DisMF8frY2pkpGMfrWk4Wg
'''


def load_doc_list(file):
    with open(file, 'r') as f:
        return f.read().splitlines()


'''
第一步:Basic term frequencies

frequencies:计算文本各行的单词频度(出现次数),存在问题,文本空间大小不一样
build_lexicon:创建词汇表,以便构造相同文本空间向量(特征向量)
tf:调用freq,计算单词在文档中出现的次数
'''


def frequencies(doc_list):
    from collections import Counter
    counters=[]
    for doc in doc_list:
        c=Counter()
        for word in doc.split():
            c[word]+=1
        counters.append(c)
    return counters


def build_lexicon(corpus):
    lexicon=set()
    for doc in corpus:
        lexicon.update([w for w in doc.split()])
    return lexicon

def tf(term,doc):
    return freq(term,doc)

def freq(term,doc):
    return doc.split().count(term)


'''
第二步:Normalizing vectors to L2 Norm = 1
如果有些单词在一个单一的文件中过于频繁地出现,它们将扰乱我们的分析。
我们想要对每一个词频向量进行比例缩放,使其变得更具有代表性。换句话说,我们需要进行向量标准化,需要确保每个向量的L2范数等于1
l2_normalizer


'''

def l2_normalizer(vec):
    denom = np.sum([el**2 for el in vec])
    return [(el / math.sqrt(denom)) for el in vec]

'''
第三步:逆向文件频率(IDF)频率加权
利用反文档词频(IDF)调整每一个单词权重
对于词汇中的每一个词,我们都有一个常规意义上的信息值,用于解释他们在整个语料库中的相对频率。
回想一下,这个信息值是一个“逆”!即信息值越小的词,它在语料库中出现的越频繁。
为了得到TF-IDF加权词向量,你必须做一个简单的计算:tf * idf。
numDocsContaining
idf
build_idf_matrix
'''
def numDocsContaining(word, doclist):
    doccount = 0
    for doc in doclist:
        if freq(word, doc) > 0:
            doccount +=1
    return doccount


def idf(word, doclist):
    n_samples = len(doclist)
    df = numDocsContaining(word, doclist)
    return math.log(n_samples / 1+df)


def build_idf_matrix(idf_vector):
    '''
    将IDF向量转化为BxB的矩阵了,矩阵的对角线就是IDF向量,这样就可以用反文档词频矩阵乘以每一个词频向量
    '''
    idf_mat = np.zeros((len(idf_vector), len(idf_vector)))
    np.fill_diagonal(idf_mat, idf_vector)
    return idf_mat



if __name__ == '__main__':
    os.chdir('./python')
    file="vector.txt"
    doc_list=load_doc_list(file)
    
    # counters=frequencies(doc_list)
    # for counter in counters:
    #     print(counter)
    
    vocabulary=build_lexicon(doc_list)
    # print(vocabulary)
    doc_term_matrix =[]
    for doc in doc_list:
        # print("doc = ",doc)
        doc_term_vector = [tf(word, doc) for word in vocabulary]
        # print("vec = ",doc_term_vector)
        doc_term_matrix.append(doc_term_vector)
    # print(doc_term_matrix)
    doc_term_matrix_l2 = []
    for vec in doc_term_matrix:
        doc_term_matrix_l2.append(l2_normalizer(vec))
    # print('A regular old document term matrix: ')
    # print(np.matrix(doc_term_matrix))
    # print('A document term matrix with row-wise L2 norms of 1:')
    # print(np.matrix(doc_term_matrix_l2))

    idf_vector = [idf(word, doc_list) for word in vocabulary]
    print('Our vocabulary vector is [' + ', '.join(list(vocabulary)) + ']')
    print('The inverse document frequency vector is [' + ', '.join(
        format(freq, 'f') for freq in idf_vector) + ']')
    
    idf_matrix = build_idf_matrix(idf_vector)
    # print(idf_matrix)

    #tf*idf
    doc_term_matrix_tfidf = []
    #performing tf-idf matrix multiplication
    for tf_vector in doc_term_matrix:
        doc_term_matrix_tfidf.append(np.dot(tf_vector, idf_matrix))

    #normalizing
    doc_term_matrix_tfidf_l2 = []
    for tf_vector in doc_term_matrix_tfidf:
        doc_term_matrix_tfidf_l2.append(l2_normalizer(tf_vector))
    print(vocabulary)
    print(np.matrix(doc_term_matrix_tfidf_l2)) # np.matrix() just to make it easier to look at

3.参考:

  1. http://python.jobbole.com/81311/
  2. http://stanford.edu/~rjweiss/public_html/IRiSS2013/text2/notebooks/tfidf.html
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017.12.28 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
关于自然语言处理,数据科学家需要了解的 7 项技术
现代公司要处理大量的数据。这些数据以不同形式出现,包括文档、电子表格、录音、电子邮件、JSON以及更多形式。这类数据最常用的记录方式之一就是通过文本,这类文本通常与我们日常所使用的自然语言十分相似。
CDA数据分析师
2020/05/06
1.2K0
自然语言处理:网购商品评论情感判定
自然语言处理(Natural Language Processing,简称NLP),是为各类企业及开发者提供的用于文本分析及挖掘的核心工具,旨在帮助用户高效的处理文本,已经广泛应用在电商、文娱、司法、公安、金融、医疗、电力等行业客户的多项业务中,取得了良好的效果。
不脱发的程序猿
2021/05/08
1.2K0
自然语言处理:网购商品评论情感判定
文本挖掘(二)python 基于scikit-learn计算TF-IDF
简介:前文python jieba+wordcloud使用笔记+词云分析应用讲到可以自定义Idf文档,所以来处理处理。算法已经有现成,本文讲解基本原理及其使用。
forxtz
2021/03/11
4.1K0
文本挖掘(二)python 基于scikit-learn计算TF-IDF
文本数据处理的终极指南-[NLP入门]
简介 实现任何程度或者级别的人工智能所必需的最大突破之一就是拥有可以处理文本数据的机器。值得庆幸的是,全世界文本数据的数量在最近几年已经实现指数级增长。这也迫切需要人们从文本数据中挖掘新知识、新观点。
用户1332428
2018/03/30
1.4K0
文本数据处理的终极指南-[NLP入门]
python文本相似度计算
步骤 分词、去停用词 词袋模型向量化文本 TF-IDF模型向量化文本 LSI模型向量化文本 计算相似度 理论知识 两篇中文文本,如何计算相似度?相似度是数学上的概念,自然语言肯定无法完成,所有要把文本转化为向量。两个向量计算相似度就很简单了,欧式距离、余弦相似度等等各种方法,只需要中学水平的数学知识。 那么如何将文本表示成向量呢? 词袋模型 最简单的表示方法是词袋模型。把一篇文本想象成一个个词构成的,所有词放入一个袋子里,没有先后顺序、没有语义。
小莹莹
2018/04/24
2.7K0
python文本相似度计算
自然语言处理中句子相似度计算的几种方法
在做自然语言处理的过程中,我们经常会遇到需要找出相似语句的场景,或者找出句子的近似表达,这时候我们就需要把类似的句子归到一起,这里面就涉及到句子相似度计算的问题,那么本节就来了解一下怎么样来用 Python 实现句子相似度的计算。
崔庆才
2018/06/08
3.2K0
自然语言处理中句子相似度计算的几种方法
python文本相似度计算
两篇中文文本,如何计算相似度?相似度是数学上的概念,自然语言肯定无法完成,所有要把文本转化为向量。两个向量计算相似度就很简单了,欧式距离、余弦相似度等等各种方法,只需要中学水平的数学知识。
周小董
2019/03/25
5.1K0
python文本相似度计算
【一文讲解深度学习】语言自然语言处理(NLP)第一篇
NLP(Nature Language Processing,自然语言处理)是计算机及人工智能领域的一个重要的子项目,它研究计算机如何处理、理解及应用人类语言。是人类在漫长的进化过程中形成的计算机语言复杂的符号等系统(类似C/Java的符号等系统)。以下是关于自然处理的常见定义:
苏州程序大白
2022/04/14
1.7K0
【一文讲解深度学习】语言自然语言处理(NLP)第一篇
基于k-means++和brich算法的文本聚类
分词和过滤停用词,这里分词有两步,第一步是对停用词进行分词,第二步是切分训练数据。
opprash
2019/09/09
2.5K0
关于自然语言处理系列-关键词提取
自然语言处理包括中文分词、词性标注、关键词抽取、依存句法分析、文本分类接口情感分析、词义相似度计算、实体标识、文本摘要等等,慢慢来吧,看看一步步能到什么程度。本文实现的是关键词提取。
python与大数据分析
2022/03/11
4960
关于自然语言处理系列-关键词提取
基于深度学习和经典方法的文本分类
本文研究了一种使用CNN和LSTM进行文本分类的方法,通过实验和对比,发现CNN在新闻分类任务上表现较好,LSTM在短文本分类任务上表现较好。同时,本文还探讨了预训练词向量在文本分类中的作用,并提出了改进的预训练词向量方法。
段石石
2017/06/27
9.8K0
基于深度学习和经典方法的文本分类
[NLP]TFIDF算法简介
词频-逆文档频率(Term Frequency-Inverse Document Frequency,TF-IDF)是一种常用于文本处理的统计方法,可以评估一个单词在一份文档中的重要程度。简单来说就是可以用于文档关键词的提取。
活用数据
2022/03/29
1K0
[NLP]TFIDF算法简介
(二)中文文本分类--机器学习算法原理与编程实践 - 简书
本章知识点:中文分词,向量空间模型,TF-IDF方法,文本分类算法和评价指标 使用的算法:朴素的贝叶斯算法,KNN最近邻算法 python库:jieba分词,Scikit-Learning 本章目标:实现小型的文本分类系统 本章主要讲解文本分类的整体流程和相关算法
会呼吸的Coder
2020/02/17
1.5K0
基于自然语言处理的垃圾短信识别系统
本项目旨在利用自然语言处理(NLP)技术,开发一个高效的垃圾短信识别系统。通过分词、停用词处理、情感分析和机器学习模型,实现对垃圾短信的自动分类和识别,提高短信过滤的准确性和效率。
LucianaiB
2025/01/25
1810
基于自然语言处理的垃圾短信识别系统
自然语言处理︱简述四大类文本分析中的“词向量”(文本词特征提取)
本篇是笔者刚刚入门所写,那么在阅读CIPS2016之后,根据里面的内容重新梳理了一遍,从CIPS2016里面相关内容来看,笔者本篇内容所写的,总结的还是很全面的,当时写的时候才入门NLP一个月,还是棒棒哒~让我傲娇一下,新博客链接:
悟乙己
2019/05/26
3K0
DL杂记:word2vec之TF-IDF、共轭矩阵、cbow、skip-gram
版权声明:本文为博主原创文章,未经博主允许不得转载。有问题可以加微信:lp9628(注明CSDN)。 https://blog.csdn.net/u014365862/article/details/87800246
MachineLP
2019/05/26
8080
理想汽车今年薪资,太猛了。。。
就拿今天看到的一位同学来说,nlp的薪资给到了39k,14薪。如果再加上七七八八,年包能到60~70w。
Python编程爱好者
2024/01/22
2810
理想汽车今年薪资,太猛了。。。
python根据BM25实现文本检索
目的 给定一个或多个搜索词,如“高血压 患者”,从已有的若干篇文本中找出最相关的(n篇)文本。 理论知识 文本检索(text retrieve)的常用策略是:用一个ranking function根据
用户1332428
2018/03/09
3.3K0
python根据BM25实现文本检索
【深度学习】自然语言处理
NLP(Nature Language Processing,自然语言处理)是计算机学科及人工智能领域一个重要的子学科,它主要研究计算机如何处理、理解及应用人类语言。所谓自然语言,指人说的话、人写的文章,是人类在长期进化过程中形成的一套复杂的符号系统(类似于C/Java等计算机语言则称为人造语言)。以下是关于自然语言处理常见的定义:
杨丝儿
2022/03/20
7900
【深度学习】自然语言处理
【AI】探索自然语言处理(NLP):从基础到前沿技术及代码实践
自然语言处理(NLP)是人工智能领域的一个重要分支,它使计算机能够理解、生成、分析和与人类语言进行交互。随着科技的不断发展,NLP技术得到了显著提升,尤其是在深度学习的帮助下,NLP正在越来越广泛地应用于各种领域,如搜索引擎、智能助手、机器翻译、语音识别和情感分析等。
云边有个稻草人
2025/02/03
2330
推荐阅读
相关推荐
关于自然语言处理,数据科学家需要了解的 7 项技术
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验