腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2422)
视频
沙龙
1
回答
使用相同代码的Lucene
中文
分析器
Jcseg
给出了不同的结果
、
、
使用EJB3.0 + jersey restful + lucene 6.1JcsegAnalyzer5X
jcseg
= (JcsegAnalyzer5X) analyzer;config.setAppendCJKSy
浏览 1
提问于2016-09-06
得票数 0
1
回答
CoreAnnotations中的UTypeAnnotation是做什么的?
我检查了文档,但里面什么也没提到。和
浏览 0
提问于2015-05-27
得票数 0
1
回答
运行斯坦福大学CoreNLP
中文
版的代码片段
我正在使用maven依赖项在
Java
程序中运行CoreNLP。我需要在原始
中文
文本上运行NER。有没有人能提供一个代码片段来做这件事?我找到了说明:“……你首先需要运行斯坦福
分词
程序或其他一些
中文
分词
程序,然后在输出上运行NER!”但我想不出该怎么做。
浏览 2
提问于2016-01-21
得票数 1
1
回答
从solr分析服务请求
分词
、
、
我已经安装了solr及其
中文
分词
软件包。它在中工作得很好。solr分析工具可以很好地与
中文
分词
软件包配合使用。 我的问题是,如何将
分词
请求传递给solr,以及如何获得良好的响应?
浏览 1
提问于2011-12-22
得票数 0
1
回答
错误:找不到或加载主类edu.stanford.nlp.ie.crf.CRFClassifier
、
我试着用StanfordSegmenter来分割一段
中文
,但遇到了标题问题。我第一次从下载斯坦福
分词
器3.5.2版本import osfrom nltk.tokenize.stanford_segmenter import StanfordSegmenter s
浏览 1
提问于2016-11-05
得票数 1
1
回答
在哪里可以找到文件`slf4j-api.jar‘
、
、
、
我正在尝试使用NLTK和Stanford Segmenter相结合的方法进行
中文
分词
,但在一开始就卡住了。我不知道在哪里可以找到文件slf4j-api.jar。我不熟悉
JAVA
。
浏览 1
提问于2017-05-31
得票数 0
1
回答
如何将汉字音译为注音(
Java
)
、
、
、
如何将繁体或简体汉字转换为注音注音符号?# simplified沒關係 --> ㄇㄟˊㄍㄨㄢㄒㄧ
浏览 8
提问于2019-12-06
得票数 1
5
回答
如何避免重复加载大文件?
、
、
、
、
我正在尝试从python中调用一个
Java
程序(斯坦福
中文
分词
程序)。
Java
程序需要加载一个大的(100M)字典文件(帮助
分词
的单词列表),这需要12+秒。以下是代码的相关部分: '-mx2g', '-cp
浏览 4
提问于2012-01-28
得票数 4
回答已采纳
1
回答
使用NLTK为
中文
运行StanfordPOSTagger时的意外格式
、
、
、
、
nltk.tag import StanfordPOSTagger print(st.tag('这 是 斯坦福
中文
分词
器 测试'.split()))[('', '这#PN'), ('', '是#VC'), ('', '斯坦福#NR'), ('',
浏览 6
提问于2017-08-07
得票数 2
回答已采纳
2
回答
使用ICU进行
分词
、
、
、
、
我想知道是否有可能在ICU中进行
分词
,根据一些
分词
标准将
中文
文本分割成一系列的单词。不过,我正在寻找的内容更像下面的文本(我不懂任何
中文
,所以下面的文本可能没有任何意义,但它应该说明我对哪种输出感兴趣):说ICU50能够
分词
,但我在他们的网页上也找不到任何文档。想知道你们中是否有人在ICU中使用过
分词
,或者知道如何进行
分词
,或者是
浏览 3
提问于2012-11-21
得票数 0
回答已采纳
4
回答
响应本机<Text>元素上的控制字/文本中断
是否有一种方法来控制文本组件
中文
本的
分词
行为?在iOS上有一个多行的文本组件,它会自动在有
分词
的地方分解文本(我还没有检查android,但我也需要它在那里工作)。
浏览 0
提问于2019-08-20
得票数 4
回答已采纳
1
回答
斯坦福
分词
器简介
、
、
最近,我尝试使用斯坦福
分词
器来处理Python中的
中文
数据。但当我运行分割器时,我遇到了一些问题。然而,当我试图在一个句子中分割
中文
单词时,
分词
器没有工作。sentence = u'这是斯坦福
中文
分词
器测试' Exception in thread "main"
java
.lang.UnsupportedClassVersionError(ClassLoader.
j
浏览 4
提问于2017-08-13
得票数 1
1
回答
text2vec包可以拆分
中文
句子吗?
、
、
如何在text2vec中设置切分
中文
的itoken?这个例子是针对英语的!目前已有的
中文
分词
软件包有:解霸等,但我想用text2vec做文本聚类和线性回归模型。此外,如何进行文本聚类?J(train_ids)]#文档向量化#代表词语划分到什么程度#步骤1.设置
分词</
浏览 10
提问于2017-05-04
得票数 0
2
回答
有没有一种在c++中检测汉字的方法?(使用助推)
、
、
、
在一个数据处理项目中,我需要检测汉语中的拆
分词
(
中文
中的单词不包含空格)。是否有一种使用本机c++特性或boost.locale库检测汉字的方法?
浏览 7
提问于2020-06-23
得票数 2
回答已采纳
2
回答
分词
统计法
、
、
你能告诉我一些关于这些算法在
分词
问题上的应用的信息吗? UPD:我已经使用Peter Norvig的中的一些建议在Clojure上实现了这个方法
浏览 4
提问于2012-03-12
得票数 7
回答已采纳
1
回答
如何在
Java
中使用StanfordNLP
中文
分词
?
、
Using mention detector type: rule如何正确使用StanfordNLP
中文
分词
工具?
浏览 21
提问于2016-07-15
得票数 0
2
回答
python 3.5 nltk Stanford segmenter windows 10
、
path_to_sihan_corpora_dict=corporadict,path_to_model=modelpath,path_to_dict=dictpath)res = segmenter.segment(u"这是斯坦福
中文
分词
器Py
浏览 16
提问于2017-06-28
得票数 0
回答已采纳
1
回答
神经标记器是如何工作的?
、
我一直在尝试构建一个NN标记器,其中输入将是字符和输出,令牌。我发现做类似事情的源代码要么是旧的,要么不是简单易学的。你能描述这种模型的输入和输出的形状和意义吗?如果输出是一个热的,那么它是不是太重了,因为令牌的总数大约是100到100万(可能的英语单词数)? 您是否推荐使用keras/tensorflow (希望2.0)训练令牌器的教程或示例?
浏览 0
提问于2020-10-15
得票数 -1
1
回答
引导程序:文本在列表组项框之外。
、
、
、
所以我正在制作一个电影网站来练习一些技巧。头版上有一部电影,里面显示了一些评论。不幸的是,当审查时间太长时,它会突破框的边界,而不是从新的行开始。有人知道怎么解决这个问题吗?我的模板代码(角)<div class="container col-md-12"> <hr> <img [sr
浏览 0
提问于2018-02-19
得票数 1
回答已采纳
1
回答
中文
分词
器stanford core nlp
、
、
有没有人能帮我用斯坦福的核心nlp来标记化
java
中的
中文
文本?
浏览 0
提问于2015-05-29
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
“结巴”中文分词:做最好的 Python 中文分词组件
PHP中文分词扩展
简单有效的多标准中文分词
中文分词系列之基于 AC 自动机的快速分词
Python中文分词工具:Jieba的基本使用
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券