腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(253)
视频
沙龙
1
回答
Univocity
-如何动态提供日期格式
、
、
我正在尝试使用
univocity
解析器验证项目中的日期字段。谢谢!
浏览 28
提问于2021-02-20
得票数 4
回答已采纳
1
回答
统一- AutomaticConfiguration不与MultiBeanListProcessor一起工作
、
;import com.
univocity
.parsers.annotations.Parsed;import com.
univocity
.parsers.fixed.FieldAlignment;
浏览 3
提问于2017-03-21
得票数 1
回答已采纳
1
回答
为什么我们不能使用apache camel中的
univocity
解析器将数据解组到bean中?
、
、
、
Univocity
解析器支持在用纯java - 编写的bean中读取数据为什么在
univocity
中支持读入bean
浏览 10
提问于2021-01-05
得票数 2
1
回答
如何从
Univocity
解析器快照创建jar文件?
、
、
我想使用
Univocity
解析器在2.0.0-SNAPSHOT中提供的新功能。我使用的是IntelliJ,而不是Maven,目前在项目库中有
univocity
-parsers-1.5.6.jar,我想用从2.0.0-SNAPSHOT创建的jar替换它。如何从
Univocity
解析器快照创建jar文件? 任何帮助都将不胜感激。
浏览 3
提问于2015-11-12
得票数 0
1
回答
如何使用scala将RDD[某个case类]转换为csv文件?
、
、
build.sbt文件中添加的依赖项是: libraryDependencies ++= Seq( "com.
univocity
" % "
univocity
-parsers" % "1.5.1", "org.slf4j" % "slf4j-api" % "1.7.5" % &qu
浏览 38
提问于2019-06-28
得票数 0
1
回答
在我的应用程序中动态地加载com.databricks:星火-csv星火包
、
我需要动态地将com.csv星火包加载到我的应用程序中,使用spark提交,它可以工作 --deploy-mode client --packages com.databricks:spark-csv_2.11:1.4.0 target/scala-2.10/ra-etl_2.10-1.0.0.jar LOAD GGSN /data-sources/DXE_Ver/1_4/MTN_Abuja/GGSN/20160221/
浏览 6
提问于2016-08-16
得票数 2
1
回答
opencsv:如何解析单元格内带有双引号的数据?
、
、
我正在尝试使用 (版本3.10)解析一些公共数据。下面是获取CSV并将记录映射到POJO列表的代码片段:InputStream permitInputStream = permitsURL.openStream(); CsvToBean<Permit
浏览 2
提问于2017-09-05
得票数 1
回答已采纳
2
回答
用于
Univocity
CSV解析器的Spark java.lang.NoSuchMethodError setDelimiter方法
、
我正在尝试运行一个使用
Univocity
CSV解析器的Scala Spark作业,在升级到支持字符串分隔符(vs only character)后,在集群中运行jar时出现以下错误。(Ljava/lang/String;)V我尝试了以下方法:通过检查依赖关系树,消除了所有冲突的单一性解析器: mvn依赖:树-Dverbo
浏览 42
提问于2019-07-29
得票数 0
1
回答
Univocity
解析器自定义行分隔符
、
、
我正在尝试使用
Univocity
解析器逐行解析CSV,其中每个“行”都运行到、结束。 我尝试过使用.setLineSeparator(",END");,但它似乎被限制为2个字符。有没有办法使用
Univocity
来解析超过2个字符的行分隔符?
浏览 50
提问于2020-11-03
得票数 0
回答已采纳
1
回答
Apache :统一地图解编组NullPointer
、
、
(Unmarshaller.java:188) ~[camel-
univocity
-parsers-3.12.0.jar:3.12.0]at org.apache.camel.dataformat.
univocity
.Unmars
浏览 0
提问于2021-10-25
得票数 0
2
回答
使用Kotlin进行多列文件解析
、
我有一个四列的文本文件,想用它创建两个向量。我打算使用第一列和第二列作为混合索引。所以第一列和第二列是整数,第三列和第四列是双精度。在FORTRAN中它将是: 10 READ("4Column_file.txt",*,END=20)N,M,T1,T2 CC(IG)=T1 GOTO 10 6
浏览 20
提问于2019-06-01
得票数 1
回答已采纳
1
回答
Pyspark的sqlContext.read.csv()函数读取的行数比实际.csv文件中存在的行数多
、
、
、
我有一个CSV文件。您可以从获取该文件。这个文件有20050行。某些列具有多行文字。如果我使用以下命令读取此文件:它显示了24230行。如果我将多行选项设置为true,它将显示索引越界异常。任何有效的解决方案都是最受欢迎的。from pyspark.
浏览 1
提问于2019-07-26
得票数 1
2
回答
将本地CSV读取到spark数据集中时出错
、
、
"true")这里建议这样做: java.lang.NegativeArraySizeException at com.
univocity
.parsers.csv.CsvParserSettings.newCharAppender(CsvP
浏览 0
提问于2017-08-29
得票数 1
1
回答
Maven不会导出可运行的JAR
、
、
我应该注意,我的JAR中有一个是maven控制的(
Univocity
),另一个是本地的Oracle JDBC。在我的POM中,我添加了maven-assembly-plugin,当我使用mvn包时,我得到了一个带有
Univocity
库的JAR,但是它跳过了Oracle。>2.0.0</
univocity
.version> <dependency> <groupId>
浏览 5
提问于2016-03-23
得票数 0
1
回答
读取大csv文件,使用
uniVocity
解析器验证和写出
、
、
为此,我选择了
uniVocity
解析器库。请帮助我理解这个库是否适合这个任务,以及应该使用什么方法。 给定文件大小,在
uniVocity
中组织读->验证->写的最好方法是什么?是否有一种在
Univocity
中按索引访问行值的方法?类似于row.getValue(3)?
浏览 2
提问于2015-12-14
得票数 3
回答已采纳
1
回答
使用java库将CSV数据转换为嵌套的json对象。
、
我正在寻找java库,它可以转换csv数据,其中包含嵌套对象(如: address.city,address.country),以便相应地转换为带有嵌套对象的json数据。下面是我使用的java代码:File output = new File("output.json"); .setUseHeader(true).build(); CsvMapper csvMapper = new CsvMap
浏览 2
提问于2018-08-17
得票数 1
1
回答
Univocity
解析器-将csv行解析为现有bean实例
、
我正在尝试使用
univocity
解析器将csv文件解析为bean的新实例和现有实例。csv是通过使用
univocity
为一组bean生成的,我将其称为set A。在supercsv中,我可以这样做:我如何才能在
univocity
中做到这一点?
浏览 12
提问于2017-07-07
得票数 2
回答已采纳
1
回答
Spark
Univocity
解析器- LineSeparatorDetection不工作
、
、
、
我正在尝试使用
univocity
解析器解析 csv文件,该解析器具有以下选项HEADER -> trueMULTILINE -> true DEFAULT_TIME_STAMP
浏览 37
提问于2019-07-18
得票数 0
回答已采纳
1
回答
使用
Univocity
对带注释的bean进行部分记录
、
、
我想让
Univocity
使用实例来确定CSV内容的一部分,即前几列。其余的列由一些复杂的编程逻辑提供,这些逻辑独立于bean实例或类型。我理解
Univocity
可以将带注释的bean转换为记录,但我无法找到如何使用
Univocity
处理带注释的bean以获得部分记录,而我可以编程地确定记录的其余部分,而无需使用注释bean。write the rest of the record writer.writeValuesToRow();} 如何从bean类检索标头,以及如何使用
univo
浏览 5
提问于2020-06-06
得票数 0
2
回答
Spark 2.0 Scala -使用转义分隔符读取csv文件
、
我正在尝试读取一个CSV文件,该文件使用反斜杠来转义分隔符,而不是使用引号。我尝试过在不使用qoutes和使用转义字符的情况下构建DataFrameReader,但它不起作用。似乎“转义”选项只能用于转义引号字符。除了创建自定义输入格式之外,还有什么方法可以解决这个问题吗? spark.read.options(Map( "encoding" -> "utf-8",
浏览 17
提问于2016-09-12
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券