腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么org.apache.scapk.sql.type.在
SparkSQL
中
的
最大精度值是38?
、
、
、
我正在
使用
Apache
的
SQL来处理结构化Bigdata。我偶然发现了
sparkSQL
的
数据类型(特别是DecimalType )
的
使用
,它比
sparkSQL
中
的
任何其他数据类型都支持最多
的
数据存储,但是即使根据文档:,也可以找到38种精度:: 它内部
使用
BigDecimal语言
的
Scala
语言,这使精度接近。我需要实现与
scala
的
BigDe
浏览 3
提问于2016-11-14
得票数 3
1
回答
为什么DataFrame.map抛出
的
异常不匹配?
、
、
起作用
的
是: dfReader.csv(filePath + "stations.csv")17/08/07 11:41:13 INFO BlockManagerInfo: AddedKB, free: 1987.5 MB) 17/08/07 11:41:13 IN
浏览 4
提问于2017-08-07
得票数 2
回答已采纳
2
回答
使用
不同
的
Scala
版本生成两个相同Maven项目的jars
、
、
、
、
我有一个带有
Scala
代码
的
Maven项目,我想根据不同
的
Scala
版本(2.10.6和2.11.8)生成两个jars。如果有人建议解决方案,我如何在单个maven安装执行中实现这一点,或者如果在Maven中有其他方法可以
使用
Maven插件来实现这一点。
浏览 1
提问于2017-10-11
得票数 2
回答已采纳
1
回答
当查询同一表时,sql返回空值,但是hive和impaly获取正常数据?
、
、
、
我在蜂巢里有张桌子以两种方式查询同一表: 但是usr可能会引发python或
scala
scala
> spark.sql("SELECT * FROM kafka_tabl
浏览 0
提问于2019-01-09
得票数 1
1
回答
使用
scala
的
Sparksql
、
scc.createOrReplaceTempView(“k”) spark.sql(“select * from k”).show() 如果您在这里观察到@1,我们正在读取完整
的
表,然后@3,我们正在根据所需
的
查询来获取结果。在这里,读取完整
的
表,然后查询需要花费大量
的
时间。我们不能在建立连接
的
同时执行查询吗?如果您对此有任何先验知识,请务必帮助我。
浏览 5
提问于2019-02-21
得票数 1
1
回答
Oracle到Cassandra数据迁移
的
数据验证
、
、
、
作为ETL流程
的
一部分,我们每天都会将数据从Oracle迁移到Cassandra。我想在两个数据库之间执行数据验证,一旦Spark作业完成,以确保两个数据库同步。我们
使用
的
是DSE 5.1。您能否提供您
的
宝贵意见,以确保数据已正确迁移
浏览 8
提问于2017-06-14
得票数 0
1
回答
在
scala
中读取spark.structType
、
、
我正在运行以下
scala
代码:val df=hiveContext.sql("now it failslog.println(fs.apply("name")) 我知道firstStruct是structType
的
,有人告诉我,spark/hive结构与
scala
不同,但是,为了<em
浏览 1
提问于2016-06-16
得票数 0
1
回答
斯卡拉2.10.4至2.11
的
火花
、
、
、
我需要
使用
超过22列宽
的
表来处理
SparkSQL
。在如何升级和可能
的
跨版本工作方面有帮助吗?我在eclipse中
使用
Scala
,但是由于SchemaRDD
的
问题,我可以迁移到Intellij。 任何帮助都是非常感谢
的
。
浏览 0
提问于2015-02-09
得票数 1
1
回答
使用
普通
Scala
和Spark (行到列)
、
、
我
的
原型(用R写
的
软件包和)在计算复杂性方面遇到了难题--甚至在我强大
的
工作站上也是如此。因此,我希望
使用
Scala
将代码移植到。我查找了所有的、、 (
SparkSQL
)和 (也是
SparkSQL
),并找到了除tidyr::spread()函数之外
的
所有函数
的
等价物。| 1将被转化为------------0 | 1如果
浏览 3
提问于2016-09-12
得票数 1
回答已采纳
1
回答
JDBC -卡桑德拉火花ie连接器可以加入查询工具,例如Tableau/Alteryx/Sqlclient吗?
、
、
、
、
有了
SparkSQL
卡桑德拉连接器,JDBC工具(即DBVisualizer、Tableau、Alteryx.etc)可以将2个Cassandra表与
SparkSQL
连接起来吗?我看到
的
所有文档都提到了joinWithCassandraTable (我认为它只适用于
scala
/java代码或星星之体,而不是标准
的
SQL客户机) 。
浏览 0
提问于2018-06-25
得票数 1
回答已采纳
1
回答
为什么
scala
WrappedArray[Int](null,null)在应用时返回0,发生了什么?
、
、
、
在
使用
sparkSql
U选项函数时,我发现我
的
一些输入列意外地从null变为0。import
scala
.collection.mutable 你能不能找个家人和
scala
一起解释一下为什么和背后发生了什么?
浏览 1
提问于2018-06-12
得票数 1
回答已采纳
1
回答
如何截断spark dataframe列
的
值?
、
、
、
我想为spark数据帧
的
单个列中
的
每个字符串删除字符串
的
最后两个值。我想在spark数据帧中实现这一点,而不是将其移动到pandas,然后再移回来。| name|# | 350|Michael|# | 123| Justin|其中年龄列
的
数据类型是字符串age| name|# | 3|Michael|# | 1| Justin|
浏览 1
提问于2019-06-04
得票数 1
1
回答
星星之火:
Scala
中
的
UUID()函数在哪里?
、
、
、
SparkSQL
有。但是,我在
Scala
中找不到它与Dataset API一起
使用
。expr("uuid()")谢谢。 额外
的
问题:我们在python中有它吗?哪里?
浏览 8
提问于2022-09-21
得票数 2
1
回答
如何在数据库PySpark中
使用
在
Scala
中创建
的
DataFrame
、
、
、
我
的
Databricks笔记本
使用
的
是Python。notebook中
的
一些代码是用
Scala
编写
的
(
使用
%
scala
),其中之一是用于创建数据帧。如果我再次
使用
Python/PySpark (默认模式),我如何
使用
/访问这个在
scala
模式下创建
的
dataframe?谢谢
浏览 14
提问于2019-11-17
得票数 1
回答已采纳
1
回答
没有Encoder[Row]类型
的
隐式参数
、
、
我一直在尝试学习如何在
scala
中
使用
map函数。但是,我一直收到错误No implicit arguments of type Encoder[Row]。我如何才能修复这个错误,而不必创建一个类来定义json是如何建模
的
呢?val spark = SparkSession.builder .master("local[*]") .getOrCreate()val df = spark.read.json("
浏览 371
提问于2021-08-28
得票数 0
回答已采纳
2
回答
通过sparkcontext或hivecontext (而不是通过命令行)通过代码从文件运行配置单元查询
、
考虑到文件中
的
配置单元查询很少,我
的
建议是
使用
hivecontext或sparkcontext运行文件sparkContext.SQL('query') 但是我必须运行一个有查询
的
文件。
浏览 8
提问于2016-11-19
得票数 0
1
回答
如何在Spark中
使用
ASCII函数
、
、
我需要帮助
使用
火花函数ASCII(
sparkSQl
字符串函数)通过
使用
scala
import org.apache.spark.sql.SparkSessionselect ascii('Santosh') 我需要santosh
的
asc
浏览 63
提问于2019-06-25
得票数 0
回答已采纳
1
回答
NoClassDefFoundError: spark应用程序中
的
scala
/产品$class
、
、
我正在
使用
bash脚本构建一个Spark应用程序,并且我在build.sbt文件中只有一个spark-sql和核心依赖项。那么我应该如何改变我
的
依赖关系来解决这个问题呢?val
sparkSql
= "org.apache.spark" %% "spark-sql" % "2.3.3" )), nam
浏览 13
提问于2019-06-08
得票数 1
回答已采纳
1
回答
apache spark add列,这是一个复杂
的
计算
、
、
nullable = false)val df2= df1.select($"id", (
scala
.math.sqrt($"x")+
scala
.math.cqrt($"y")+$"z"*constantKmismatch; foun
浏览 13
提问于2020-10-23
得票数 0
回答已采纳
1
回答
Spark dataset和
scala
.ScalaReflectionException:类型V不是类
、
、
、
String, ws: Map[Int, String])如上所示,这两个字段有一个不同
的
字段println(x))
sparkSQL
.createDataset(Seq(S2("heloo", Map(0 -> "(SQLImplicits.
scala
:33) 这是我<e
浏览 2
提问于2018-01-25
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
《Scala 语言》Scala 中的 Actor 编程
SparkSQL在有赞大数据的实践
Scala的函数
Python和Scala的序列
Python和Scala的定义变量
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券