腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
Spark
Java
框架
中
使用
get
获取
文件
路径
请求
参数
?
、
http://localhost:8000/customer/AppId=API000&FileURL=http://192.0.0.16:8080/test.pdf 我无法
使用
以下代码访问AppId
get
("customer/", "application/json", (request, response)->{ String id = request.queryParams("AppId
浏览 45
提问于2020-09-30
得票数 0
2
回答
如
何在
Spark
框架
中
使用
get
获取
请求
参数
?
、
、
我想
使用
spark
阅读我的
请求
参数
,但是我无法找到正确的语法。请帮帮我。下面是我的路由方法和客户端对它的调用:
路径
法:
get
("smartapp/getDataViewModelConfig/:id", "application/json", (request, r
浏览 3
提问于2015-03-18
得票数 26
回答已采纳
1
回答
如何
获取
上传
文件
的
路径
、
、
我正在谷歌云上运行一个星火集群,并在每个作业中上传一个配置
文件
。
使用
submit命令上载的
文件
的
路径
是什么?在下面的示例
中
,如
何在
初始化Configuration.properties之前读取SparkContext
文件
?我在用Scala。gcloud dataproc jobs submit
spark
--cluster my-cluster --class MyJob --files config/Configuration.pro
浏览 4
提问于2017-01-16
得票数 7
回答已采纳
1
回答
Delta编码器:在Scala中
使用
Java
库
、
、
我必须比较
使用
基于火花的大数据分析数据集(文本
文件
)是非常相似的(>98%),但与非常大的大小。在做了一些研究之后,我发现最有效的方法是
使用
delta编码器。但是,我
使用
的Scala不支持delta编码器,而且我对
Java
一点也不熟悉。但是,由于Scala与
Java
是可互操作的,我知道在Scala
中
实现
Java
工作是可能的。 我发现有希望的实现是、和。该链接还提供了一些基准测试,在这些基准测试
中
,它似乎执行得非常好,而且代码可以
浏览 3
提问于2020-10-23
得票数 1
回答已采纳
2
回答
如何通过Apache Livy on
Spark
执行jar打包的scala程序,以直接响应客户端
请求
的结果?
、
、
、
我想要实现的是让Scala
Spark
程序(在jar
中
)接收来自客户端的POST消息,例如curl,
获取
一些
参数
值,执行一些
Spark
处理,然后将结果值返回给调用的客户端。从可用的Apache Livy文档
中
,我找不到如何通过Livy以交互即会话模式从客户端(例如curl)调用编译和打包的
Spark
程序的方法。通过Livy的这种
请求
/回复场景可以通过以纯文本形式传递给
Spark
shell的Scala代码来完成。但是如<em
浏览 3
提问于2019-01-06
得票数 1
1
回答
通过Twilio传递电话输入
、
、
、
、
我正在
使用
Java
和
Spark
框架
开发一个基本的Twilio web应用程序。我试图让用户在初始提示符之后输入一个数字作为输入,然后通过一个聚集动词,然后处理该输入。到目前为止,我能够调用我的Twilio号码,它用初始的提示符进行响应,但是当我输入一个数字之后,它会转到/handle并崩溃,因为
请求
中
没有任何对角,并且它找不到“位”param (当我打印它时,params编辑:这是邮递员
请求
的截图: 我对
Java
应用程序、HTTP
请求
浏览 2
提问于2018-01-03
得票数 0
回答已采纳
1
回答
如何修复HTTP
参数
/
路径
污染攻击Spring
、
、
、
从HTTP消息中提取
参数
并
获取
资源URL可能容易受到可能更改预期资源语义的注入攻击。这里有两类攻击相关: HTTP
参数
/
路径
污染(HPPP)和服务器端
请求
伪造(SSRF)。请记住,攻击者完全控制HTTP
请求
或HTTP响应。 在HPPP (HTTP
参数
/
路径
污染攻击)
中
,
参数
用于组合资源URL,用于为资源准备REST
请求
(或生成嵌入式链接)。问题是攻击者可能更改
路径</em
浏览 5
提问于2017-07-22
得票数 2
回答已采纳
1
回答
在
spark
-
java
框架
中
的路由"/post/:postId“
中
无法加载静态
文件
、
、
在我的
spark
-
java
项目中,我将css
文件
和js
文件
放到了src/main/resources的static
文件
夹
中
。我
使用
Spark
.staticFileLocation("/static")来设置静态
文件
路径
。当我
使用
get
("/posts", (req, res) ->{...})时,
浏览 0
提问于2016-05-04
得票数 0
2
回答
Apache
spark
作业日志记录
、
在Apache
Spark
作业代码
中
记录日志的实践是什么?显而易见的解决方案是:
使用
Spark
的loginfo(和其他方法,尽管不推荐),一些日志
框架
(
如
log4s)或简单的println。在我的
Java
开发人员背景下,我觉得直接将日志写入控制台是一种不好的做法。我们总是为它
使用
日志
框架
。但是
浏览 7
提问于2016-06-17
得票数 0
1
回答
未批量返回时间戳
、
、
、
如果exe
文件
的时间戳在最新版本之前,我正在尝试运行批处理
文件
来更新一些软件。为此,我
使用
了一个众所周知的for循环。当我像这样运行它时:for %%a in (%
spark
_exe%) do set olddate=%%~ta(也不适用于该
文件
夹
中
的任何其他
文件
)set
spark
_exe=
浏览 3
提问于2015-02-20
得票数 0
1
回答
如何
使用
Apache (火花放电)的BigQuery进行身份验证?
、
、
我已经为我的bigquery项目创建了一个client id和client secret,但是我不知道如何
使用
它们来成功地将数据从pyspark脚本保存到bigquery表
中
。是否有一种方法可以
使用
上的保存选项连接到BigQuery?:com.google.cloud.
spark
.bigquery.repackaged.com.google.cloud.bigquery.BigQueryException: 400坏
请求
{“错误”:(HttpBigQueryRpc.
java
:106)”:
浏览 6
提问于2019-12-06
得票数 4
回答已采纳
1
回答
在
spark
executors上找不到Apache Phoenix JDBC驱动程序
、
、
我正在通过胖客户端连接到apache phoenix,并且已经提供了phoenix-client.jar to --files,但是executor仍然无法找到驱动程序。
浏览 19
提问于2019-08-04
得票数 0
2
回答
如何加载
java
属性
文件
并在
Spark
中
使用
?
、
、
我想存储
Spark
参数
,
如
输入
文件
,输出
文件
到
Java
属性
文件
中
,并将该
文件
传递到
Spark
驱动程序
中
。我正在
使用
spark
-submit提交作业,但找不到传递属性
文件
的
参数
。你有什么建议吗?
浏览 0
提问于2015-06-29
得票数 23
回答已采纳
1
回答
如何
使用
freemarker从HTML Post方法检索值到
Java
?
、
、
、
、
我正在尝试创建一个简单的注册表单,并将用户的数据插入到mongodb
中
。="Submit"></#if></body>我有一个User类,我想创建它的一个实例,以
获取
数据并将其插入这就是我目前所掌握的-
浏览 16
提问于2018-11-26
得票数 0
1
回答
我们可以
使用
Excel外部化
参数
吗?
我有很多
参数
要外部化,如果是的话,我们可以
使用
Excel,如
何在
submit
中
调用excel file,否则,理想的方法是什么。火花-提交
spark
-submit --class "com.syntel.
spark
.sparkDVT" --master yarn --jars /root/config-1.3.1.jar,mysql-connector-
java
: --files (No such file or directo
浏览 4
提问于2017-10-24
得票数 0
回答已采纳
1
回答
如
何在
ElasticSearch DeleteByQuery
java
中
添加查询字符串
参数
?
、
、
我
使用
的是Elasticsearch版本2.3.1这是我的
java
api
请求
。.setTypes(type);DeleteByQueryResponse resp = deleteRequest.
get
(); 我的问题是,如
何在
查询
请求
中
添加查询字符串
参数
,
如
大小、路由?
浏览 1
提问于2018-05-02
得票数 1
回答已采纳
1
回答
Spark
dataframe保存在hdfs位置的单个
文件
中
、
、
、
我有数据帧,并且我想保存在hdfs位置上的单个
文件
中
。我在这里找到了解决方案 .write.format("com.databricks.
spark
.csv") .save("mydata.csv") 但是所有的数据都会被写到mydata.csv/part-00000,我想要的是mydata.csv
文件
。
浏览 0
提问于2016-11-25
得票数 7
回答已采纳
2
回答
如何处理CXF
请求
处理程序
中
的输入
参数
?
、
、
、
、
我一直在
使用
apache (版本2.2.2) JAX做一些工作。在调用业务方法之前,我试图在CXF
请求
处理程序
中
引入数据验证层。幸运的是:),我遇到了
请求
处理程序(DataValidationHandler)
中
的输入
参数
处理问题。我可以通过
请求
处理程序
中
的代码行手动读取JSON对象。但是它与在CXF
框架
中注册的JSONProvider重复。因为JSON对象输入流只能读取一次,否则我们将遇到异常"
java
.i
浏览 3
提问于2012-05-26
得票数 4
回答已采纳
1
回答
作为web服务器的
Spark
长时间运行程序
我已经编写了多个
spark
驱动程序,它们将一些数据从HDFS加载到数据帧
中
,并在其上完成
spark
sql查询,然后将结果再次持久化到HDFS
中
。现在我需要提供一个长时间运行的
java
程序,以便通过post和
get
从web应用程序(例如仪表板)接收
请求
及其一些
参数
(
如
应返回的顶部行数),并将结果发送回web应用程序。我的web应用程序在
Spark
集群之外的某个地方。简而言之,我的目标是通过POST之类的东西从web应
浏览 2
提问于2016-11-06
得票数 0
2
回答
如何从
Spark
StreamingContext的DStream
中
获取
文件
名?
、
、
、
事件经过多次尝试和谷歌搜索后,如果我
使用
流上下文,则无法
获取
fileName。我可以
使用
SparkContext的wholeTextFiles,但是,我必须重新实现流上下文的功能。注意: FileName (错误事件作为json
文件
)是系统的输入,因此在输出中保留该名称非常重要,以便在审计期间可以跟踪任何事件。每个<em
浏览 0
提问于2015-11-22
得票数 2
点击加载更多
相关
资讯
基于Flask框架的MySQL数据库交互系统
第三方业务系统如何快速跳转到朗深AI机器人图形化界面
http数据提交你不知道的事
B.Servlet配置信息及请求数据
2017回顾-性能测试需要哪些开发基础呢?
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券