腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3801)
视频
沙龙
1
回答
将
Python
脚本
提
交到
Databricks
作业
pyspark
、
gitlab
、
databricks
、
azure-databricks
、
gitlab-api
是否可以向数据库
作业
提交/配置spark
python
脚本
(.py)文件? 我在Pycharm IDE中进行开发,然后
将
代码推送/提
交到
我们的gitlab存储库。我的需求是,当
python
脚本
移动到GitLab主分支时,我需要在
databricks
集群中创建新
作业
。我想得到一些建议,如果有可能创建一个
python
脚本
上的数据库
作业
,使用gitlab.yml<em
浏览 17
提问于2019-09-06
得票数 3
5
回答
如何在Docker文件中配置
Databricks
令牌
docker
、
databricks
、
databricks-cli
我有一个码头文件 FROM
python
# Creating Application So
浏览 9
提问于2020-10-21
得票数 3
1
回答
如何在
Databricks
中终止
作业
python
、
apache-spark
、
databricks
我有一个长期运行的
作业
,如果满足某些条件,我会终止该
作业
。这通常是在
python
中完成的,如下所示: exit('job failed!)这适用于
python
脚本
的传统命令行运行。然而,出于我无法理解的原因,
Databricks
并没有用exit杀死
脚本
。如何编写
Databricks
python
脚本
,以便在满足特定条件时自动停止执行?
浏览 21
提问于2018-09-05
得票数 4
回答已采纳
2
回答
数据库SparkSQL
作业
apache-spark-sql
、
databricks
、
google-cloud-dataproc
Databricks
是否支持提交类似于Google Cloud Dataproc的SparkSQL
作业
?
Databricks
job API似乎没有用于提交Spark SQL
作业
的选项。参考:https://docs.
databricks
.com/dev-tools/api/latest/jobs.html https://cloud.google.com/dataproc/docs/
浏览 41
提问于2020-07-01
得票数 0
2
回答
如何在dbfs之外使用
Python
文件创建
Databricks
作业
?
python
、
git
、
azure-databricks
我对
Databricks
还是个新手,所以请原谅我在这里缺乏知识。我正在使用Azure中的
Databricks
资源。我现在主要使用UI,但我知道一些功能只能使用
databricks
-cli,我已经设置了它,但还没有使用它。是否可以使用
Databricks
Jobs创建直接调用此
Python
文件的
作业</em
浏览 47
提问于2021-11-24
得票数 1
1
回答
databricks
dbx执行和启动命令之间的差异
databricks
、
databricks-dbx
我有一个项目,我希望能够在
databricks
上运行一些入口点。
python
_file: "file://tests/test.py"poetry run dbx execute --cluster-id=my-culster-idtest 这个选项的问题是它以交互方式启动
脚本
,除了查看集群的日志之外,我无法真正检索
Databricks
上执行的代码。因此,我尝试使用deploy和launch命令,以便创建一个合
浏览 37
提问于2022-09-29
得票数 0
回答已采纳
1
回答
带有
Python
脚本
的Azure数据库
python
、
azure
、
databricks
我是
Python
新手。需要帮助处理Azure数据库。设想情况:在HDInsight集群中所有的
python
脚本
都存储在/bin/ .yml和/ conf / .yml中。我们能否在
databricks
DBFS中复制相同的结构,以便最小限度地修改代码以复制位置。 2.我是
浏览 1
提问于2019-10-24
得票数 1
2
回答
用于
将
Maya手动
作业
提
交到
截止日期的
Python
命令(包括提交maya场景文件)
python
、
maya
、
deadlines
我通过
脚本
将
两个
作业
文件(maya_deadline_job.job和maya_deadline_info.job)作为参数传递给deadlinecommand.exe,从而将Maya
作业
提
交到
Deadline有没有办法将其包含在任何
作业
文件中或使用
python
脚本
?
浏览 3
提问于2018-11-07
得票数 2
1
回答
不使用集群
将
Azure Blob存储安装到Azure数据库
azure-devops
、
azure-databricks
我们要求在Azure DevOps中通过CI/CD管道提供
Databricks
服务时,我们应该能够在不连接到集群的情况下
将
blob存储安装到DBFS。是否可以使用Azure DevOps中的bash
脚本
将对象存储安装到DBFS集群?
浏览 3
提问于2020-08-14
得票数 1
1
回答
执行
Databricks
作业
的记事本
python
、
pyspark
、
databricks
、
azure-databricks
是否有api或其他方式以编程方式运行
Databricks
作业
。理想情况下,我们希望从笔记本中调用
Databricks
作业
。下面只是给出当前正在运行的
作业
id,但这并不十分有用: dbutils.notebook.entry_point.getDbutils().notebook().getContext().currentRunId
浏览 5
提问于2022-08-26
得票数 0
回答已采纳
1
回答
如何使用Azure
Databricks
活动在Azure数据工厂中执行
python
Wheel类/方法(而不是
脚本
)?
python
、
interop
、
azure-data-factory
、
azure-databricks
、
python-wheel
是否可以使用Azure
Databricks
活动在Azure数据工厂中执行
python
Wheel类/方法(而不是
脚本
),就像您在.jar中使用java打包方法时所执行的那样?与
脚本
不同,这将能够返回值,而无需执行诸如掩埋它们的stdout之类的操作。 我没有搜索到任何东西,并且我尝试使用jar活动,但没有成功,这并没有让我感到惊讶,但值得一试。如果不是,我正在寻找的是一种使用Azure
Databricks
计算并从
python
作业
返回一小部分值的方法。我已经
浏览 15
提问于2020-01-10
得票数 2
2
回答
如何阻止
DataBricks
笔记本引用旧版本的鸡蛋文件?
databricks
、
egg
在
DataBricks
上的Azure: 进口西蒙as s 打印s.
浏览 0
提问于2018-09-21
得票数 1
回答已采纳
1
回答
使用命令行数据库提交具有不同参数的
作业
bash
、
azure
、
command-line
、
databricks
为了运行jar,这是我在Azure上对
Databricks
所做的: 我点击: +Create Job Cluster: MyCluster 然后我单击RunNow 我正在尝试使用
databricks
想做的事情: 1)上传属性文件 dbfs cp myPropertyFile.proper
浏览 21
提问于2019-09-05
得票数 2
回答已采纳
1
回答
在中的集群中,纯
python
脚本
(不是pyspark)可以并行运行吗?
pyspark
、
azure-databricks
我希望将我的
python
脚本
从本地迁移到云上,特别是在Azure
Databricks
上创建的集群上。纯
python
脚本
可以并行运行(同时使用集群中的多个节点),而不必转换为pyspark吗? 是否可以检查
作业
是否并行运行?
浏览 3
提问于2018-11-28
得票数 1
3
回答
数据库连接& PyCharm &远程SSH连接
python
、
ssh
、
pycharm
、
databricks-connect
我已经
将
PyCharm设置为通过SSH连接与(azure) VM连接。 File "/anaconda/envs/py37/lib/
python
3.7/site-packages/IPython/coreline 13, in <module> Fi
浏览 1
提问于2020-07-10
得票数 2
1
回答
databricks
UI中的Spark提交
作业
无法访问现有配置单元数据库
apache-spark
、
hive
、
databricks
、
azure-databricks
我在
databricks
中创建了一个spark提交
作业
来运行.py
脚本
。我在
python
脚本
中创建了一个spark对象。我尝试访问现有的配置单元表。但是我的
脚本
失败了,错误是“表或视图找不到”。我应该在我的spark提交
作业
中添加一些配置设置来连接到现有的配置单元元存储吗?
浏览 7
提问于2020-05-19
得票数 0
回答已采纳
2
回答
集群qsub检查
作业
何时完成。
python
python
、
cluster-computing
、
qsub
我正在构建一个
python
管道,在该管道
脚本
中,我调用了另一个
python
脚本
,该
脚本
使用qsub将
作业
提
交到
集群(该
作业
由70个
作业
组成),现在我需要这些
作业
的输出才能继续工作。如何“暂停”
python
脚本
,直到完成全部70个
作业
?编辑: 下
浏览 1
提问于2012-10-09
得票数 2
回答已采纳
1
回答
数据库Repos分支的编程检查
python
、
git
、
databricks
、
azure-databricks
、
databricks-repos
我有一个集成测试,它比较来自两个不同分支(即,主分支和特性分支)的相同
脚本
的输出。目前,这个测试是从我的本地机器开始的,但是我希望将它迁移到
Databricks
作业
,并完全从工作流接口运行它。我能够使用笔记本和dbutils重新创建大部分现有的集成测试(用
Python
编写),但特性分支checkout除外。我可以从本地机器调用Repos来执行签出,但是(据我所知)我不能从运行在
Databricks
云上的
作业
中发出相同的调用。(我尝试时遇到凭据/身份验证问题,我的解决方案越来越麻
浏览 8
提问于2022-09-15
得票数 1
回答已采纳
1
回答
将
Databricks
群集与本地计算机(AWS)连接
amazon-web-services
、
pyspark
、
databricks
我想从我的本地机器连接到
Databricks
集群(AWS),但我想在集群中执行整个代码。使用
Databricks
Connect,只在集群中执行spark代码。我在寻找替代的解决方案。
浏览 2
提问于2021-12-02
得票数 1
2
回答
使用
Python
子进程运行SLURM
脚本
以
将
多个长
作业
提
交到
队列,并在继续执行
Python
脚本
之前等待
作业
完成
python
、
queue
、
subprocess
、
wait
、
slurm
这种情况的基本情况是,我使用
Python
的subprocess模块运行SLURM
脚本
,该
脚本
将
大量
作业
提
交到
我使用的一些高性能计算资源上的队列。我希望
Python
脚本
等待所有提交的
作业
完成。我试着这样做:proc.wait() 但是,它只等待
作业
提交,而不是等待所有
作业</em
浏览 1
提问于2017-04-28
得票数 2
点击加载更多
相关
资讯
微软考虑将 Python 作为 Excel 官方脚本语言
Python或将取代VBA,成为Excel官方脚本语言!
使用 PyInstaller 将 Python 脚本打包成可执行文件
python脚本将普通MDB转换为iData可以识别的格式
微软将聘用Python为官方的Excel脚本语言!
热门
标签
更多标签
云服务器
ICP备案
即时通信 IM
实时音视频
云点播
活动推荐
运营活动
广告
关闭
领券