我正在尝试将输出文件从Databricks推送到Github。(据我理解,git与Databricks的集成只适用于笔记本,而不是用于CSV等其他文件。添加Databricks repo时,会出现一个对话框,表示只克隆db-记事本。)
我可以成功地推到Github一次,但是推了之后,我就不能再提交了。#提交人
错误是git不能附加.git/log/HEAD:
fatal: cannot update the ref 'HEAD': unable to append to '.git/logs/HEAD': Operation not supported
我做了什
我正在拉一个docker映像并在Linux环境中运行这个docker映像,如下所示
docker pull ${IMAGE}
# I need to copy the file BEFORE I run the thing
docker run ... ${IMAGE}
但是,如何将文件从主机复制到即将运行的docker映像,以便它在运行时可以从主机使用该文件?
我查看了docker cp,但这似乎使用了一个没有的码头容器ID。我也不想创建一个新的形象。我需要码头容器可以访问主机系统上的一个文件。
或者反过来也可以:我如何从docker容器中访问主机系统上的文件?
我不明白“码头差异”的输出。有关详细信息,请参见下文。这是我的码头版本:
$ docker version
Client version: 1.7.1
Client API version: 1.19
Go version (client): go1.4.2
Git commit (client): 786b29d
OS/Arch (client): linux/amd64
Server version: 1.7.1
Server API version: 1.19
Go version (server): go1.4.2
Git commit (server): 786b29d
OS/Arc
我试图用多嵌套级别解析Json数据。我正在使用的方法是给文件名和使用打开(文件名)来加载数据。当我提供数据共享路径时,它会抛出文件路径找不到的错误。我能够读取数据格式中的数据,但是如何才能从数据湖读取文件而不将其转换为数据文件并将其作为文件读取并打开?
当前正在工作的本地机器上的代码方法:
f = open(File_Name.Json)
data = json.load(f)
验证数据获取路径时失败的场景:
f = open(Datalake path/File_Name.Json)
data = json.load(f)