首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何在从Powershell提交数据湖作业时指定数据库?

在使用PowerShell提交数据湖作业时,可以通过指定数据库来实现数据的存储和查询。具体操作如下:

  1. 首先,确保已经安装并配置好了Azure PowerShell模块,可以使用以下命令进行安装:
  2. 首先,确保已经安装并配置好了Azure PowerShell模块,可以使用以下命令进行安装:
  3. 使用以下命令登录到Azure账户:
  4. 使用以下命令登录到Azure账户:
  5. 确保已经选择了正确的Azure订阅,可以使用以下命令进行选择:
  6. 确保已经选择了正确的Azure订阅,可以使用以下命令进行选择:
  7. 使用以下命令创建一个数据湖作业:
  8. 使用以下命令创建一个数据湖作业:
  9. 其中,<JobName>为作业的名称,<JobScriptPath>为作业的脚本路径,<DatabaseName>为要指定的数据库名称,<DataLakeAnalyticsAccountName>为数据湖分析服务的名称。
  10. 提交数据湖作业:
  11. 提交数据湖作业:
  12. 这将会将作业提交到指定的数据库中进行执行。

通过以上步骤,你可以在使用PowerShell提交数据湖作业时指定数据库。请注意,这里的示例代码中的<DatabaseName><DataLakeAnalyticsAccountName>需要替换为实际的数据库名称和数据湖分析服务名称。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

  • Flink Exactly-Once 投递实现浅析

    随着近来越来越多的业务迁移到 Flink 上,对 Flink 作业的准确性要求也随之进一步提高,其中最为关键的是如何在不同业务场景下保证 exactly-once 的投递语义。虽然不少实时系统(e.g. 实时计算/消息队列)都宣称支持 exactly-once,exactly-once 投递似乎是一个已被解决的问题,但是其实它们更多是针对内部模块之间的信息投递,比如 Kafka 生产(producer 到 Kafka broker)和消费(broker 到 consumer)的 exactly-once。而 Flink 作为实时计算引擎,在实际场景业务会涉及到很多不同组件,由于组件特性和定位的不同,Flink 并不是对所有组件都支持 exactly-once(见[1]),而且不同组件实现 exactly-once 的方法也有所差异,有些实现或许会带来副作用或者用法上的局限性,因此深入了解 Flink exactly-once 的实现机制对于设计稳定可靠的架构有十分重要的意义。

    02

    Robinhood基于Apache Hudi的下一代数据湖实践

    Robinhood 的使命是使所有人的金融民主化。Robinhood 内部不同级别的持续数据分析和数据驱动决策是实现这一使命的基础。我们有各种数据源——OLTP 数据库、事件流和各种第 3 方数据源。需要快速、可靠、安全和以隐私为中心的数据湖摄取服务来支持各种报告、关键业务管道和仪表板。不仅在数据存储规模和查询方面,也在我们在数据湖支持的用例方面,我们从最初的数据湖版本[1]都取得了很大的进展。在这篇博客中,我们将描述如何使用各种开源工具构建基于变更数据捕获的增量摄取,以将我们核心数据集的数据新鲜延迟从 1 天减少到 15 分钟以下。我们还将描述大批量摄取模型中的局限性,以及在大规模操作增量摄取管道时学到的经验教训。

    02
    领券