首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何在Pentaho中执行一个作业后同时启动两个作业

在Pentaho中执行一个作业后同时启动两个作业,可以通过以下步骤实现:

  1. 创建第一个作业:打开Pentaho的作业设计器,点击菜单栏的"File",选择"New",然后选择"Job"。在作业设计器中,拖拽并配置需要执行的转换和其他组件。保存该作业。
  2. 创建第二个作业:重复步骤1,创建另一个作业,并保存。
  3. 创建主作业:打开Pentaho的作业设计器,点击菜单栏的"File",选择"New",然后选择"Job"。在作业设计器中,拖拽一个"Start"组件,连接到第一个作业的起始点。再拖拽一个"Start"组件,连接到第二个作业的起始点。这样,两个作业将同时启动。保存该主作业。
  4. 配置作业参数:在主作业中,可以通过参数传递给子作业一些参数。选中第一个作业的连接线,右键点击,选择"Edit"。在弹出的对话框中,点击"Parameters"选项卡,添加需要传递的参数及其值。同样,对第二个作业的连接线进行相同的操作。
  5. 运行作业:保存主作业后,点击菜单栏的"Run",选择"Run Job"。作业将开始执行,并同时启动两个子作业。

Pentaho是一款开源的商业智能工具,提供了强大的数据整合、数据分析和报表功能。它可以用于ETL(抽取、转换和加载)过程、数据仓库和数据分析等领域。

Pentaho的优势包括:

  • 开源免费:Pentaho是一款开源软件,可以免费使用和定制。
  • 综合功能:Pentaho提供了数据整合、数据分析、报表和数据挖掘等多种功能,满足了企业的多样化需求。
  • 可扩展性:Pentaho支持插件和扩展,可以根据具体需求进行定制和扩展。
  • 易于使用:Pentaho提供了直观的图形化界面,使用户可以轻松地设计和管理作业和转换。

Pentaho的应用场景包括:

  • 数据整合和清洗:Pentaho可以帮助企业将来自不同数据源的数据整合到一起,并进行清洗和转换,以便进行后续的分析和报表。
  • 数据分析和报表:Pentaho提供了强大的数据分析和报表功能,可以帮助企业进行数据挖掘、趋势分析和决策支持。
  • 数据仓库和BI:Pentaho可以用于构建数据仓库和实现商业智能(BI)解决方案,帮助企业更好地理解和利用数据。

腾讯云提供了一系列与Pentaho相关的产品和服务,包括云服务器、云数据库、云存储等。您可以访问腾讯云官网了解更多详情:腾讯云官网

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

kettle学习【大牛经验】

kettle其实是以前的叫法,现在官方称为:PDI(Pentaho Data Integeration)。在windows,双击目录的Spoon.bat启动kettle. ?...并把这两个统计数字放在数据库表的一行的两列, 即输出的结果有一行,一行包括两列,每列是一个统 计值。...第四步:两个分支,一个输出;一个过滤;输出指定Excel,并执行数据发送模式(√:复制发送模式) 第五步:设置过滤(流程-->过滤记录);并双击控件填写对应的条件; ?...在Linux以kitchen.sh执行job任务,pan.sh执行transform任务;这里我们以上面为实例,如何在Linux中进行部署。...kettle中发送邮件 kettle发送邮件还是比较简单的,我们需要一个邮件发送的控件和对应的账号密码等自有信息 简单的流程: ? 需要配置发送邮件控件: ? ? 这样执行,邮件就发送出去了。

4.4K21

01-PDI(Kettle)简介与安装

Job作业:完成整个工作流的控制 区别: 作业是步骤流(一般为串行),转换是数据流(并行) 作业的每一个步骤,必须等到前面的步骤都跑完了,后面的步骤才会执行;而转换会一次性把所有的控件全部启动...分发是目标步骤轮流接受数据,复制为同时接受数据。一个步骤连接两个步骤时,会提示选择分发还是复制。 跳hop 跳是步骤之间带箭头的连线,跳定义了步骤之间的数据通道。...对于kettle的转换,不能定义一个执行顺序,因为所有的步骤都是并发方式执行;当转换启动,所有步骤都同时启动,从它们的输入跳读取数据,并发处理过的数据写出到输出跳,直到输出跳里不再有数据,就中止步骤的运行...如果一个任务要沿着指定的顺序执行,就需要使用到作业了。...作业 作业,负责定义一个完成整个工作流的控制,比如将转换的结果发送邮件给相关人员,因为转换以并行方式执行,所以必须存在一个串行的调度工具来执行转换,这就是Kettle作业

2.3K20
  • Kettle构建Hadoop ETL实践(三):Kettle对Hadoop的支持

    使用Shim能够连接不同的Hadoop发行版本,CDH、HDP、MapR、Amazon EMR等。当在Kettle执行一个大数据的转换或作业时,缺省会使用设置的Active Shim。...保存并成功执行作业,查看HDFS目录,结果如下。可以看到,weblogs_rebuild.txt文件已从本地导入HDFS的/user/root目录。每次执行作业会覆盖HDFS已存在的同名文件。...我们在“向Hive导入数据”一节建立的weblogs表上执行聚合查询,同时建立一个新表保存查询结果。新建一个Kettle作业,只有“START”和“SQL”两个作业项,如图3-11所示。 ?...如果不选,MapReduce作业会自己执行,而Kettle在提交MapReduce作业立即会执行一个作业项。除非选中该项,否则Kettle的错误处理在这里将无法工作。...在本示例,我们先为Kettle配置Spark,然后修改并执行Kettle安装包自带的Spark PI作业例子,说明如何在Kettle中提交Spark作业。 1.

    6K21

    Kettle构建Hadoop ETL实践(二):安装与配置

    Kettle执行MapReduce报错 Windows上的Kettle在执行Pentaho MapReduce作业项时会报类似下面的错误: ERROR (version 8.3.0.0...当安装成功,可以再次执行yum grouplist命令,从输出可以看到已经安装的GNOME Desktop。 ......解压缩之后,Windows用户通过执行Kettle根目录下的bat文件启动Kettle程序。例如,要设计转换或作业可以双击Spoon.bat来启动Spoon。...Kettle可以用JNDI的方式引用JDBC连接参数,IP地址、用户认证等,这些连接参数最终用来在转换和作业构造数据库连接对象。...对部署而言,需要确保任何在开发环境中直接或间接使用的共享文件也要在部署环境可以找到。一般情况下,在两种环境,共享文件应该是一样的。

    7.4K31

    Kettle与Hadoop(二)Kettle安装配置

    执行spoon.sh 四、给Spoon创建一个桌面快捷启动方式 五、配置 1....执行spoon.sh 在桌面打开一个终端执行spoon.sh,如图2所示。 ? 图2 打开的spoon界面如图3所示。 ?...Kettle可以用JNDI的方式来引用JDBC连接参数,IP地址、用户认证,这些连接参数最终用来在转换和作业构造数据库连接对象。...但大多数情况下,开发环境使用的是测试数据库,在把开发好的转换和作业部署到实际生产环境,需要更改jdbc.properties的内容,使之指向实际生产数据库。...对部署而言,需要确保任何在开发环境中直接或间接使用的共享文件也要在部署环境可以找到。一般情况下,在两种环境,共享文件应该是一样的。

    6.4K50

    kettle的基础概念入门、下载、安装、部署

    Kettle的执行分为两个层次:Job(作业)和Transformation(转换)。 ? 8、Kettle的下载。   ...点击ctrl + s保存,然后点击启动按钮即可。 ? 13 、Kettle的执行结果。 ? 14、Kettle,可以被称为可视化编程。   ...2)、转换包含一个或多个步骤(step),读取文件、过滤数据行、数据清洗或将数据加载到数据库。   ...对于kettle的转换,不可能定义一个执行顺序,因为所有步骤都以并发方式执行:当转换启动,所有步骤都同时启动,从它们的输入跳读取数据,并把处理过的数据写到输入跳,直到输入跳里不再有数据,就中止步骤的运行...(要与数据流向区分开)   如果你想要一个任务沿着指定的顺序执行,那么就要使用后面所讲的"作业"!

    10.1K20

    Pentaho Work with Big Data(六)—— 使用Pentaho MapReduce生成聚合数据集

    本示例说明如何使用Pentaho MapReduce把细节数据转换和汇总成一个聚合数据集。当给一个关系型数据仓库或数据集市准备待抽取的数据时,这是一个常见使用场景。...新建一个作业,如图10所示。 图10 2. 编辑'Pentaho MapReduce'作业项,如图11到图14所示。 图11 图12 图13 图14 说明: ....将作业保存为aggregate_mr.kjb 五、执行作业并验证输出 1....执行作业,日志如图16所示。 图16 从图16可以看到,作业已经成功执行。 3. 检查Hadoop的输出文件,结果如图17所示。...图17 从图17可以看到,/user/grid/aggregate_mr目录下生成了名为part-00000输出文件,文件包含按IP和年月分组的PV数。

    43230

    Kettle与Hadoop(一)Kettle简介

    对于Kettle转换,不可能定义一个步骤在另一个步骤之后执行,因为所有步骤都以并发方式执行:当转换启动,所有步骤都同时启动,从它们的输入跳读取数据,并把处理过的数据写到输出跳,直到输入跳不再有数据,...而另一方面,转换里的步骤几乎是同时启动的,所以不可能判断出哪个步骤是第一个启动的步骤。如果想要一个任务沿着指定的顺序执行,那么就要使用后面介绍的“作业”了。 4....一个作业项能以并发的方式执行它后面的作业项,如图4上面的作业所示。在这个例子里,作业项A和C几乎同时启动。 ?...图5 在这个例子作业项[A、B、写日志]和[C、D、清空表]是在两个线程里并行执行的。通常设计者也是希望以这样的方式执行。...连接执行的SQL语句:一般用于建立连接,修改某些数据库参数,Session级的变量或调试信息等。

    3.2K21

    Kettle工具的基本使用

    2、解压文件,执行spoon.bat。 3、配置Kettle(在网上搜索即有详细的引导步骤)。 4、启动Kettle。...2.3 Kettle的基本概念 Kettle工具的执行分为两个层次,即转换和作业,这两个层次的主要区别在于数据传递和执行方式。...; 大多数步骤都有多个输出跳,一个步骤的数据发送可以设置为轮流发送和复制发送; 在运行转换时,一个线程运行一个步骤和步骤的多个副本,所有步骤的线程几乎同时运...2.跳:数据的通道,应用于连接两个步骤,实现将元数据从一个步骤传递到另一个步骤,支持分发和复制等方式。...一个数据行是从零到多个字段的集合。Kettle字段的数据类型一共有10种,具体见下图: 2.3.2 作业 一个作业包含一个或多个作业项,且都是按照某种顺序进行执行的。

    4K30

    kettle 教程(一):简介及入门「建议收藏」

    /pentaho-kettle。...下载完成,将 jar 放入 kettle 解压后路径的 lib 文件夹即可。 注意:本文基于 pdi-ce-7.0.0.0-25 版本进行介绍,低版本可能有区别。...启动 双击 Spoon.bat 就能启动 kettle 。 转换 转换包括一个或多个步骤,步骤之间通过跳(hop)来连接。跳定义了一个单向通道,允许数据从一个步骤流向另一个步骤。...这样就完成了一个最简单的转换,从一个表取数据,插入更新到另一个表。 作业 如果想要定时运行这个转换,那么就要用到作业。 新建一个作业。...在下方执行结果,可以看到运行的日志。 这样就完成了一个最简单的作业,每隔1小时,将源表的数据迁移到目标表。

    3.1K21

    ETL工具-Kettle Spoon教程

    将来如果要连接某个数据库 将驱动包置入这个lib目录即可 spoon.bat是可执行文件 启动之前确保 jdk安装 环境变量(PATH和JAVA_HOME) 可以直接输入java和javaw...选择该文件 并且指定两个列名和表格列名一致 输出 (EXCEL文件) 核心对象 将数据转换写入的目的地 比如插入和更新(目的表存在更新不存在插入) 删除(输入存在的记录就删除目标表对应记录...也可以在主对象树 Hops(节点连接) 上双击 手工选定 最后点击 三角运行按钮 运行 发现保存的excel存在文件了 》》作业 作业可以理解为一套流程 流程从开始节点开始执行 直到最后...模拟一个简单作业 就是让上面那个转换每5s执行一次 定义一个开始节点 拖一个转换指定到开始那个aa的转换 shift 拉动线条 点击运行 发现每5s执行一次转换程序 如果需要停止 点击停止按钮即可...的表结构如下(注意两张表的字段不一样哦) 首先双击转换 新建一个转换 转换配置数据库连接 先将驱动包 丢到kettle的lib目录下 输入完成 点击测试按钮测试一下 拖拽一个 输入

    2.1K11

    Kettle与Hadoop(四)导入导出Hadoop集群数据

    version=1&modificationDate=1327069200000 建立一个作业,把文件导入HDFS。 (1)打开PDI,新建一个作业,如图1所示。 ?...(3)保存并执行作业,日志如图3所示。 ? 图3 从图3可以看到,作业已经成功执行。 (4)检查HDFS,结果如图4所示。 ?...version=1&modificationDate=1327068013000 建立一个作业,将文件导入到hive表。...(3)编辑'Hadoop Copy Files'作业项,如图5所示。 ? 图5 (4)保存并执行作业,日志如图6所示。 ? 图6 从图6可以看到,作业已经成功执行。...图13 从图13可以看到,转换已经成功执行。 (8)查询mysql表,结果如图14所示。 ? 图14 从图14可以看到,数据已经从HDFS抽取到了mysql表

    1.2K20

    Pentaho Work with Big Data(三)—— 向Hadoop集群导入数据

    http://wiki.pentaho.com/download/attachments/23530622/weblogs_rebuild.txt.zip?...建立一个作业,把文件放置到Hadoop。 (1)打开PDI,新建一个作业,如图1所示。 图1 (2)编辑'Hadoop Copy Files'作业项,如图2所示。...(3)保存并执行作业,日志如图3所示。 图3 从图3可以看到,作业已经成功执行。 (4)检查Hadoop,结果如图4所示。...建立一个作业,将文件导入到hive表。 (1)执行下面的HSQL建立一个hive表,从图5可以看到,已经在test库建立了weblogs表,此时表没有数据。...(4)保存并执行作业,日志如图7所示。 图7 从图7可以看到,作业已经成功执行。 (5)查询test.weblogs表,结果如图8所示。

    29520

    Kettle工具——Spoon、Kitchen、Pan、Carte

    在Kettle安装目录下,有启动Spoon的脚本。Windows下的Spoon.bat,类UNIX下的spoon.sh。Windows用户还可以通过执行Kettle.exe启动Spoon。...Kitchen和Pan 作业和转换可以在图形界面里执行,但这只是在开发、测试和调试阶段。在开发完成,需要部署到实际运行环境,在部署阶段Spoon就很少用到了。...Kitchen和Pan在概念和用法上都非常相近,这两个命令的参数也基本是一样的。唯一不同的是Kitchen用于执行作业,Pan用于执行转换。在使用命令行执行作业或转换时,需要重点考虑网络传输的性能。.../kitchen.sh # 运行一个存储在文件作业 Kettle-home> ....远程机器客户端给Carte发出一个请求,在请求里包含了作业的定义。当Carte接到了这样的请求,它验证请求并执行请求里的作业。Carte也支持其它几种类型的请求。

    7.5K10

    kettle调度监控平台(kettle-scheduler)开源

    Pentaho官方都建议采用crontab(Unix平台)和计划任务(Windows平台)来完成调度功能。...使用说明 1.登陆 访问http://localhost:8080/km进入登陆界面,用户名admin,密码admin 2.首页 首页主要是显示监控信息,当一个任务(作业或转换)启动...4.任务管理 – 作业管理 管理作业定时任务,可以新增、修改、删除作业定时任务,启动作业即开始运行。...5.任务管理 – 转换管理 管理转换定时任务,可以新增、修改、删除转换定时任务,启动后转换即开始运行。 6.任务管理 – 执行策略 管理执行策略,可以新增、修改、删除执行策略(定时执行策略)。...发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

    9.1K150

    kettle工具嵌入java代码_kettle设置变量

    Java调用Kettle工具方法 这里需要的主要依赖包下面已列出,其他的运行时缺什么补什么就行: pentaho-kettle <artifactId..."); } } /** * 调用Kettle执行作业文件 * * @methodname runJob * @param kjbName 作业文件名称 * @param params 作业参数 * *...KETTLE_KET_DIR + "\\" + kjbName, null); log.debug("创建Job对象"); Job job = new Job(null, jobMeta); log.debug("传入作业执行需要的参数..."); } } } 对于日志监听器需要注意的地方,日志监听器不针对某一个执行过程,如果并发执行Kettle时,每一个执行过程都会输出到所有的日志监听器。...发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

    1.4K30
    领券