首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

开源ETL工具之Kettle介绍

架构 Kettle是一个组件化集成系统,包括如下几个主要部分: 1.Spoon:图形化界面工具(GUI方式),Spoon允许你通过图形界面来设计Job和Transformation,可以保存为文件或者保存在数据库中...基本概念 1.Transformation:定义对数据操作容器,数据操作就是数据从输入到输出一个过程,可以理解为比Job粒度更小一级容器,我们将任务分解成Job,然后需要将Job分解成一个或多个Transformation...Exporting data from databases to flat files 从数据库导出数据到文件 Loading data massively into databases 导入大规模数据数据库...Data cleansing 数据清洗 Integrating applications 集成应用程序 How 1.下载 https://community.hds.com/docs/DOC-1009855...企业版Kettle不是独立,而是集成Pentaho Business Analytics商业套件中,作为ETL组件。在企业版中Kettle多一个Pentaho资源库。

5.8K10
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Kettle教程一:Kettle简介和Kettle部署安装

    一 Kettle简介 1、ETL简介 ETL(Extract-Transform-Load缩写,即数据抽取、转换、装载过程),对于开发或者运维人员来说,我们经常会遇到各种数据处理,转换,迁移,...Kettle这个ETL工具集,它允许你管理来自不同数据数据,通过提供一个图形化用户环境来描述你想做什么,而不是你想怎么做。...Kettle(现在已经更名为PDI,Pentaho Data Integration-Pentaho数据集成)。...,也就是双击spoon.bat后一闪就没了问题。...3、kettle无法创建xml相关步骤,有相关步骤.ktr文件也打不开 可能是因为路径中包含中文,将整个安装包移动到桌面或其他没有中文字符路径下,重启Spoon.bat即可。

    70.6K67

    Kettle与Hadoop(二)Kettle安装配置

    五、配置 Kettle运行环境内一些因素会影响Kettle运行方式。这些因素包括配置文件、与Kettle集成在一起外部软件。我们把这些因素统称为Kettle配置。 1....shared.xml .spoonrc文件只用于spoon程序,其余则用于Kettle里多个程序。.../password=PASSWORD 在这个例子里,JNDI名字是SampleData,可用于建立h2数据连接,数据库用户名是PENTAHO_USER,密码是PASSWORD。...对任何带有“”符号输入框都可以使用这种变量输入方式。在运行阶段,这个变量值就是/home/sakila/import,即在kettle.properties文件里设置值。...(5)repositories.xml Kettle可以通过资源库管理转换、作业和数据库连接这样资源。

    6.3K50

    Kettle构建Hadoop ETL实践(二):安装与配置

    二、配置 Kettle运行环境内一些因素会影响其运行方式。这些因素包括配置文件和与Kettle集成在一起外部软件。我们把这些因素统称为Kettle配置。...shared.xml .spoonrc文件只用于spoon程序,其余则用于Kettle里多个程序。...对任何带有“”符号输入框都可以使用这种变量输入方式。在运行阶段,这个变量值就是/home/sakila/import,即在kettle.properties文件里设置值。...(5)repositories.xml Kettle可以通过资源库管理转换、作业和数据库连接这样资源。...(6)shared.xml Kettle里有一个概念叫共享对象,共享对象就是类似于转换步骤、数据库连接定义、集群服务器定义等这些可以一次定义,然后在转换和作业里多次引用对象。

    7.4K30

    Kettle构建Hadoop ETL实践(三):Kettle对Hadoop支持

    建立MySQL数据库连接 三、导入导出Hadoop集群数据 1. 向HDFS导入数据 2. 向Hive导入数据 3. 从HDFS抽取数据到MySQL 4....将其中core-site.xml、hdfs-site.xml、hive-site.xml、yarn-site.xml、mapred-site.xml 5个文件复制到Kettle根目录下plugins...三、导入导出Hadoop集群数据 本节用四个示例演示如何使用Kettle导出导入Hadoop数据。...这四个示例是:向HDFS导入数据;向Hive导入数据;从HDFS抽取数据到MySQL;从Hive抽取数据到MySQL。 1....上导入数据到Hive表,使用语句是: load data inpath 目录或文件 into table 表名; 再有数据一旦导入Hive表,缺省是不能进行更新和删除,只能向表中追加数据或者用新数据整体覆盖原来数据

    5.9K20

    01-PDI(Kettle)简介与安装

    公司Pentaho, 正式命名为:Pentaho Data Integeration,简称“PDI”。...本博客下载版本为8.2版本,具体下载地址为: https://sourceforge.net/projects/pentaho/files/Pentaho%208.2/client-tools/...启动测试: 在E:\pdi-ce-8.2.0.0-342\data-integration\目录下双击Spoon.bat即可打开Kettle可视化编程界面 为了便于下次使用,可以将Spoon.bat...创建快捷方式,同时右键该快捷方式–更改图标–浏览–选择安装目录–选择spoon.ico点击确定 Kettle核心知识点 kettle两种设计模型 transformation转换:完成针对数据基础转换...tools – options – look feel – Font on Workspace Kettle文件存储方式: 文件后缀: 转换文件后缀为ktr 工作文件后缀为kjb 存储方式: 以XML

    2.2K20

    Kettle Carte集群 在windows 上部署与运行

    本片文章主要是关于使用KettleUI界面: Spoon来实现基于集群数据库中数据数据进行排序试验。...Master另外三台为Slave, 来实现在KettleSpoon中对数据库中数据表读取后 以集群方式来执行排序过程。...对于集群中主服务器还是子服务器设定, 我们仍旧引用《pentaho kettle solutions》书中一段话进行说明(因为很权威): "A cluster schema consists of...关于Carte服务器是主还是从是由相关配置文件:carte-config.xml 属性中是"Y"还是"N" 所设定, 其实这个和hadoop通过相关XML配置文件来设定是主节点还是从节点是很神似的...接下来将各个子服务器导入到集群中去, 选择左对象树,然后右键单击:Kettle集群schemas->新建。 接下来选中相关子服务器: 选中所有的要加入到cluster中子服务器之后,点击确定。

    22310

    ETL工具-Kettle Spoon教程

    Kettle Spoon简介 ETL(Extract-Transform-Load缩写,即数据抽取、转换、装载过程),对于企业或行业应用来说,我们经常会遇到各种数据处理,转换,迁移,了解并掌握一种...官网 :http://kettle.pentaho.org/ 下载最新版本kettle是:pdi-ce-7.1.0.0-12 官方入门文档 :https://wiki.pentaho.com/...kettle Spoon 安装入门 1》 安装kettle spoon kettle是使用java编写 直接是绿色版 解压即可使用 解压后目录结构 lib目录 可以存放第三方jar 比如 数据驱动包...将来如果要连接某个数据库 将驱动包置入这个lib目录即可 spoon.bat是可执行文件 启动之前确保 jdk安装 环境变量(PATH和JAVA_HOME) 可以直接输入java和javaw...3》数据库转换案例 比如要实现将数据库testkettleuserinfo表数据导入到userinfo1 同时还要导出到excel文件中 userinfo表结构如下 userinfo1

    2K11

    kettle相关知识

    ) 之kettle连接hadoop&hdfs图文详解 http://blog.csdn.net/xiaohai798/article/details/39558939 ---- ETL2004ETL和数据集成工具...:ETL和数据集成工作量占BI项目的40%,但是ETL工具约占BI市场9%,其中很多应用是采用手工编码方式,ETL工具仍有待普及 ?...资源库并不是必须,如果没有资源库,用户还可以把转换任务保存在 xml 文件中。 资源库可以使多用户共享转换任务,转换任务在资源库中是以文件夹形式分组管理,用户可以自定义文件夹名称。...Kettle使用及练习—安装部署 Kettle下载可以在 http://kettle.pentaho.org/ 网站下载。...注: Kettle支持跨平台使用,Spoon.bat 是在windows 平台运行,Spoon.sh 是在Linux、Apple OSX、Solaris 平台运行。

    1.5K40

    企业实战(20)ETL数据库迁移工具Kettle安装配置详解

    介绍: Kettle简介:Kettle 是 PDI 以前名称,PDI 全称是Pentaho Data Integeration,Kettle 本意是水壶意思,表达了数据含义。...作为Pentaho一个重要组成部分,现在在国内项目应用上逐渐增多。 ETL(Extract-Transform-Load缩写),即数据抽取、转换、装载过程。...下载程序包并解压 从官方网站下载spoon压缩包。 第二步. 一键启动 在windows下,解压后,双击spoon.bat文件运行。 开始使用 开始可视化数据操作吧。...放到kettlelib目录下面。 4.运行spoon.bat,打开spoon图形工具 注意: 红圈处没有connect按钮,原因为资源库配置文件乱码造成。...解决方法: 打开系统盘用户目录下repositories.xml配置文件,将乱码内容删除,并删除.spoonrc文件,再重启kettle。

    1.3K10

    ETL作业调度工具TASKCTL与kettle功能性对比都有哪些优劣势

    Pentaho Data Integration (Kettle)是Pentaho生态系统中默认ETL工具。通过非常直观图形化编辑器(Spoon),您可以定义以XML格式储存流程。...用到工具包括命令行工具(Pan),小型服务器(Carte),数据库存储库(repository)(Kitchen)或者直接使用IDE(Spoon)。...该产品概念新颖,体系完整、功能全面、使用简单、操作流畅,超前设计使产品在业界独树一帜,它不仅有完整调度核心、灵活扩展,同时具备完整应用体系。...扩展性: TASKCTL:支持市面上主流大部分数据库、ETL、脚本语言等作业类型调度,另外底层调度核心基于插件式调度,可支持任意作业类型自定义扩展,插件扩展有相应范例可供参考编写。...Kettle:非常广泛数据库,文件,另外可以通过插件扩展 ———————————————— 版权声明:本文为CSDN博主「taskctl调度工具」原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明

    1.7K40

    【知识】ETL大数据集成工具Sqoop、dataX、Kettle、Canal、StreamSets大比拼

    摘要 对于数据仓库,大数据集成类应用,通常会采用ETL工具辅助完成。...当前很多应用也存在大量ELT应用模式。常见ETL工具或类ETL数据集成同步工具很多,以下对开源Sqoop、dataX、Kettle、Canal、StreamSetst进行简单梳理比较。...image.png 命令简单示例: image.png Sqoop支持全量数据导入和增量数据导入(增量数据导入分两种,一是基于递增列增量数据导入(Append方式)。...组成部分: Spoon:允许使用图形化界面实现ETL数据转换过程 Pan:批量运行Spoon数据转换过程 Chef:job(有状态,可以监控到是否执行、执行速度等) Kitchen:批量运行chef...://github.com/pentaho/pentaho-kettle/ 2.4 Canal 2.4.1 介绍 canal是阿里巴巴旗下一款开源项目,纯Java开发。

    10.8K20

    数据处理分析六大工具

    Hadoop 是可靠,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败节点重新分布处理。Hadoop 是高效,因为它以并行方式工作,通过并行处理加快处理速度。...Hadoop带有用 Java 语言编写框架,因此运行在 Linux 生产平台上是非常理想。Hadoop 上应用程序也可以使用其他语言编写,比如 C++。...功能和特点: 免费提供数据挖掘技术和库 100%用Java代码(可运行在操作系统) 数据挖掘过程简单,强大和直观 内部XML保证了标准化格式来表示交换数据挖掘过程 可以用简单脚本语言自动进行大规模进程...流程可以很容易被定制,也可以添加新流程。BI 平台包含组件和报表,用以分析这些流程性能。目前,Pentaho主要组成元素包括报表生成、分析、数据挖掘和工作流管理等等。...Pentaho BI 平台构建于服务器,引擎和组件基础之上。这些提供了系统J2EE 服务器,安全,portal,工作流,规则引擎,图表,协作,内容管理,数据集成,分析和建模功能。

    3K150

    6个用于大数据分析最好工具

    Hadoop带有用 Java 语言编写框架,因此运行在 Linux 生产平台上是非常理想。Hadoop 上应用程序也可以使用其他语言编写,比如 C++。...功能和特点 免费提供数据挖掘技术和库 100%用Java代码(可运行在操作系统) 数据挖掘过程简单,强大和直观 内部XML保证了标准化格式来表示交换数据挖掘过程 可以用简单脚本语言自动进行大规模进程...400多个数据挖掘运营商支持 耶鲁大学已成功地应用在许多不同应用领域,包括文本挖掘,多媒体挖掘,功能设计,数据流挖掘,集成开发方法和分布式数据挖掘。...流程可以很容易被定制,也可以添加新流程。BI 平台包含组件和报表,用以分析这些流程性能。目前,Pentaho主要组成元素包括报表生成、分析、数据挖掘和工作流管理等等。...Pentaho BI 平台构建于服务器,引擎和组件基础之上。这些提供了系统J2EE 服务器,安全,portal,工作流,规则引擎,图表,协作,内容管理,数据集成,分析和建模功能。

    92720

    【性能分析】大数据分析工具

    Hadoop 是可靠,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败节点重新分布处理。Hadoop 是高效,因为它以并行方式工作,通过并行处理加快处理速度。...Hadoop带有用 Java 语言编写框架,因此运行在 Linux 生产平台上是非常理想。Hadoop 上应用程序也可以使用其他语言编写,比如 C++。...免费提供数据挖掘技术和库 2. 100%用Java代码(可运行在操作系统) 3. 数据挖掘过程简单,强大和直观 4. 内部XML保证了标准化格式来表示交换数据挖掘过程 5....流程可以很容易被定制,也可以添加新流程。BI 平台包含组件和报表,用以分析这些流程性能。目前,Pentaho主要组成元素包括报表生成、分析、数据挖掘和工作流管理等等。...Pentaho BI 平台构建于服务器,引擎和组件基础之上。这些提供了系统J2EE 服务器,安全,portal,工作流,规则引擎,图表,协作,内容管理,数据集成,分析和建模功能。

    1.2K50

    【工具】六大工具帮你做好大数据分析

    但是 Hadoop 是以一种可靠、高效、可伸缩方式进行处理。Hadoop 是可靠,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败节点重新分布处理。...Hadoop带有用 Java 语言编写框架,因此运行在 Linux 生产平台上是非常理想。Hadoop 上应用程序也可以使用其他语言编写,比如 C++。...功能和特点: 免费提供数据挖掘技术和库 100%用Java代码(可运行在操作系统) 数据挖掘过程简单,强大和直观 内部XML保证了标准化格式来表示交换数据挖掘过程 可以用简单脚本语言自动进行大规模进程...流程可以很容易被定制,也可以添加新流程。BI 平台包含组件和报表,用以分析这些流程性能。目前,Pentaho主要组成元素包括报表生成、分析、数据挖掘和工作流管理等等。...Pentaho BI 平台构建于服务器,引擎和组件基础之上。这些提供了系统J2EE 服务器,安全,portal,工作流,规则引擎,图表,协作,内容管理,数据集成,分析和建模功能。

    97670

    kettle工具作用和使用「建议收藏」

    最近公司一个同事离职,由我来接手他手上一个项目,我负责开发后台,因为设计到脚本统计数据,需要做定时任务将日表数据统计到月表或者年表。...二.Kettle下载和安装 1.官网下载地址:https://sourceforge.net/projects/pentaho/files/Data%20Integration/ 2.Kettle是纯...3.准备连接数据驱动 数据库驱动,驱动一般放在kettle根目录bin或者lib下面,然后到服务中启动mysql,重启kettle。...三.Kettle使用 1.运行Spoon.bat,打开spoon图形工具 2.创建连接资源库 这里测试,用我本地两个不同数据库(mysql,oracle)做一个数据转换 a.新建–转换 b.添加...再我日常开发中,将这个ktr脚本文件放在主机目录上,通过命令定时每月一号零点运行,就可以将日表统计数据导入到月表中。 后续还有很多值得研究和学习地方,可以慢慢挖掘,这里只是做个简单测试。

    1.4K20
    领券