barriers / 阅读 / 详情

Kettle 7.0 怎么连数据库资源库

2023-05-31 08:27:15
TAG: ttl kettle
共1条回复
可可

选择数据库类型资源库Kettle database repository,点击“确定”

在“资源库信息”窗口中,点击“新建”按钮,新建一个数据库连接

在“Database Connection”窗口,选择数据库类型,并填写数据库连接的相关信息,本实例选用oracle数据库。

相关推荐

kettle是什么意思

kettle的意思是水壶。1、烧水用的壶,水壶。I"ll put the kettle on (= start boiling some water) and make some tea.我要烧壶水沏茶。2、完全不同的事物。Playing for the reserve team is a totally different kettle of fish.作为替补参加比赛完全是两码事。3、锅。Put the meat into a small kettle.把肉放进一个小锅里。双语例句1、A cut-out stops the kettle boiling dry. 断流装置避免水壶烧干。2、The kettle began to whistle. 烧水壶呜呜地响了起来。3、The kettle needs a new element. 这个电壶需要一根新电热丝。4、When the adverts came on I got up to put the kettle on. 电视播放广告时,我起身去烧了壶水。
2023-05-31 01:50:591

kettle中文是什么意思

kettle 英[ˈketl] 美[ˈkɛtl] n. (烧水用的) 壶; 小汽锅; [例句]I"ll put the kettle on and make us some tea.我去烧壶水给大家沏茶。[其他] 复数:kettles
2023-05-31 01:51:371

kettle怎么读

kettle[英]["ketl] [美][ˈkɛtl] 生词本简明释义n.(烧水用的)壶;小汽锅复数:kettles易混淆的单词:Kettle以下结果由 金山词霸 提供柯林斯高阶英汉词典 网络释义 百科释义 短语词组 同反义词1.N-COUNT水壶A kettle is a covered container that you use for boiling water. It has a handle, and a spout for the water to come out of. I"ll put the kettle on and make us some tea.我去烧壶水给大家沏茶。A kettle of water is the amount of water contained in a kettle.一壶的量Pour a kettle of boiling water over the onions.在洋葱上倒一壶开水。
2023-05-31 01:51:451

kettle翻译成中文

kettle翻译成中文是:水壶。水壶是一种盛水的容器。有很多种材质,可以指烧水用的金属壶,也可以指便于携带的饮用水壶器具,分为五大类:塑料的(主要材料);不锈钢的;铝合金的;陶瓷的;其它材质的,可由电加热也可直接用火加热。电水壶在1891年诞生于芝加哥。随着科技的发展,快捷、安全、便利、充分利用能源日渐成为了水壶的主要特点,嗜茶的英国人从此便爱上她了。到了二十一世纪便成为全球的畅销品。电水壶采用的是蒸气智能感应控温,具有水沸腾后自动断电、防干烧断电的功能。随着生活的需要,电水壶也正在向多功能方向发展,如防漏、防烫、锁水等。水壶业的发展根据水壶类型而定,比如电水壶它可以成为一个独立的产业,塑胶水壶业可以是一个产业说法,业的主导无论从市场需求量或发展趋势都是。另外还有木水壶和一些民族水壶,由于需求量和应用场合比较窄以及纯手工工艺的无法保证,受着这样的限制因而不能成为未来的主流。电水壶具有加热速度快,保温效果好,过滤功能强,式样多等优点。而电水壶则受到了安全问题和用电的意识、质量等问题限制着,当然这可以用技术解决的,尤其需要重视使用方法和使用场合。而塑胶水壶则是最有可能成为未来水壶的主流,不仅应用广泛,而且安全、轻便、可靠等众多优点。
2023-05-31 01:51:521

kettle教程是什么?

kettle 是纯 java 开发,开源的 ETL工具,用于数据库间的数据迁移 。可以在 Linux、windows、unix 中运行。有图形界面,也有命令脚本还可以二次开发。kettle 的官网是 https://community.hitachivantara.com/docs/DOC-1009855,github 地址是 https://github.com/pentaho/pentaho-kettle。安装。这边以 windows 下的配置为例,linux 下配置类似。jdk 安装及配置环境变量。由于 kettle 是基于 java 的,因此需要安装 java 环境,并配置 JAVA_HOME 环境变量。建议安装 JDK1.8 及以上,7.0以后版本的 kettle 不支持低版本 JDK。下载 kettle。从 官网 下载 kettle ,解压到本地即可。下载相应的数据库驱动。由于 kettle 需要连接数据库,因此需要下载对应的数据库驱动。例如 MySQL 数据库需要下载 mysql-connector-java.jar,oracle 数据库需要下载 ojdbc.jar。下载完成后,将 jar 放入 kettle 解压后路径的 lib 文件夹中即可。注意:本文基于 pdi-ce-7.0.0.0-25 版本进行介绍,低版本可能有区别。启动。双击 Spoon.bat 就能启动 kettle 。转换。转换包括一个或多个步骤,步骤之间通过跳(hop)来连接。跳定义了一个单向通道,允许数据从一个步骤流向另一个步骤。在Kettle中,数据的单位是行,数据流就是数据行从一个步骤到另一个步骤的移动。1、打开 kettle,点击 文件->新建->转换。2、在左边 DB 连接处点击新建。3、根据提示配置数据库,配置完成后可以点击测试进行验证,这边以 MySQL 为例。4、在左侧找到表输入(核心对象->输入->表输入),拖到右方。5、双击右侧表输入,进行配置,选择数据源,并输入 SQL。可以点击预览进行预览数据。6、在左侧找到插入/更新(核心对象->输出->插入/更新),拖到右方。7、按住 Shift 键,把表输入和插入/更新用线连接起来。8、双击插入/更新进行配置。9、点击运行,就可以运行这一个转换。10、运行结束后,我们可以在下方看到运行结果,其中有日志,数据预览等,我们可以看到一共读取了多少条数据,插入更新了多少数据等等。这样就完成了一个最简单的转换,从一个表取数据,插入更新到另一个表。作业。如果想要定时运行这个转换,那么就要用到作业。1、新建一个作业。2、从左侧依次拖动 START 、转换、成功到右侧,并用线连接起来。3、双击 START,可以配置作业的运行间隔,这边配置了每小时运行一次。4、双击转换,选择之前新建的那个转换。5、点击运行,就能运行这次作业,点击停止就能停止。在下方执行结果,可以看到运行的日志。这样就完成了一个最简单的作业,每隔1小时,将源表的数据迁移到目标表。总结:kettle 是一个非常强大的 ETL 工具,通过图形化界面的配置,可以实现数据迁移,并不用开发代码。通过它的作业,kettle 能自动地运行转换。
2023-05-31 01:52:151

kettle是开音节吗?

kettle是开音节。分类:开音节分为两种,一种叫绝对开音节,一种叫相对开音节。解释:①绝对开音节:单个发音的元音字母后面没有辅音字母的音节。例如:no she he we me hi②相对开音节:单个元音字母后面加大于或等于一的辅音字母(r除外),再加一个不发音字母e构成的音节。例如:name these bike home excuse like five
2023-05-31 01:52:291

kettle的中文意思是什么?

水壶
2023-05-31 01:52:385

kettle的特点

这个东西的话,这个有哪些是哪些个哪些特点你可以看一下年级下面,这个是非常容易的
2023-05-31 01:52:558

如何安装kettle

不太清楚啊
2023-05-31 01:53:113

tea pot 和kettle有什么区别

kettle:专指带盖子的烧水用的壶,即热水壶pot:圆形的用于储存物品或烹饪的容器,比如咖啡壶、茶壶
2023-05-31 01:53:261

kettle的转换由什么组成

Kettle工具主要是由四个组件组成,分别是Spoon、Pan、Kitchen及Carte组件。Kettle是一款国外开源的ETL工具,纯java编写,可以在Windows、Linux、Unix上运行,数据抽取高效稳定。Kettle中文名称叫水壶,该项目的主程序员MATT希望把各种数据放到一个壶里,然后以一种指定的格式流出。PentahoDataIntegration以Java开发,支持跨平台运行,其特性包括:支持100%无编码、拖拽方式开发ETL数据管道;可对接包括传统数据库、文件、大数据平台、接口、流数据等数据源;支持ETL数据管道加入机器学习算法。PentahoDataIntegration分为商业版与开源版,开源版的截止2021年1月的累计下载量达836万,其中19%来自中国。在中国一般人仍习惯把PentahoDataIntegration的开源版称为Kettle。
2023-05-31 01:53:451

kettle作业的调度方式

在我们辛辛苦苦地把转换、作业都调试好后,最希望看到的估计就是它能按我们设置好的时间自动运行,满满的成就感,今天就来看看kettle是怎么设置调度运行的。 第一种方式: 新建作业,然后在作业START组件中设置自动运行的频次,同时把需要运行的转换、作业连接起来,然后启动运行,同时保证界面不关闭,这样就可以按设置好的时间自动运行了。第二种方式: 新建普通作业test.kjb,不直接在START组件中设置运行频次,然后新建test.bat批处理文件,内容如下: C: cd C: oolsdata-integration kitchen.bat /file C:kettle est.kjb /level Basic /logfile C:kettlekettle_test.log @pause 保存bat文件后,直接在windows下搜索“任务计划程序”新建定时任务。按上面设置好后windows就会定时运行test.bat文件,bat文件会启动kitchen.bat运行kettle作业,这样就完成了定时运行。 使用bat运行作业方式效率会比直接在spoon中低,谨慎使用。 有更好的办法?欢迎讨论。
2023-05-31 01:54:041

kettle内存占用怎么解决?

kettle工具本身也会占用很大的内存,可以将需要执行的job用kitchen命令写成bat脚本,这样就可以直接在windows上运行,节省很大的内存占用,如果需要定时执行,可以添加到计划任务中。
2023-05-31 01:54:112

linux下怎样安装使用kettle

安装JDK环境:根据自己的linux系统选择相应的版本,比如我的centos7是x64的,所以我选择jdk-8u74-linux-x64.tar.gz下载下载下来以后,我们将其移到我们创建的一个目录中,存放tar包的目录为/usr/local/src/jdk,然后解压:tar -zxf /usr/local/src/jdk/jdk-7u65-linux-x64.tar.gz编辑 vi /etc/profile 文件在文件后面添加:export JAVA_HOME=/usr/local/src/jdk/jdk1.8.0_74export JRE_HOME=${JAVA_HOME}/jreexport CLASSPATH=.:$CLASSPATH:${JAVA_HOME}/lib:${JRE_HOME}/libexport PATH=${JAVA_HOME}/bin:$PATH执行 . /etc/profile配置成功后,关闭终端,重新进入,输入java –version 如果出现版本号什么的,就证明jdk安装成功1. 将data-integration文件夹直接拷贝到/usr/local/kettle文件夹下面cd /usr/local/kettle/data-integration 进入该目录为所有.sh文件赋予执行权限chmod +x *.sh然后在终端键入./kitchen.sh 如果出现帮助信息,说明kettle安装成功./kitchen.sh -----运行job./span.sh -----运行转换1. 在kettle下建立data 文件夹,用来存放转换和job文件建立ktllog 文件夹,用来存放日志文件建立ktlsh 文件夹,用来存放脚本文件1. 在ktlsh文件夹中新建执行job的文件,新建文件命令: touch xxx.sh 并赋予文件执行权限 chmod +x xxx.sh编辑xxx.sh文件Vi xxx.sh输入 :#!/bin/shsource /etc/profile 配置环境变量(使用crontab时候,由于crontab不识别系统的环境变量,所以需要我们这边再配置一遍)ROOT_TOPDIR=/usr/local/kettleExport ROOT_TOPDIR --设置kettle目录$ROOT_TOPDIR/data-integration/kitchen.sh –file=需要执行的job的文件(绝对路径)保存!可在ktlsh目录下直接执行./xxx.sh 文件运行1. 配置crontab 定期执行作业或者转换基本格式 :*  *  *  *  *  command分 时 日 月 周 命令第1列表示分钟1~59 每分钟用*或者 */1表示 第2列表示小时1~23(0表示0点) 第3列表示日期1~31 第4列表示月份1~12 第5列标识号星期0~6(0表示星期天) 第6列要运行的命令在crontab中配置自动每天12点30分执行xxx.sh文件编辑crontab : crontab –e增加一行30 12 * * * /usr/loca/kettle/ktlsh/xxx.sh如果要输出日志可30 12 * * * /usr/loca/kettle/ktlsh/xxx.sh >> /usr/local/kettle/ktllog/log01 如果ktllog下面不存在log01文件会自动创建配置完后重启crontab服务:Service crond restart查看crontab服务Service crond status查看crontab中的内容Crontab –1
2023-05-31 01:54:191

Kettle手册(八)- 循环

有的时候,我们想要在Kettle中实现这个循环的功能,比如,批量加载数据的时候,我们要对10张表执行同样的操作,只有表名和一些信息不一样,这时,写个循环就省事儿多了 这里的话,我们主要是通过一个将结果集返回,然后通过转换的设置来实现的 这个转换,只要是将我们要遍历的结果集返回, 表输入,我们就是返回了5条记录,来做遍历 这里呢,我们就是需要遍历的转换了,这里,我们只是获取结果集,然后将结果集输出 还有一个很重要的一步,怎样让这个转换可以根据结果集的条数,去循环执行呢? 就是这个“执行每一个输入行” 网上有很多的例子,介绍怎样用JS来控制循环,这里我们也简单的测试下 这一步,和上面的一样,就是将结果集返回 这里主要是使用JS将结果集进行遍历,通过JS,将一些结果存放到变量里面,在后面的操作中就可以使用了,通过${xxx}的方式使用 这个其实和Java、JS里面循环思路一样,通过结果集的总数“total_num”和下标“LoopCounter”进行判断 这一步,就是判断下标的值和结果集的总数,进行对比, 输出下,我们想要使用的变量 这一步,给下标加一,然后获取下一条记录 好了,执行下,我们看看
2023-05-31 01:54:261

kettle 目标模式什么意思

 集群允许转换以及转换中的步骤在多个服务器上并发执行。在使用kettle集群时,首先需要定义的是Cluster schema。所谓的Cluster schema就是一系列的子服务器的集合。在一个集群中,它包含一个主服务器(Master)和多个从属服务器服务器(slave)。如下图所示:  子服务器(Slave servers)允许你在远程服务器上执行转换。建立一个子服务器需要你在远程服务器上建立一个叫做“Carte”的 web 服务器,该服务器可以从Spoon(远程或者集群执行)或者转换任务中接受输入。  在以后的描述中,如果我们提到的是子服务器,则包括集群中的主服务器和从属服务器;否则我们会以主服务器和从属服务器来进行特别指定。  注意: 在集群环境下执行转化时,你必须有一个子服务器作为主服务器(master server)而其余所有的子服务器都作从属服务器(slave server)  代理服务器主机名 设置你要通过代理进行连接的主机名  代理服务器端口 设置与代理进行连接时所需的端口号  Ignore proxy for hosts: regexp|separated 指定哪些服务器不需要通过代理来进行连接。该选项支持你使用正则表达式来制定多个服务器,多个服务器之间以" | " 字符来进行分割   创建cluster schema  定义转换  定义完了 cluster schema 后,下一步就是定义在集群环境下执行的转换。我们这里展现的只是一个最简单的例子,完全是为了演示而用。现实情况中的集群有可能非常复杂。  首先你像平时一样创建转换,以hop连接连个两个步骤。然后你指定第二个步骤将在集群下执行  然后选择需要使用的集群。转换如图一样显示在GUI中。  注意 Cx4显示这个步骤将在集群中运行,而这个集群中有4个从属服务器。假设我们将计算结果再次存入到数据表中  这个转换虽然定义了集群,但是我们同样可以让它在单机环境下执行,而且可以得到相同的结果。这意味着你可以使用普通的本地模式来测试它。  执行转换  要想以集群方式来运行转换或者作业,首先需要启动在Cluster schema中定义的主服务器和从属服务器,然后再运行转换或者作业。  启动子服务器  子服务器其实是一个嵌入式的名为 Carte 的 小web server。要进行集群转换,首先需要启动cluster schema中的子服务器  脚本启动  kettle 提供了 carte.bat 和 carte.sh ( inux )批处理脚本来启动子服务器,这种启动方式分为两种  使用主机号和端口号      Carte 127.0.0.1 8080  Carte 192.168.1.221 8081    使用配置文件    Carte /foo/bar/carte-config.xml  Carte url  
2023-05-31 01:54:331

kettle问题

kettle仓库地址,两种: java调用.ktr文件时:Plugin type - Unable to list jar files in plugin folder "C:UsersYF-0002.kettleplugins" Caused by: java.lang.NullPointerException 更换commons-vfs2.jar版本 Root Cause org.apache.jasper.JasperException: Unable to compile class for JSP: 去除kettle中本身依赖与tomcat中冲突的jar,本次冲突jar为jsp-api.jar 处理方式如下 更换commons-vfs2.jar版本 以下搭配的相关jar可正常执行
2023-05-31 01:54:401

如何使用kettle连接hive和hive2

连接hive的方法:进入hive所在的服务器,输入:hive --service hiveserver(目的:启动thrift)打开kettle配置连接界面,输入hive所在服务器的ip、所需要的hive库、端口号(thrift默认端口为:10000)测试连接,即可连接hive2的方法:[plain] view plain copyError connecting to database [Hive] : org.pentaho.di.core.exception.KettleDatabaseException: Error occured while trying to connect to the database Error connecting to database: (using class org.apache.hadoop.hive.jdbc.HiveDriver) Unable to load Hive Server 2 JDBC driver for the currently active Hadoop configuration org.pentaho.di.core.exception.KettleDatabaseException: Error occured while trying to connect to the database Error connecting to database: (using class org.apache.hadoop.hive.jdbc.HiveDriver) Unable to load Hive Server 2 JDBC driver for the currently active Hadoop configuration at org.pentaho.di.core.database.Database.normalConnect(Database.java:428) at org.pentaho.di.core.database.Database.connect(Database.java:361) at org.pentaho.di.core.database.Database.connect(Database.java:314) at org.pentaho.di.core.database.Database.connect(Database.java:302) at org.pentaho.di.core.database.DatabaseFactory.getConnectionTestReport(DatabaseFactory.java:80) at org.pentaho.di.core.database.DatabaseMeta.testConnection(DatabaseMeta.java:2685) at org.pentaho.di.ui.core.database.dialog.DatabaseDialog.test(DatabaseDialog.java:109) at org.pentaho.di.ui.core.database.wizard.CreateDatabaseWizardPage2.test(CreateDatabaseWizardPage2.java:157) at org.pentaho.di.ui.core.database.wizard.CreateDatabaseWizardPage2$3.widgetSelected(CreateDatabaseWizardPage2.java:147) at org.eclipse.swt.widgets.TypedListener.handleEvent(Unknown Source) at org.eclipse.swt.widgets.EventTable.sendEvent(Unknown Source) at org.eclipse.swt.widgets.Widget.sendEvent(Unknown Source) at org.eclipse.swt.widgets.Display.runDeferredEvents(Unknown Source) at org.eclipse.swt.widgets.Display.readAndDispatch(Unknown Source) at org.eclipse.jface.window.Window.runEventLoop(Window.java:820) at org.eclipse.jface.window.Window.open(Window.java:796) at org.pentaho.di.ui.core.database.wizard.CreateDatabaseWizard.createAndRunDatabaseWizard(CreateDatabaseWizard.java:111) at org.pentaho.di.ui.spoon.Spoon.createDatabaseWizard(Spoon.java:7457) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) at java.lang.reflect.Method.invoke(Unknown Source) at org.pentaho.ui.xul.impl.AbstractXulDomContainer.invoke(AbstractXulDomContainer.java:313) at org.pentaho.ui.xul.impl.AbstractXulComponent.invoke(AbstractXulComponent.java:157) at org.pentaho.ui.xul.impl.AbstractXulComponent.invoke(AbstractXulComponent.java:141) at org.pentaho.ui.xul.jface.tags.JfaceMenuitem.access$100(JfaceMenuitem.java:43) at org.pentaho.ui.xul.jface.tags.JfaceMenuitem$1.run(JfaceMenuitem.java:106) at org.eclipse.jface.action.Action.runWithEvent(Action.java:498) at org.eclipse.jface.action.ActionContributionItem.handleWidgetSelection(ActionContributionItem.java:545) at org.eclipse.jface.action.ActionContributionItem.access$2(ActionContributionItem.java:490) at org.eclipse.jface.action.ActionContributionItem$5.handleEvent(ActionContributionItem.java:402) at org.eclipse.swt.widgets.EventTable.sendEvent(Unknown Source) at org.eclipse.swt.widgets.Widget.sendEvent(Unknown Source) at org.eclipse.swt.widgets.Display.runDeferredEvents(Unknown Source) at org.eclipse.swt.widgets.Display.readAndDispatch(Unknown Source) at org.pentaho.di.ui.spoon.Spoon.readAndDispatch(Spoon.java:1297) at org.pentaho.di.ui.spoon.Spoon.waitForDispose(Spoon.java:7801) at org.pentaho.di.ui.spoon.Spoon.start(Spoon.java:9130) at org.pentaho.di.ui.spoon.Spoon.main(Spoon.java:638) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) at java.lang.reflect.Method.invoke(Unknown Source) at org.pentaho.commons.launcher.Launcher.main(Launcher.java:151) Caused by: org.pentaho.di.core.exception.KettleDatabaseException: Error connecting to database: (using class org.apache.hadoop.hive.jdbc.HiveDriver) Unable to load Hive Server 2 JDBC driver for the currently active Hadoop configuration at org.pentaho.di.core.database.Database.connectUsingClass(Database.java:573) at org.pentaho.di.core.database.Database.normalConnect(Database.java:410) ... 43 more Caused by: java.sql.SQLException: Unable to load Hive Server 2 JDBC driver for the currently active Hadoop configuration at org.apache.hive.jdbc.HiveDriver.getActiveDriver(HiveDriver.java:107) at org.apache.hive.jdbc.HiveDriver.callWithActiveDriver(HiveDriver.java:121) at org.apache.hive.jdbc.HiveDriver.connect(HiveDriver.java:132) at java.sql.DriverManager.getConnection(Unknown Source) at java.sql.DriverManager.getConnection(Unknown Source) at org.pentaho.di.core.database.Database.connectUsingClass(Database.java:555) ... 44 more Caused by: java.lang.reflect.InvocationTargetException at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) at java.lang.reflect.Method.invoke(Unknown Source) at org.apache.hive.jdbc.HiveDriver.getActiveDriver(HiveDriver.java:105) ... 49 more Caused by: java.lang.RuntimeException: Unable to load JDBC driver of type: hive2 at org.pentaho.hadoop.shim.common.CommonHadoopShim.getJdbcDriver(CommonHadoopShim.java:108) ... 54 more Caused by: java.lang.Exception: JDBC driver of type "hive2" not supported at org.pentaho.hadoop.shim.common.CommonHadoopShim.getJdbcDriver(CommonHadoopShim.java:104) ... 54 more 上述报错的解决方法如下:1.找到%KETTLE_HOME%/plugins/pehtaho-big-data-plugin/plugin.properties文件2.修改plugin.properties文件中的值:active.hadoop.configuration=hdp133.修改后重启kettle4.配置完成后,即可连接上对应的库如果要使用hadoop-20,则需要添加如下jar包:hadoop-core-1.2.1.jarhive-common-0.13.0.jarhive-jdbc-0.13.0.jarhive-service-0.13.0.jarlibthrift-0.9.1.jarslf4j-api-1.7.5.jarhttpclient-4.2.5.jarhttpcore-4.2.5.jar
2023-05-31 01:54:481

kettle 怎么配置 开机自动启动

kettle设置定时执行要把kettle启动起来,并且Job为执行状态;通常的做法是把kitchen挂到后台进程。Kettle定时功能使用方法如下:1.在Job下的start模块,有一个定时功能,可以每日,每周等方式进行定时,对于周期性的ETL,很有帮助。2.使用资源库(repository)登录时,默认的用户名和密码是admin/admin。3.当job是存放在资源库(一般资源库都使用数据库)中时,使用Kitchen.bat执行job时,需使用如下的命令行:1 Kitchen.bat /rep kettle /user admin /pass admin /job job名4.当job没有存放在资源库而存放在文件系统时,使用Kitchen.bat执行job时,需使用如下的命令行:1 Kitchen.bat /norep /file user-transfer-job.kjb5.可以使用命令行执行job后,就可以使用windows或linux的任务调度来定时执行任务了。
2023-05-31 01:54:551

windows怎么安装kettle的jdk配置

  先从官方下载kettle。如果系统没有安装jdk,也需要下载。  至于下载地址,上百度一搜【kettle】、【jdk下载】就好了。  kettle下载下来是一个压缩包,类似pdi-ce-6.0.0.0-353.zip;jdk选择Windows安装版的话,一般是一个exe可执行程序。  安装jdk也很简单,下一步下一步最后就安装好了。此处就不详说了。  我的jdk安装在了:D:Program Files (x86)Javajdk1.7.0_02,这个路径待会需要使用。  设置kettle的java环境变量。  以win7为例:【开始】->【计算机】->【属性】->【高级系统属性】->【高级】->【环境变量】->【新建】,创建用户变量。变量名输入:PENTAHO_JAVA_HOME;变量值输入刚才jdk的安装路径。  部署kettle。  将刚刚下载的kettle压缩包解压出来。  进入解压路径,你可以看到一些子目录,以及一些bat文件。  启动kettle。  在根目录可以看到有一个叫Spoon.bat的文件,双击这个就可以启动我们的kettle程序了。  你也可以把这个文件创建一个快捷方式到桌面,就不用每次都到这个目录来找了。  启动一小会,就可以看到kettle的主界面了。  可以看到有一些教程的链接。如果有注意,在根目录里,有一个叫samples的子目录,里边有很多小栗子。  这样kettle部署配置就完成了。
2023-05-31 01:55:142

开源ETL工具比较,Kettle和Talend,都有什么优势和劣势?

目前kettle功能太弱小,还是等3.0出来再用吧, talend不错,支持的数据种类很多.。商用的都有很好的data mapping/transform界面,job分布式服务器和监控工具等等,具体的性能差别我不太清楚,很少做对速度要求很高的项目。拓展:1、ETL,是英文 Extract-Transform-Load 的缩写,用来描述将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程。ETL一词较常用在数据仓库,但其对象并不限于数据仓库。ETL是构建数据仓库的重要一环,用户从数据源抽取出所需的数据,经过数据清洗,最终按照预先定义好的数据仓库模型,将数据加载到数据仓库中去。2、信息是现代企业的重要资源,是企业运用科学管理、决策分析的基础。目前,大多数企业花费大量的资金和时间来构建联机事务处理OLTP的业务系统和办公自动化系统,用来记录事务处理的各种相关数据。据统计,数据量每2~3年时间就会成倍增长,这些数据蕴含着巨大的商业价值,而企业所关注的通常只占在总数据量的2%~4%左右。
2023-05-31 01:55:301

怎么用Kettle做不同数据库的数据更新

下载pdi-ce-4.4.0-stable.zip,解压到文件夹,打开data-integration中的Spoon.bat2出现欢迎界面后来到Repository Connection窗口,选择建立一个新的repository,随后出现“资源库信息”窗口:在“资源库信息”窗口中选择新建一个数据库连接,弹出“Database Connection”窗口:在其中输入Connection Name, Host Name, Database Name, Port Number, User Name,Password信息即可建立连接,完成之后在Repository Connection窗口以admin用户名登陆。新建一个名为cscgTransTest的Transformation,从“核心对象”中将两个“表输入”和一个“插入/更新”拖入到cscgTransTest中,并建立它们之间的连接,如下图所示:在cscgTransTest中建立一个新的数据库连接ttt,通过表输入“max_createtime”从目标数据库ttt中获取某个表中最新数据的建立时间:SELECT max(trunc(createtime)) FROMumdata.toeventmedia在cscgTransTest中建立一个新的数据库连接testdb,以表输入“max_createtime”的查询结果替代表输入“umdata.toeventmedia”中的变量,执行SQL语句从数据库testdb中获取需要插入或者更新到ttt数据库的数据SELECT * FROMumdata.toeventmedia where trunc(createtime) >= trunc(?)在“插入/更新”中选择“数据库连接”、“目标模式”、“目标表”等信息,“用来查询的关键字”中的字段用来查询某条记录是否在目标表中存在,不存在则插入记录;如果存在,则继续比较其他字段是否与流里的字段值相同,如果相同则不执行任何操作,如果不同则更新“更新字段”中所列字段。“用来查询的关键字”所列字段是该表的primarykey,从而可以唯一标识一条记录。分别为每一个表建立一个如上模式的转换步骤。新建一个名为“cscgJobTest”的Job,在核心对象中将“START”和“Transformation”拖入cscgJobTest中,并建立两者之间的连接。选中START中的“重复执行”,类型为“不需要定时”;在Transformation中将转换名设置为之前建立的“cscgTransTest”.点击“Run this Job”运行。Job和Transformation的执行结果如如下:
2023-05-31 01:55:391

如何使用kettle源码更改spoon的东西

1.2. 编译源码将项目加载到eclipse将kettle项目拷贝到eclipse的workspace目录下,在eclipse中新建java project,项目名称和你拷贝过来的kettle文件夹名称一致项目导入到eclipse中会出现一个错误,如下图,将这个文件的源码全部注释掉编译打开build.xml, 在右边的。Outline 点击kettle->run as ->ant build第一次编译的时候需要从网上下载几个文件,放在C:Documents and SettingsAdministrator.subfloor,网络不好的话下载会比较慢,也可以直接文件放在C:Documents and SettingsAdministrator下。编译完成后将bin目录下的.bat文件拷贝到Kettle目录下点击Spoon.bat运行,运行成功代表编译已近通过用源码运行SpoonKettle源码工程本身可能是在linux64位机器上调试的,swt配置是linux64的库,所有在运行源码前需要修改成win32的swt,步骤如下:工程à属性àJava Build Pathàlibrariesàadd jars然后将linux64的SWT库删除最后打开src-uiàorg.pentaho.di.ui.spoonàSpoon.java, Run As àjava application二.源码分析2.1. 修改kettle界面修改初始化界面打开package org.pentaho.di.ui.spoon的Spoon.Java,找到main函数,该main函数为Spoon工具的入口,找到如下语句Splash splash = new Splash(display);该语句为spoon初始化显示的界面,跳到定义Splash.java,下面函数canvas.addPaintListener(new PaintListener() {publicvoid paintControl(PaintEvent e) {String versionText = BaseMessages.getString(PKG, "SplashDialog.Version") + " " + Const.VERSION; //$NON-NLS-1$ //$NON-NLS-2$StringBuilder sb = new StringBuilder();String line = null;try {BufferedReader reader = new BufferedReader(newInputStreamReader(Splash.class.getClassLoader().getResourceAsStream("org/pentaho/di/ui/core/dialog/license/license.txt")));//$NON-NLS-1$while((line = reader.readLine()) != null) {sb.append(line + System.getProperty("line.separator")); //$NON-NLS-1$}} catch (Exception ex) {sb.append(""); //$NON-NLS-1$Log.warn(BaseMessages.getString(PKG, "SplashDialog.LicenseTextNotFound")); //$NON-NLS-1$}String licenseText = sb.toString();e.gc.drawImage(kettle_image, 0, 0);// If this is a Milestone or RC release, warn the userif (Const.RELEASE.equals(Const.ReleaseType.MILESTONE)) {versionText = BaseMessages.getString(PKG, "SplashDialog.DeveloperRelease") + " - " + versionText; //$NON-NLS-1$ //$NON-NLS-2$drawVersionWarning(e);} elseif (Const.RELEASE.equals(Const.ReleaseType.RELEASE_CANDIDATE)) {versionText = BaseMessages.getString(PKG, "SplashDialog.ReleaseCandidate") + " - " + versionText; //$NON-NLS-1$//$NON-NLS-2$}elseif (Const.RELEASE.equals(Const.ReleaseType.PREVIEW)) {versionText = BaseMessages.getString(PKG, "SplashDialog.PreviewRelease") + " - " + versionText; //$NON-NLS-1$//$NON-NLS-2$}elseif (Const.RELEASE.equals(Const.ReleaseType.GA)) {versionText = BaseMessages.getString(PKG, "SplashDialog.GA") + " - " + versionText; //$NON-NLS-1$//$NON-NLS-2$}Font verFont = new Font(e.display, "Helvetica", 11, SWT.BOLD); //$NON-NLS-1$e.gc.setFont(verFont);e.gc.drawText(versionText, 290, 205, true);// try using the desired font size for the license textint fontSize = 8;Font licFont = new Font(e.display, "Helvetica", fontSize, SWT.NORMAL); //$NON-NLS-1$e.gc.setFont(licFont);// if the text will not fit the allowed spacewhile (!willLicenseTextFit(licenseText, e.gc)) {fontSize--;licFont = new Font(e.display, "Helvetica", fontSize, SWT.NORMAL); //$NON-NLS-1$e.gc.setFont(licFont); }e.gc.drawText(licenseText, 290, 290, true);}});1. 修改背景图片找到ui/image/下面的kettle_splash.png,替换该图片2. 修改版本信息找到e.gc.drawText(versionText, 290, 205, true); 改为e.gc.drawText("海康威视数据交换平台V1.0", 290, 205, true);3. 修改下面的描述性文字找到e.gc.drawText(licenseText, 290, 290, true);改为e.gc.drawText("作者:海康", 290, 290, true);4. 预览效果
2023-05-31 01:55:481

hadoop出现了kettle还有用吗

determine the proper shim for hadoop Distro and version 大概意思是 为hadoop版本选择合适的套件。表格上面的一行:apache、cloudera、hortonworks、intel、mapr指的是发行方。点击他们来选择你 想连接的hadoop的发行方 。上图 以apache hadoop为例:Version 指版hadoop版本号 ,shim 指kettle提供给该hadoop套件的名称,Download 里面的 included in 5.0,5.1 指kettle的5.0、5.1版本安装包里面已经有内置的插件,一句话来讲 就是kettle5.1及5.0版本已有插件提供支持apache hadoop版本0.20.x 。不需要额外下载。NS 是不支持的意思 图片下面也有解释。
2023-05-31 01:55:551

如何卸载kettle?

Kettle是一款强大的开源ETL工具,拥有丰富的功能和灵活的应用,但是如果您在使用Kettle过程中遇到了问题或者需要卸载Kettle,可以按照以下步骤进行操作:1. 打开电脑上的控制面板。2. 在控制面板中找到程序和功能或者添加或删除程序选项,点击进入。3. 在已安装程序列表中,找到Kettle的图标,点击右键选择“卸载”选项。4. 接着会弹出一个卸载程序的窗口,在此窗口中选择完全卸载并点击“确定”即可。5. 在卸载完成后,建议清空相关的Kettle文件和目录,避免产生不必要的残留物。需要注意的是,卸载Kettle前请备份好你的相关数据,以免误删数据造成不可挽回的损失。
2023-05-31 01:56:032

kettle 如何显示隐藏步骤

1.2. 编译源码 将项目加载到eclipse 将kettle项目拷贝到eclipse的workspace目录下,在eclipse中新建java project,项目名称和你拷贝过来的kettle文件夹名称一致 项目导入到eclipse中会出现一个错误,如下图,将这个文件的源码全部注释掉 编译 打...
2023-05-31 01:56:102

Kettle应用之插入更新组件详解

Kettle插入/更新的组件在日常的抽取任务中使用频率相当的高,自己对这部分的了解也仅限于输出中的“插入/更新”。最近公司正在开展BI数据仓库建设,Kettle中输出部分的“ 插入/更新 ”和数据仓库菜单中的“ 维度查询/更新 ”存在使用上的差异,因此下面主要介绍这两组件应用的情况。 如下图,把该组件划分为三个部分,第一部分为组件属性定义,第二部分为Keys,第三部分为Fields。 1、目标模式:即Schema,对应表的所属拥有对象 2、不执行任何更新:如果勾选,则只根据查询匹配结果进行插入操作;未勾选,则执行更新和插入操作; 该部分为查询匹配条件,需根据具体业务场景进行设置定义。其中,表字段即属性定义中的目标表;流里的字段X即整个Transactions数据流中最后输出的字段; 只有当Keys部分中的所有匹配结果为True时,才算是匹配成功;如果其中一个或多个匹配条件为False时,则为匹配失败。 该部分为包含两个作用:1、匹配表字段与流字段;2、判断是更新表字段还是插入表字段;如果“不行执行更新”勾选了,则均执行插入操作,Keys域无意义。当未勾选时,包含以下情况: 此时不管Fields域中“更新”字段是Y or N,都执行插入操作。 (1)当Fields域中所有字段匹配相同时,则不做更新、插入 (2)当Fields域中存在字段匹配不一致时,则会对字段继续进行更新。如果字段“更新”属性为Y则更新,为N则不更新。 综上,该组件基本可以应对所有数据的“插入/更新”操作。 该组件主要涉及数据仓库中的缓慢变化维的概念。缓慢变化维,是由于维度在实际业务场景中并不是静态的,只是会随着时间发生缓慢的变化,相比于事实表或者业务表,主要区别在于维度表变化慢,频率低,特定场景下需要记录数据变化的过程。具体的说明及应用场景,可通过各类搜索引擎查找,资料较为丰富。 如下图,维度查询/更新组件可分为四个部分,第一部分为组件属性定义,第二部分为keys和Fields,第三部分同为数据记录的属性定义。 1、更新维度:如果勾选,则进行插入/更新操作;如果未勾选,则该组件仅作查询用途,查询条件:a、keys域中的对比字段;b、第三部分记录域中时间流查询条件,开始日期<=stream日期字段<=截止日期字段 2、使用缓存:使用缓存目的为了提升插入或更新的效率,该选项和“缓存行数”同步使用 此部分尽讨论组件属性“更新维度”勾选的情况,未勾选的情况已上面阐述。 在第二部分,Keys域为查询条件,Fields域为更新插入区域。 此时无论Fields中更新属性的值如何,都执行插入操作;  (a)Fields字段中存在不同项,且更新属性为插入选项,则插入一条新数据行记录  (b)Fields字段中存在不同项,且更新属性为‘punch through",则所有version版本的数据记录都会发生更新  (c)Fields字段中存在不同项,且更新属性为"update",则最后一个version记录的属性发生更新  (d)Fields字段中所有都相同,则不发生变化。 1、代理关键字段:由于会记录数据变化的历史过程信息,因此需在表设计初期定义代理键 2、version字段:每次keys相同的记录发生新增时,version字段自动+1,最大的verison为最新的记录 3、stream日期字段:记录数据流的日期范围,通常为设置为开始日期字段值即可。 4、开始日期字段:数据流导入的开始日期 5、结束日期字段:数据流导入结束日期 综上,如使用“维度查询/更新”组件最好的应用场景是维度表需要记录历史变化数据时,并非所有维度表都需要使用该组件。同时,在决定使用“维度查询/更新”组件时,至少需定义四个字段:KEYS_SEQ_ID(代理键)、VERSION_NO(版本号)、BEGIN_DATE(开始日期)、END_DATE(结束日期)。正常非特殊需求时,使用“插入/更新”组件即可。 但是在以上的介绍过程中可以发现,在该组件中并没有 时间戳的利用 ,即Keys域在做比较时,是 把Transaction流中的数据和维度表中的所有数据进行核对 ,需考虑在对比核对中可能存在的性能问题。 以上,如有说明错误或不明白之处,烦请指出。
2023-05-31 01:56:171

配置kettle时遇到的匪夷所思的问题

之前借用别人的笔记本配置了kettle, 开发完成后更换了自己的笔记本, 再次配置kettle的时候发现kettle打不开了, 现在附上安装kettle流程和遇到问题解决的思路和办法         这次工作中用到的是经过公司封装的kettle, 免安装版, 不是公司封装的也是免安装的好像, 只需要将压缩包解压即可         kettle是一个纯java开发的工具, 所以配置kettle之前一定要配置上java环境, 网上说java版本至少要在1.6以上, 但是自己安装中发现只有1.8版本的jdk可以正常运行kettle, 这个应该跟kettle的版本也有关, 为此我同时安装了1.6、1.7、1.8三个版本的jdk.         jdk的配置这里就不讲了, kettle的配置本身只需要一个环境变量, 新建一个变量名为 KETTLE_HOME , 变量值为 压缩包解压路径 的环境变量即可     环境和安装都完成后, 我们直接打开kettle解压目录, 运行Spoon.bat文件就可以打开kettle了, 但这才是我遇到问题的开始    1) 如果电脑内存不大的话可能会遇到创建JVM失败的提示(ERROR:could not create the java virtual machine!), 这是因为kettle默认给JVM虚拟机分配的内存比较大, 我们给他调小一点, 打开Spoon.bat, 将 改为     2) 如果遇到提示could not find the main class. Program will exit! 这表示你的jdk有问题, 这不单单是kettle会出现这个提示, 任何java程序如果jdk出现问题, 或者jdk版本不对都有可能报这个错, 我们重新安装一遍jdk或者换个版本就可以解决这个问题.     在kettle这里我们可以单独为kettle配置一个环境变量以解决这个问题, (感觉这个方式是为了解决kettle的jdk版本和当前系统不一样的问题), 在环境变量中创建一个变量名为  PENTAHO_JAVA_HOME , 变量值为 kettle兼容的jdk版本路径 即可.     这个时候我们的系统变量里有两个指向jdk路径的变量, 一个是java_home,一个是pentaho_java_home, 感觉这是为了解决kettle需要的jdk与当前系统中的jdk不一样的办法.     运行Spoon.bat的时候, 弹出cmd终端窗口, 直接闪退.     遇到这个问题真的是把我给难住了, 一点没有错误信息, 没有排查问题的切入点,  思考 :     .bat文件应该是一个脚本语言, 它调用其他的文件才能启动kettle, 它弹出cmd后没有报错而是退出了, 应该是运行的没有问题, 下面它应该启动kettle了, 但是没有动静, 这就可能是它调用其他文件的时候, 其他文件损坏了或者丢失了. 我们重新安装一下这个软件可以排除这个问题.     我最开始觉得解压后的kettle有问题, 把kettle删了, 再删的时候等不及又往桌面解压kettle...虽然没有提示, 但是肯定是这删了点什么文件...后来又重新装了一遍才解决.     解决这种问题的时候 只能靠自己, 千万不能慌, 要稳定心态, 思考启动的流程, 是哪个流程出现了错误, 这样才能解决问题 , 不然会卡很久, 严重降低工作效率. 心态不好的时候, 可以稍微歇5分钟, 计算机这种东西, 说不定重启都能解决bug, 透透气, 换个角度看
2023-05-31 01:56:241

怎么用kettle传表中的所有数据

能不能表达清楚点?
2023-05-31 01:56:312

如何给一个 Kettle 转换设置变量和命令行参数

1. 变量的类型Kettle 的早期版本中的变量只有系统环境变量目前版本中(3.1) 变量包括系统环境变量, "Kettle变量" 和内部变量三种系统环境变量的影响范围很广,凡是在一个 JVM下运行的线程都受其影响.Kettle 变量限制了变量的作用范围, 变量范围包括三种分别是 grand-parent job, parent job, root job 内部变量: 是 kettle 内置的一些变量, 主要是kettle 运行时依赖的环境, 如转换文件名称, 转换路径,ip地址, kettle 版本号等等.2. 变量的设置"系统环境变量" 有三种设置方式1) 通过命令行 -D 参数2) 属性文件 kettle.property 中设置, 该属性文件位于 ${user.home}.kettle 下3) 通过设置环境变量步骤 (Set Variable) 设置."Kettle 变量" 只能通过设置环境变量 (Set Variable) 步骤设置,同时设置变量的作用范围."内部变量" 是预置的无须设置.3. 变量的使用无论哪种类型的变量在使用上都是一样的, 有两种方式1) 通过 %%var%% 或 ${var} 来引用, 这个引用可以用在 SQL 语句中, 也可以用在允许变量输入的输入框里.2) 通过获取变量 (Get Variable) 步骤来使用命令行参数:1. 设置: 命令行参数通过获取系统信息(Get System Info) 步骤设置, 在使用时可以像列名一样来使用,不必像变量一样要通过 ${var} 这样的格式引用. 用户最多可以设置10个命令行参数2. 传递: 命令行下使用 pan /file:xxx.ktr arg1 arg2 来传递参数.图形界面下,每次运行时有要求输入参数的提示窗口.
2023-05-31 01:56:571

sqoop和kettle的区别

Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库。Kettle是一款国外开源的ETL工具,纯java编写,可以在Window、Linux、Unix上运行,数据抽取高效稳定。Kettle 中文名称叫水壶,
2023-05-31 01:57:041

kettle中怎么把开始数据库导出的数据和目标

下载pdi-ce-4.4.0-stable.zip,解压到文件夹,打开data-integration中的Spoon.bat2出现欢迎界面后来到Repository Connection窗口,选择建立一个新的repository,随后出现“资源库信息”窗口:3在“资源库信息”窗口中选择新建一个数据库连接,弹出“Database Connection”窗口:4在其中输入Connection Name, Host Name, Database Name, Port Number, User Name,Password信息即可建立连接,完成之后在Repository Connection窗口以admin用户名登陆。5新建一个名为cscgTransTest的Transformation,从“核心对象”中将两个“表输入”和一个“插入/更新”拖入到cscgTransTest中,并建立它们之间的连接,如下图所示:6在cscgTransTest中建立一个新的数据库连接ttt,通过表输入“max_createtime”从目标数据库ttt中获取某个表中最新数据的建立时间:SELECT max(trunc(createtime)) FROMumdata.toeventmedia7在cscgTransTest中建立一个新的数据库连接testdb,以表输入“max_createtime”的查询结果替代表输入“umdata.toeventmedia”中的变量,执行SQL语句从数据库testdb中获取需要插入或者更新到ttt数据库的数据SELECT * FROMumdata.toeventmedia where trunc(createtime) >= trunc(?)8在“插入/更新”中选择“数据库连接”、“目标模式”、“目标表”等信息,“用来查询的关键字”中的字段用来查询某条记录是否在目标表中存在,不存在则插入记录;如果存在,则继续比较其他字段是否与流里的字段值相同,如果相同则不执行任何操作,如果不同则更新“更新字段”中所列字段。“用来查询的关键字”所列字段是该表的primarykey,从而可以唯一标识一条记录。9分别为每一个表建立一个如上模式的转换步骤。10新建一个名为“cscgJobTest”的Job,在核心对象中将“START”和“Transformation”拖入cscgJobTest中,并建立两者之间的连接。11选中START中的“重复执行”,类型为“不需要定时”;在Transformation中将转换名设置为之前建立的“cscgTransTest”.12点击“Run this Job”运行。Job和Transformation的执行结果如如下:
2023-05-31 01:57:121

Kettle手册(十二)- 控件使用-从步骤插入数据

这里介绍一个控件的小功能,也是最近才发现的,之前在“表输入”中要使用参数的话,一般都是使用变量, 其实,还有个功能也可以尝试使用 整体流程就是这样,我们第一个 query_paramter,就是查询了我们想设置的参数 刚刚,上面还有一个“执行每一行”,这个就是,如果我们有多个参数,
2023-05-31 01:57:191

如何在kettle作业中设置参数

1、首先,我们先打开KETTLE,进入软件的主界面后,我们可以先创建一个作业或者转换,然后双击空白处。2、我们即可呼出作业或者转换属性窗口,我们在选项卡中国选择“命名参数”,用户填写您所需要设置的命名参数以及默认值,支持添加描述。3、这里,我们以表输入功能作为例子,我们打开数据库连接,然后可以使用对应的参数,我们设置主机名称、数据库名称等一系列参数,然后输入密码,若用户的密码需要使用参数,勾选密码下的Use Result Streaming Cursor选项。4、然后,用户即可配置的作业中可以使用相应的参数,住的注意的是参数名称要与设置的参数名称一致,还需要·点选替换SQL语句里的变量。5、用户按照下图所示进行输入相应参数,点击启动按钮即可配置完成。
2023-05-31 01:57:261

Kettle作业定时调度

ETL是一项周期性的任务,需要定时执行,调度Kettle有几种方式: 这回,主要介绍下这个自带的调度小功能。 这是一个空的作业,只有开始和成功,加一个写日志控件 我们双击这个START,就可以设置定时调度了。 我们勾选重复,然后选择调度周期就行了 配置好后,执行,会看到它自动重复调度 这个程序就会一直在后台调度,但是界面不能关,关掉后就不会调度了。 当然,我们也可以在后台调度这个任务,它也会按照调度来执行
2023-05-31 01:57:321

kettle如何连接oracle数据库

在选择的组件上双击,选新建数据源,在里面找到Oracle,一般选jdbc连接,输入数据库连接信息即可,或者走kettle的配置文件,在里面配一个别名,走jndi方式连接。
2023-05-31 01:57:392

要使Kettle能正常连接到数据库,需要给Kettle配置()?

为了使Kettle能够与数据库成功连接,需要给它配置一下数据库连接。具体而言,需要进行以下步骤:1.启动Kettle。2.打开 "数据库连接" 的窗口。3.在 "数据库类型" 下拉框中选择相应的数据库类型,如MySQL、Oracle等。4.填写 "主机名"、 "端口号"、 "数据库名称" 等数据库的连接信息。5.填写 "用户名" 和 "密码",进行身份验证。6.测试连接,确认数据库连接信息的准确性。完成以上步骤后,Kettle就可以成功连接到相应的数据库,并进行数据读取和写入等操作。需要注意的是,每个不同类型的数据库在连接时需要填写的信息和参数不同,因此需要根据具体情况进行配置。
2023-05-31 01:57:461

Kettle起源于什么时候它发源和发布时间

Kettle也叫PDI,在2006年Kettle加入了开源的BI组织Pentaho,正式命名为PDI,英文全称为Pentaho Data Integeration。Kettle是“Kettle E.T.T.L. Envirnonment”只取首字母的缩写,这意味着它被设计用来帮助你实现你的ETTL需要:抽取、转换、装入和加载数据;翻译成中文名称应该叫水 壶,名字的起源正如该项目的主程序员MATT在一个论坛里说的那样:希望把各种数据放到一个壶里然后以一种指定的格式流出
2023-05-31 01:57:541

kettle怎么读 英语kettle怎么读

1、kettle英[ˈketl]美[ˈketl],n.水壶; (烧水用的)壶;复数:kettles。 2、[例句]A cut-out stops the kettle boiling dry.断流装置避免水壶烧干。
2023-05-31 01:58:121

kettle怎么读

kettle读音是英 [ˈketl],美 [ˈketl] 。kettle读音是英 [ˈketl],美 [ˈketl] n.水壶;(烧水用的)壶习语:a different kettle of fish(informal) 另一码事;截然不同的人a completely different situation or person from the one previously mentionedthe pot calling the kettle black(saying, informal) 锅笑壶黑;五十步笑百步;乌鸦说猪黑used to say that you should not criticize sb for a fault that you have yourself造句:1、A cut-out stops the kettle boiling dry. 断流装置避免水壶烧干。2、The kettle began to whistle. 烧水壶呜呜地响了起来。3、I"ll put the kettle on and make some tea. 我要烧壶水沏茶。4、The kettle needs a new element. 这个电壶需要一根新电热丝。
2023-05-31 01:58:201

kettle怎么读

kettle读音是英 [ˈketl],美 [ˈketl] 。kettle读音是英 [ˈketl],美 [ˈketl] n.水壶;(烧水用的)壶习语:a different kettle of fish(informal) 另一码事;截然不同的人a completely different situation or person from the one previously mentionedthe pot calling the kettle black(saying, informal) 锅笑壶黑;五十步笑百步;乌鸦说猪黑used to say that you should not criticize sb for a fault that you have yourself造句:1、A cut-out stops the kettle boiling dry. 断流装置避免水壶烧干。2、The kettle began to whistle. 烧水壶呜呜地响了起来。3、I"ll put the kettle on and make some tea. 我要烧壶水沏茶。4、The kettle needs a new element. 这个电壶需要一根新电热丝。
2023-05-31 01:58:271

kettle转换由什么组成

Kettle工具主要是由四个组件组成,分别是Spoon、Pan、Kitchen及Carte组件。Kettle是一款国外开源的ETL工具,纯java编写,可以在Windows、Linux、Unix上运行,数据抽取高效稳定。Kettle中文名称叫水壶,该项目的主程序员MATT希望把各种数据放到一个壶里,然后以一种指定的格式流出。PentahoDataIntegration以Java开发,支持跨平台运行,其特性包括:支持100%无编码、拖拽方式开发ETL数据管道;可对接包括传统数据库、文件、大数据平台、接口、流数据等数据源;支持ETL数据管道加入机器学习算法。PentahoDataIntegration分为商业版与开源版,开源版的截止2021年1月的累计下载量达836万,其中19%来自中国。在中国,一般人仍习惯把PentahoDataIntegration的开源版称为Kettle。
2023-05-31 01:58:521

Kettle中各个版本比较大的变化

版本 新增功能 kettle 8.1 待补充 kettle7.1 Smarter Data Processing using the Adaptive Execution Layer (AEL) 、2. Drill-down Deeper on Your Data In-Flight 、 3. Azure HDInsight Cluster Configuration Now Supported、 4. Expanded Big Data Security 、 5. Improved Monitoring of System Performance with DI Operations Mart kettle7.0 Inspect Your Data, Anywhere in the Pipeline(检查通道中的数据), 2. Improved Big Data Security(提高大数据安全), 3. Easier Installation and Configuration with the Single Pentaho Server(pentaho单服务更容易安装和配置), 4. Enhanced Spark Support(增强大对spark的支持), 5. Expanded Metadata Injection Support(扩展元数据注入支持), 6. Improved Repository Management(提高对Repository的管理) 7. Agile BI Plugin(敏捷BI插件) kettle6.1 Metadata Injection Improvements 、 2. Hide a Calculated Measure in the Data Model、 3. Publish a Data Model with Hidden Attributes、4. Edit Calculated Measures in Analyzer、 5. Show and Hide Available Fields 、6. Pentaho Data Service as a Build Model Source、 7. Added Parameter Pushdown Optimization for Data Services 、8. Improved JSON Input Performance、 9. DI Repository on DI Server Renamed to Pentaho Repository、 10. Driver Download for Data Services in Pentaho Data Integration、 11. New Run Options Window 、12. kettle6.0 Pentaho Data Services、 2. SNMP Monitoring 、 3. Inline Model Editing SDR Updates、 4. Data Lineage Analysis、 5. Big Data Improvements、6. Spoon Enhancements、 7. SAP HANA Bulk Loader Step kettle5.4 Spark Support 、2. Support for SAP HANA 、 3. New Hadoop Configurations Supported、 4. YARN Improvements 、 5. Call BA Platform Endpoints in your Transformations 6. Named Hadoop Cluster Configuration Improvements 、 7. Sqoop Improvements、 8. PDI API Improvements、 9. Scheduling APIs for PDI、 10. New Carte APIs - POST Calls、 11. New PDI Look and Feel kettle5.3 Manage Cluster Configuration with the Hadoop Clusters Feature、 2. New Developer Documentation、 3. New Cloudera and MapR Big Data Hadoop Distribution Support、 4. Better Support for High Load Environments and Large Deployments with Carte 、 5. Manually Migrating Big Data Cluster Configurations Stored in Hadoop Steps and Entries 、 6. Interactive Reports Performance Improvements kettle5.2 New Streamlined Data Refinery Feature、 2. R Script Executor Step Improvements、 3.New DI Server Administration Features、 4.Kerberos Security Support for CDH 5.1 and HDP 2.1、 5.New Marketplace Plugins、 6.Improved Upgrade Experience kettle5.1 Data Science Pack with Weka and R、 2. YARN Hadoop Distribution Support(hadoop分布式中的yarn的支持)、 3. Cloudera and MapR Hadoop Distribution Support(Cloudera和mapreduce的hadoop分布式支持)、 4. YARN for Carte Kettle Clusters、 5. Security Enhancements(增强的安全性)、 6. AES Password Support(AES密码支持)、 7. New Execute Permission、 8. Kerberos Security Support(Kerberos安全支持) 、 9. Impersonation Support、 10. Teradata and Vertica Bulkloaders 、 11. JBoss Platform Support、 12. New Marketplace Plugins、 13. Documentation Changes、
2023-05-31 01:58:591

Kettle中各个版本比较大的变化

版本 新增功能 kettle 8.1 待补充 kettle7.1 Smarter Data Processing using the Adaptive Execution Layer (AEL) 、2. Drill-down Deeper on Your Data In-Flight 、 3. Azure HDInsight Cluster Configuration Now Supported、 4. Expanded Big Data Security 、 5. Improved Monitoring of System Performance with DI Operations Mart kettle7.0 Inspect Your Data, Anywhere in the Pipeline(检查通道中的数据), 2. Improved Big Data Security(提高大数据安全), 3. Easier Installation and Configuration with the Single Pentaho Server(pentaho单服务更容易安装和配置), 4. Enhanced Spark Support(增强大对spark的支持), 5. Expanded Metadata Injection Support(扩展元数据注入支持), 6. Improved Repository Management(提高对Repository的管理) 7. Agile BI Plugin(敏捷BI插件) kettle6.1 Metadata Injection Improvements 、 2. Hide a Calculated Measure in the Data Model、 3. Publish a Data Model with Hidden Attributes、4. Edit Calculated Measures in Analyzer、 5. Show and Hide Available Fields 、6. Pentaho Data Service as a Build Model Source、 7. Added Parameter Pushdown Optimization for Data Services 、8. Improved JSON Input Performance、 9. DI Repository on DI Server Renamed to Pentaho Repository、 10. Driver Download for Data Services in Pentaho Data Integration、 11. New Run Options Window 、12. kettle6.0 Pentaho Data Services、 2. SNMP Monitoring 、 3. Inline Model Editing SDR Updates、 4. Data Lineage Analysis、 5. Big Data Improvements、6. Spoon Enhancements、 7. SAP HANA Bulk Loader Step kettle5.4 Spark Support 、2. Support for SAP HANA 、 3. New Hadoop Configurations Supported、 4. YARN Improvements 、 5. Call BA Platform Endpoints in your Transformations 6. Named Hadoop Cluster Configuration Improvements 、 7. Sqoop Improvements、 8. PDI API Improvements、 9. Scheduling APIs for PDI、 10. New Carte APIs - POST Calls、 11. New PDI Look and Feel kettle5.3 Manage Cluster Configuration with the Hadoop Clusters Feature、 2. New Developer Documentation、 3. New Cloudera and MapR Big Data Hadoop Distribution Support、 4. Better Support for High Load Environments and Large Deployments with Carte 、 5. Manually Migrating Big Data Cluster Configurations Stored in Hadoop Steps and Entries 、 6. Interactive Reports Performance Improvements kettle5.2 New Streamlined Data Refinery Feature、 2. R Script Executor Step Improvements、 3.New DI Server Administration Features、 4.Kerberos Security Support for CDH 5.1 and HDP 2.1、 5.New Marketplace Plugins、 6.Improved Upgrade Experience kettle5.1 Data Science Pack with Weka and R、 2. YARN Hadoop Distribution Support(hadoop分布式中的yarn的支持)、 3. Cloudera and MapR Hadoop Distribution Support(Cloudera和mapreduce的hadoop分布式支持)、 4. YARN for Carte Kettle Clusters、 5. Security Enhancements(增强的安全性)、 6. AES Password Support(AES密码支持)、 7. New Execute Permission、 8. Kerberos Security Support(Kerberos安全支持) 、 9. Impersonation Support、 10. Teradata and Vertica Bulkloaders 、 11. JBoss Platform Support、 12. New Marketplace Plugins、 13. Documentation Changes、
2023-05-31 01:59:061

如何使用kettle连接hive和hive2

连接hive的方法:进入hive所在的服务器,输入:hive --service hiveserver(目的:启动thrift)打开kettle配置连接界面,输入hive所在服务器的ip、所需要的hive库、端口号(thrift默认端口为:10000)测试连接,即可连接hive2的方法:[plain] view plain copyError connecting to database [Hive] : org.pentaho.di.core.exception.KettleDatabaseException: Error occured while trying to connect to the database Error connecting to database: (using class org.apache.hadoop.hive.jdbc.HiveDriver) Unable to load Hive Server 2 JDBC driver for the currently active Hadoop configuration org.pentaho.di.core.exception.KettleDatabaseException: Error occured while trying to connect to the database Error connecting to database: (using class org.apache.hadoop.hive.jdbc.HiveDriver) Unable to load Hive Server 2 JDBC driver for the currently active Hadoop configuration at org.pentaho.di.core.database.Database.normalConnect(Database.java:428) at org.pentaho.di.core.database.Database.connect(Database.java:361) at org.pentaho.di.core.database.Database.connect(Database.java:314) at org.pentaho.di.core.database.Database.connect(Database.java:302) at org.pentaho.di.core.database.DatabaseFactory.getConnectionTestReport(DatabaseFactory.java:80) at org.pentaho.di.core.database.DatabaseMeta.testConnection(DatabaseMeta.java:2685) at org.pentaho.di.ui.core.database.dialog.DatabaseDialog.test(DatabaseDialog.java:109) at org.pentaho.di.ui.core.database.wizard.CreateDatabaseWizardPage2.test(CreateDatabaseWizardPage2.java:157) at org.pentaho.di.ui.core.database.wizard.CreateDatabaseWizardPage2$3.widgetSelected(CreateDatabaseWizardPage2.java:147) at org.eclipse.swt.widgets.TypedListener.handleEvent(Unknown Source) at org.eclipse.swt.widgets.EventTable.sendEvent(Unknown Source) at org.eclipse.swt.widgets.Widget.sendEvent(Unknown Source) at org.eclipse.swt.widgets.Display.runDeferredEvents(Unknown Source) at org.eclipse.swt.widgets.Display.readAndDispatch(Unknown Source) at org.eclipse.jface.window.Window.runEventLoop(Window.java:820) at org.eclipse.jface.window.Window.open(Window.java:796) at org.pentaho.di.ui.core.database.wizard.CreateDatabaseWizard.createAndRunDatabaseWizard(CreateDatabaseWizard.java:111) at org.pentaho.di.ui.spoon.Spoon.createDatabaseWizard(Spoon.java:7457) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) at java.lang.reflect.Method.invoke(Unknown Source) at org.pentaho.ui.xul.impl.AbstractXulDomContainer.invoke(AbstractXulDomContainer.java:313) at org.pentaho.ui.xul.impl.AbstractXulComponent.invoke(AbstractXulComponent.java:157) at org.pentaho.ui.xul.impl.AbstractXulComponent.invoke(AbstractXulComponent.java:141) at org.pentaho.ui.xul.jface.tags.JfaceMenuitem.access$100(JfaceMenuitem.java:43) at org.pentaho.ui.xul.jface.tags.JfaceMenuitem$1.run(JfaceMenuitem.java:106) at org.eclipse.jface.action.Action.runWithEvent(Action.java:498) at org.eclipse.jface.action.ActionContributionItem.handleWidgetSelection(ActionContributionItem.java:545) at org.eclipse.jface.action.ActionContributionItem.access$2(ActionContributionItem.java:490) at org.eclipse.jface.action.ActionContributionItem$5.handleEvent(ActionContributionItem.java:402) at org.eclipse.swt.widgets.EventTable.sendEvent(Unknown Source) at org.eclipse.swt.widgets.Widget.sendEvent(Unknown Source) at org.eclipse.swt.widgets.Display.runDeferredEvents(Unknown Source) at org.eclipse.swt.widgets.Display.readAndDispatch(Unknown Source) at org.pentaho.di.ui.spoon.Spoon.readAndDispatch(Spoon.java:1297) at org.pentaho.di.ui.spoon.Spoon.waitForDispose(Spoon.java:7801) at org.pentaho.di.ui.spoon.Spoon.start(Spoon.java:9130) at org.pentaho.di.ui.spoon.Spoon.main(Spoon.java:638) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) at java.lang.reflect.Method.invoke(Unknown Source) at org.pentaho.commons.launcher.Launcher.main(Launcher.java:151) Caused by: org.pentaho.di.core.exception.KettleDatabaseException: Error connecting to database: (using class org.apache.hadoop.hive.jdbc.HiveDriver) Unable to load Hive Server 2 JDBC driver for the currently active Hadoop configuration at org.pentaho.di.core.database.Database.connectUsingClass(Database.java:573) at org.pentaho.di.core.database.Database.normalConnect(Database.java:410) ... 43 more Caused by: java.sql.SQLException: Unable to load Hive Server 2 JDBC driver for the currently active Hadoop configuration at org.apache.hive.jdbc.HiveDriver.getActiveDriver(HiveDriver.java:107) at org.apache.hive.jdbc.HiveDriver.callWithActiveDriver(HiveDriver.java:121) at org.apache.hive.jdbc.HiveDriver.connect(HiveDriver.java:132) at java.sql.DriverManager.getConnection(Unknown Source) at java.sql.DriverManager.getConnection(Unknown Source) at org.pentaho.di.core.database.Database.connectUsingClass(Database.java:555) ... 44 more Caused by: java.lang.reflect.InvocationTargetException at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) at java.lang.reflect.Method.invoke(Unknown Source) at org.apache.hive.jdbc.HiveDriver.getActiveDriver(HiveDriver.java:105) ... 49 more Caused by: java.lang.RuntimeException: Unable to load JDBC driver of type: hive2 at org.pentaho.hadoop.shim.common.CommonHadoopShim.getJdbcDriver(CommonHadoopShim.java:108) ... 54 more Caused by: java.lang.Exception: JDBC driver of type "hive2" not supported at org.pentaho.hadoop.shim.common.CommonHadoopShim.getJdbcDriver(CommonHadoopShim.java:104) ... 54 more 上述报错的解决方法如下:1.找到%KETTLE_HOME%/plugins/pehtaho-big-data-plugin/plugin.properties文件2.修改plugin.properties文件中的值:active.hadoop.configuration=hdp133.修改后重启kettle4.配置完成后,即可连接上对应的库如果要使用hadoop-20,则需要添加如下jar包:hadoop-core-1.2.1.jarhive-common-0.13.0.jarhive-jdbc-0.13.0.jarhive-service-0.13.0.jarlibthrift-0.9.1.jarslf4j-api-1.7.5.jarhttpclient-4.2.5.jarhttpcore-4.2.5.jar
2023-05-31 01:59:131

kettle启动文件在哪

首先看你安装在哪个盘,假设在D盘启动目录:D:kettledata-integrationSpoon.bat或者Spoon.sh(LINUX)谢谢采纳
2023-05-31 01:59:191

kettle5.3如何使用有什么作用

kettle设置定时执行要把kettle启动起来,并且Job为执行状态;通常的做法是把kitchen挂到后台进程。Kettle定时功能使用方法如下:1.在Job下的start模块,有一个定时功能,可以每日,每周等方式进行定时,对于周期性的ETL,很有帮助。2.使用资源库(repository)登录时,默认的用户名和密码是admin/admin。3.当job是存放在资源库(一般资源库都使用数据库)中时,使用Kitchen.bat执行job时,需使用如下的命令行:<pre t="code" l="java">Kitchen.bat /rep kettle /user admin /pass admin /job job名4.当job没有存放在资源库而存放在文件系统时,使用Kitchen.bat执行job时,需使用如下的命令行:<pre t="code" l="java">Kitchen.bat /norep /file user-transfer-job.kjb5.可以使用命令行执行job后,就可以使用windows或linux的任务调度来定时执行任务了。
2023-05-31 01:59:261

开源ETL工具比较,Kettle和Talend,都有什么优势和劣势

目前kettle功能太弱小,还是等3.0出来再用吧, talend不错,支持的数据种类很多.。商用的都有很好的data mapping/transform界面,job分布式服务器和监控工具等等,具体的性能差别我不太清楚,很少做对速度要求很高的项目。拓展:1、ETL,是英文 Extract-Transform-Load 的缩写,用来描述将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程。ETL一词较常用在数据仓库,但其对象并不限于数据仓库。ETL是构建数据仓库的重要一环,用户从数据源抽取出所需的数据,经过数据清洗,最终按照预先定义好的数据仓库模型,将数据加载到数据仓库中去。2、信息是现代企业的重要资源,是企业运用科学管理、决策分析的基础。目前,大多数企业花费大量的资金和时间来构建联机事务处理OLTP的业务系统和办公自动化系统,用来记录事务处理的各种相关数据。据统计,数据量每2~3年时间就会成倍增长,这些数据蕴含着巨大的商业价值,而企业所关注的通常只占在总数据量的2%~4%左右。
2023-05-31 01:59:363

kettle怎么读

英音:["ketl]美音:["kɛt!]
2023-05-31 01:59:571

简述kettle的作用

kettle的优势:1.成本低,只有学习成本2.易用性好,容易学习3.插件架构支持快速定制开发
2023-05-31 02:00:041