大数据抽取工具管理操作手册文档格式.docx

上传人:b****4 文档编号:7699489 上传时间:2023-05-08 格式:DOCX 页数:58 大小:1.04MB
下载 相关 举报
大数据抽取工具管理操作手册文档格式.docx_第1页
第1页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第2页
第2页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第3页
第3页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第4页
第4页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第5页
第5页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第6页
第6页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第7页
第7页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第8页
第8页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第9页
第9页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第10页
第10页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第11页
第11页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第12页
第12页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第13页
第13页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第14页
第14页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第15页
第15页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第16页
第16页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第17页
第17页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第18页
第18页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第19页
第19页 / 共58页
大数据抽取工具管理操作手册文档格式.docx_第20页
第20页 / 共58页
亲,该文档总共58页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

大数据抽取工具管理操作手册文档格式.docx

《大数据抽取工具管理操作手册文档格式.docx》由会员分享,可在线阅读,更多相关《大数据抽取工具管理操作手册文档格式.docx(58页珍藏版)》请在冰点文库上搜索。

大数据抽取工具管理操作手册文档格式.docx

1.2基本概念

指令:

可以在管理节点上或者数据处理节点执行的一系列操作,比如数据抽取操作、停止数据源操作、删除hdfs文件操作等等

作业:

一个完整的数据抽取指令,比如表数据抽取到hdfs作业等,停止数据源作业指令等,一个作业可以被分解为做个作业任务,然后交个数据处理节点执行。

数据处理节点会给每个作业分配独立的作业任务处理队列和作业工作线程,作业之间互不干扰;

处理队列长度和工作线程数可以在作业定义中进行配置(可以根据作业对应的数据量级别、服务器资源配置以及数据库并发处理能力进行灵活配置)。

作业任务:

由作业分解而成,将由数据处理节点中的分配给对应作业的工作线程处理执行,如果对应的作业没有空闲的作业线程,则将作业任务加入作业对应的工作队列,如果作业工作队列也满了,则阻塞等待直到有空闲的作业队列或者作业工作线程。

管理节点:

管理、监控、调度作业的服务器

数据处理节点:

处理和执行作业任务的服务器

数据块号:

作业抽取的海量数据会按照表字段分区或者表分区切分成不同的数据块,每个数据块分配一个唯一块号,表字段分区对应数据块可以进一步进行二次切分成多个子块,以便数据抽取任务更加均匀地分配到各个作业节点上执行,提升抽取效率和速度,表分区数据块不能进行二次切分。

1.3整体架构

服务器类型分为管理节点和数据节点两种,它们之间通过分布式事件框架通讯,彼此之间又具备独立性,一个节点失效不会影响其他节点作业任务的执行。

1.3.1管理节点

数量:

只有一台,

作用:

执行所有作业指令的入口,监控所有数据节点作业状态(正常、异常、运行、等待、终止、完成等)和进展情况(数据任务处理状态,成功数据行数,异常数据行数,总的记录行数等等),管理节点也可以作为数据节点。

分解作业任务,根据作业定义,将作业分解成多个任务,然后将作业任务均匀地分配给数据处理节点执行

调度任务,根据数据处理节点作业任务执行情况,将任务繁忙的作业任务调配到相对较空闲的作业数据处理节点【开发中】

停止作业任务,在作业执行过程中可以停止正在执行的作业

重新执行已经完成的作业或者重新执行修改了配置的作业

管理hdfs文件:

删除hdfs文件和目录

管理作业使用的数据源:

停止不需要的数据源,或者作业数据源参数修改调整后,为了加载新的配置而停止数据源

采集作业状态数据源:

通过异步事件机制,采集分布在每个数据处理节点上的作业任务执行状态数据,包括:

作业执行状态、作业任务执行状态、数据抽取进度、异常情况、已经完成作业任务清单、未完成作业任务清单、失败作业任务清单

1.3.2数据节点

1…n台

接收并处理管理节点分派的作业任务,为每个作业分配独立的工作处理线程池和工作队列

处理管理节点提交的作业监控指令,将各个作业的实施处理情况以异步事件方式返回给管理节点

2作业指令

2

2.1指令概述

2.1.1操作指令

执行作业指令

停止作业指令

同步作业状态指令

提交新作业指令

记录作业状态

查看作业历史记录

指令执行的窗口如下:

未执行作业窗口

正在执行作业的窗口:

执行完毕作业窗口:

查看作业历史记录窗口

2.1.2执行作业指令类型

db数据抽取到hdfs

删除hdfs文件

停止数据源指令

任务重新分派指令

下面分别介绍各种指令配置及使用方法

2.2作业指令详解

作业指令配置语法采用bbossioc配置语法,大量采用扩展属性配置语法,配置灵活。

1

2.1

2.2

2.2.1删除hdfs目录/文件指令

指令说明

一次性删除hdfs中的多个或者一个文件或者文件夹,重新执行作业时可以使用这个指令删除hdfs文件或者目录

指令参数

参数描述

默认值

是否必填

Name

作业唯一名称

必填

hdfsserver

指定hdfs服务器

Deletefiles

指定要删除的文件或者文件夹,多个以逗号分隔。

使用实例

<

propertyname="

testdelete"

hdfsserver="

hdfs:

//10.0.15.40:

9000"

deletefiles="

/m2m/sss"

/>

2.2.2停止数据源指令

停止数据源,调整数据库参数后使用这个指令来让参数生效

stopdbnames

数据源名称,多个数据源用逗号分隔

stopds"

stopdbnames="

hx125seldom"

/>

2.2.3作业任务重新调度指令

开发测试中。

将指定作业节点上正在执行的作业的所有未执行作业任务重新调配到其他空闲的节点上运行,以便提升作业处理效率,充分利用节点空闲资源。

如果reassigntaskNode对应的节点以及因为异外异常关闭停止,则由管理节点将该节点对应的作业正在执行的作业任务、未执行的作业、正在等待的作业任务全部调配到其他有效作业数据处理节点执行。

指令样例:

reassignetasks"

reassigntaskNode="

csxbpmts02v-ap-3782"

reassigntaskJobname="

test"

2.2.4执行作业指令

2.2.4.1单任务作业指令

一个作业只对应一个任务,适用于数据量比较小的表数据抽取到hdfs,可以通过target属性指定将作业提交给对应的数据处理节点来,不指定target则交个管理作业节点来执行(前提是管理节点也作为数据处理节点)或者数据处理节点

Dbname

Driver

数据库驱动程序,部署时必须要将对于数据库的驱动程序jar文件放到应用的lib目录中

Dburl

对应数据库的jdbc连接地址

Dbuser

数据库账号名称

dbpassword

数据库账号访问口令

validatesql

连接池校验sql,非连接池模式不需要指定

Usepool

标识数据源是否采用连接池,默认为true,true采用,false不采用,在作业任务数数量比较少,则可以设置为false,作业任务比较多的情况下,可以采用连接池,重用连接

true

可选

Hdfs服务器地址

hdfsdatadir

作业数据保存到hdfs服务器的文件夹目录

tablename

指定数据库表名称

querystatement

指定查询语句,如果指定了查询语句,则无需指定表名称

filebasename

作业数据文件的基本文件名前缀

Schema

数据库schema名称,oracle表空间查询时,必须指定

Pkname

表字段分区查询字段名称

Columns

指定要查询的字段名称列表,多个用逗号分隔

Single

单任务作业标识,true单任务,false多任务

false

rowsperfile

每个文件存储的记录条数,指定了rowsperfile属性,则会将文件切分为多个文件保存到hdfs中,每个文件最多存储rowsperfile指定记录条数

startfileNo

startfileNo在指定了rowsperfile情况下起作用,从指定的文件号开始抽取数据,忽略之前的文件号对应的数据记录

target

指定单任务作业的数据节点,可以指定也可以不指定,如果指定的话,则在指定的数据作业节点上执行,如果不指定如果管理节点作为数据节点则直接在管理节点上执行,否则任意挑选一个作业节点执行

Datatype

Hdfs文件存储记录数据格式,text:

#分隔字段及字段值,json:

json格式存储作业数据

clearhdfsfiles

执行作业任务时,是否删除所有已经生成的文件,true删除false不删除

见示例清单

示例一将表中数据生成一个hdfs文件

qzj_Sany_vehicle"

dbname="

qzj"

driver="

oracle.jdbc.driver.OracleDriver"

dburl="

jdbc:

oracle:

thin:

@//10.16.1.12:

1521/iem"

dbuser="

SANY"

dbpassword="

qzjiem#EDC2011"

validatesql="

select1fromdual"

usepool="

false"

hdfsserver="

hdfsdatadir="

/m2m/data05/common"

filebasename="

Sany_vehicle"

tablename="

single="

true"

target="

BPIT-10006673-2810"

datatype="

text"

示例二对文件安装行数进行切分成多个文件:

onejobsinglefile"

test1"

driver="

dburl="

@//10.0.15.51:

1521/orcl"

dbuser="

testpdp1"

dbpassword="

usepool="

/m2m/data04/onejob"

testbigdata"

schema="

pkname="

tid"

columns="

"

clearhdfsfiles="

querystatement="

select*fromtestpdp1.testbigdataorderbyTID"

rowsperfile="

10"

示例三对文件安装行数进行切分成多个文件,并指定起始抽取文件号(适用于停止后从停止文件号对应的文件继续抽取数据)

startfileNo="

2.2.4.2按字段分区作业指令

抽取表数据到hdfs中,按照给定的表字段值进行字段值范围分区,抽取完毕后如果对应的分区文件没有包含数据则会将对应的hdfs文件删除

name

dbname

作业数据源名称,根据数据库配置动态生成数据源,如果usepool为true则数据源采用连接池管理db连接,否则直连数据(连接使用完毕后自动释放db连接),dbname不能命名为:

bigdata_conf,bigdata_conf是内置数据源的名称。

driver

dburl

dbuser

usepool

手动指定查询sql语句,可以limitstatement属性来确定数据的查询范围,也可以直接指定startid和endid来指定数据查询范围,也可以同时指定表名,然后根据表来获取数据的查询范围。

querystatement属性和tablename属性任意设置一个即可

limitstatement

指定数据查询的分区字段的起点和终点,不指定的话会根据表名称自动生成,形式如下:

selectmin(t.st_pid)asstartid,max(t.st_pid)asendidfromiss.is_static_often_20131211t

schema

pkname

表字段分区对应的字段

columns

指定要查询的字段名称列表,多个用逗号分隔,不指定时查询表所有字段

“”

geneworkthreads

指定数据处理节点给作业分配的工作线程数

20

genqueques

指定数据处理节点给作业分配的工作等待队列长度

5

genquequetimewait

指定作业工作等待队列等待超时时间,单位:

10秒

datatype

Json

执行作业前是否删除存放作业数据文件的hdfs文件目录,true删除,false不删除

usepartition

是否参与表分区抽取数据,true采用,false不采用

blocks

指定只抽取块号对应的表分区的数据,多个用逗号分隔

excludeblocks

指定要排除的表分区对应的块号,多个用逗号分隔

startid

指定数据抽取对应分区字段的起始值,也就是符合条件的最小值,这样不需要工具自动去查询最小范围值

endid

指定数据抽取对应分区字段的最大值,也就是符合条件的最大值,这样不需要工具自动去查询最大范围值

errorrowslimit

作业任务最大允许错误行数,如果超过这个错误行数,则强制终止作业执行,-1出现异常不终止直到任务执行完毕,0表示只要一行发生错误及终止对应作业任务执行,大于0时,对作业任务错误记录行数进行计数,当达到指定的最大允许错误行数时,终止作业执行

-1

subblocks

在第一次分块的基础上,将已有块进一步切分成成subblocks对应的子块,使得任务的切分更加合理,数据分布更加均匀地分布到各个块中

datablocks

指定按字段分区需要切分的分区个数,这个参数很重要,管理节点会根据分区的起始位置(startid)和终止位置(endid),将期间的数据平均分为datablocks指定的块数,每个块分配唯一的块号,然后管理节点再将这些块转换为作业任务,平均分发给每个数据处理节点进行处理。

按字段分区时必填

usepagine

标识按数据库分页模式进行分区,不建议使用,true采用分页模式false不采用分页模式

见后续实例清单

示例一基本按表字段分区作业指令

按主键分区作业自动查询分区范围(startid和endid),比较慢的数据库耗时比较长

 

hx20111212_20120331"

dbname="

hx243"

@//10.11.16.243:

1521/ISS"

HX"

edcr9637_"

validatesql="

hdfsdatadir="

/m2m/data04/hx20111212_20120331"

is_static_20111212_20120331"

is_static"

schema="

ISS"

pkname="

ST_PID"

columns="

datablocks="

10000"

geneworkthreads="

genqueques="

5"

genquequetimewait="

clearhdfsfiles="

errorrowslimit="

0"

示例二按主键分区作业指定分区范围(startid和endid)

startid="

323404849"

endid="

30039753017"

Errorrowslimit为0表示不允许出现错误行,一旦出现就结束对应作业任务的执行

示例三只抽取blocks对应块号的作业指令

@//10.

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 农林牧渔 > 林学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2