命令行工具¶
hpipe¶
概要:
Execute a hpipe workflow
Usage:
hpipe [options]
Options:
-h, --help Print this message
-v, --verbose Use verbose output
-p, --path Working path
-f, --flow Entry filename of workflow
--max-retry Max retry times of failed jobs, default: 3
--start Start from a specific job
--end End at a specific job
--status-saver Method to track job status
default: sqlite
available: hdfs, sqlite
--namenode Address of Hadoop NameNode, default: 127.0.0.1:8020
--sqlite File path for sqlite database
--hadoop Enable Hadoop streaming job
--jar Path of Hadoop streaming jar file
--odps Enable ODPS job
--odps-endpoint Address of ODPS endpoing
--odps-project ODPS project name
--odps-access-id ODPS access id
--odps-access-key ODPS access key
--hive Enable Hive job
--bizdate Set variable $bizdate in YYYYMMDD format
--less-log Less log output
任务配置¶
-p
或者--path
:工作路径,配置项中的文件路径会被加上此前缀-f
或者--flow
:任务流入口文件--max-retry
:任务失败会被重新执行,此参数指定任务最大执行次数--start
:从某个任务节点开始执行--end
:执行到某个任务节点结束--bizdate
:指定内置变量$bizdate
,设定此值会同时更新$gmtdate
任务状态记录¶
目前Hpipe支持2种存放任务状态:
- SQLite(默认方式)
- HDFS
在启动hpipe的时候通过命令行参数指定:--status-saver
。
若使用SQLite,需要指定数据库文件路径,例如:--sqlite /var/run/hpipe/status.db
若使用HDFS,需要指定HDFS的Namenode服务器地址:--namenode master:8020