Class: TencentCloud::Oceanus::V20190422::CreateJobConfigRequest
- Inherits:
-
Common::AbstractModel
- Object
- Common::AbstractModel
- TencentCloud::Oceanus::V20190422::CreateJobConfigRequest
- Defined in:
- lib/v20190422/models.rb
Overview
CreateJobConfig请求参数结构体
Instance Attribute Summary collapse
- #AutoDelete ⇒ Object
- #AutoRecover ⇒ Object
- #CheckpointIntervalSecond ⇒ Object
- #CheckpointRetainedNum ⇒ Object
- #CheckpointTimeoutSecond ⇒ Object
- #ClazzLevels ⇒ Object
- #ClsLogsetId ⇒ Object
- #ClsTopicId ⇒ Object
- #COSBucket ⇒ Object
- #DefaultParallelism ⇒ Object
- #EntrypointClass ⇒ Object
- #EsServerlessIndex ⇒ Object
- #EsServerlessSpace ⇒ Object
- #ExpertModeConfiguration ⇒ Object
- #ExpertModeOn ⇒ Object
- #FlinkVersion ⇒ Object
- #JobGraph ⇒ Object
- #JobId ⇒ Object
- #JobManagerCpu ⇒ Object
- #JobManagerMem ⇒ Object
- #JobManagerSpec ⇒ Object
- #LogCollect ⇒ Object
- #LogCollectType ⇒ Object
- #LogLevel ⇒ Object
- #ProgramArgs ⇒ Object
- #ProgramArgsAfterGzip ⇒ Object
- #Properties ⇒ Object
- #PythonVersion ⇒ Object
- #Remark ⇒ Object
- #ResourceRefs ⇒ Object
- #TaskManagerCpu ⇒ Object
- #TaskManagerMem ⇒ Object
- #TaskManagerSpec ⇒ Object
- #TraceModeConfiguration ⇒ Object
- #TraceModeOn ⇒ Object
- #UseOldSystemConnector ⇒ Object
- #WorkSpaceId ⇒ Object
Instance Method Summary collapse
- #deserialize(params) ⇒ Object
-
#initialize(jobid = nil, entrypointclass = nil, programargs = nil, remark = nil, resourcerefs = nil, defaultparallelism = nil, properties = nil, autodelete = nil, cosbucket = nil, logcollect = nil, jobmanagerspec = nil, taskmanagerspec = nil, clslogsetid = nil, clstopicid = nil, logcollecttype = nil, pythonversion = nil, workspaceid = nil, loglevel = nil, autorecover = nil, clazzlevels = nil, expertmodeon = nil, expertmodeconfiguration = nil, tracemodeon = nil, tracemodeconfiguration = nil, checkpointretainednum = nil, jobgraph = nil, esserverlessindex = nil, esserverlessspace = nil, flinkversion = nil, jobmanagercpu = nil, jobmanagermem = nil, taskmanagercpu = nil, taskmanagermem = nil, useoldsystemconnector = nil, programargsaftergzip = nil, checkpointtimeoutsecond = nil, checkpointintervalsecond = nil) ⇒ CreateJobConfigRequest
constructor
A new instance of CreateJobConfigRequest.
Constructor Details
#initialize(jobid = nil, entrypointclass = nil, programargs = nil, remark = nil, resourcerefs = nil, defaultparallelism = nil, properties = nil, autodelete = nil, cosbucket = nil, logcollect = nil, jobmanagerspec = nil, taskmanagerspec = nil, clslogsetid = nil, clstopicid = nil, logcollecttype = nil, pythonversion = nil, workspaceid = nil, loglevel = nil, autorecover = nil, clazzlevels = nil, expertmodeon = nil, expertmodeconfiguration = nil, tracemodeon = nil, tracemodeconfiguration = nil, checkpointretainednum = nil, jobgraph = nil, esserverlessindex = nil, esserverlessspace = nil, flinkversion = nil, jobmanagercpu = nil, jobmanagermem = nil, taskmanagercpu = nil, taskmanagermem = nil, useoldsystemconnector = nil, programargsaftergzip = nil, checkpointtimeoutsecond = nil, checkpointintervalsecond = nil) ⇒ CreateJobConfigRequest
Returns a new instance of CreateJobConfigRequest.
1112 1113 1114 1115 1116 1117 1118 1119 1120 1121 1122 1123 1124 1125 1126 1127 1128 1129 1130 1131 1132 1133 1134 1135 1136 1137 1138 1139 1140 1141 1142 1143 1144 1145 1146 1147 1148 1149 1150 |
# File 'lib/v20190422/models.rb', line 1112 def initialize(jobid=nil, entrypointclass=nil, programargs=nil, remark=nil, resourcerefs=nil, defaultparallelism=nil, properties=nil, autodelete=nil, cosbucket=nil, logcollect=nil, jobmanagerspec=nil, taskmanagerspec=nil, clslogsetid=nil, clstopicid=nil, logcollecttype=nil, pythonversion=nil, workspaceid=nil, loglevel=nil, autorecover=nil, clazzlevels=nil, expertmodeon=nil, expertmodeconfiguration=nil, tracemodeon=nil, tracemodeconfiguration=nil, checkpointretainednum=nil, jobgraph=nil, esserverlessindex=nil, esserverlessspace=nil, flinkversion=nil, jobmanagercpu=nil, jobmanagermem=nil, taskmanagercpu=nil, taskmanagermem=nil, useoldsystemconnector=nil, programargsaftergzip=nil, checkpointtimeoutsecond=nil, checkpointintervalsecond=nil) @JobId = jobid @EntrypointClass = entrypointclass @ProgramArgs = programargs @Remark = remark @ResourceRefs = resourcerefs @DefaultParallelism = defaultparallelism @Properties = properties @AutoDelete = autodelete @COSBucket = cosbucket @LogCollect = logcollect @JobManagerSpec = jobmanagerspec @TaskManagerSpec = taskmanagerspec @ClsLogsetId = clslogsetid @ClsTopicId = clstopicid @LogCollectType = logcollecttype @PythonVersion = pythonversion @WorkSpaceId = workspaceid @LogLevel = loglevel @AutoRecover = autorecover @ClazzLevels = clazzlevels @ExpertModeOn = expertmodeon @ExpertModeConfiguration = expertmodeconfiguration @TraceModeOn = tracemodeon @TraceModeConfiguration = tracemodeconfiguration @CheckpointRetainedNum = checkpointretainednum @JobGraph = jobgraph @EsServerlessIndex = esserverlessindex @EsServerlessSpace = esserverlessspace @FlinkVersion = flinkversion @JobManagerCpu = jobmanagercpu @JobManagerMem = jobmanagermem @TaskManagerCpu = taskmanagercpu @TaskManagerMem = taskmanagermem @UseOldSystemConnector = useoldsystemconnector @ProgramArgsAfterGzip = programargsaftergzip @CheckpointTimeoutSecond = checkpointtimeoutsecond @CheckpointIntervalSecond = checkpointintervalsecond end |
Instance Attribute Details
#AutoDelete ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def AutoDelete @AutoDelete end |
#AutoRecover ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def AutoRecover @AutoRecover end |
#CheckpointIntervalSecond ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def CheckpointIntervalSecond @CheckpointIntervalSecond end |
#CheckpointRetainedNum ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def CheckpointRetainedNum @CheckpointRetainedNum end |
#CheckpointTimeoutSecond ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def CheckpointTimeoutSecond @CheckpointTimeoutSecond end |
#ClazzLevels ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def ClazzLevels @ClazzLevels end |
#ClsLogsetId ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def ClsLogsetId @ClsLogsetId end |
#ClsTopicId ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def ClsTopicId @ClsTopicId end |
#COSBucket ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def COSBucket @COSBucket end |
#DefaultParallelism ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def DefaultParallelism @DefaultParallelism end |
#EntrypointClass ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def EntrypointClass @EntrypointClass end |
#EsServerlessIndex ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def EsServerlessIndex @EsServerlessIndex end |
#EsServerlessSpace ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def EsServerlessSpace @EsServerlessSpace end |
#ExpertModeConfiguration ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def ExpertModeConfiguration @ExpertModeConfiguration end |
#ExpertModeOn ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def ExpertModeOn @ExpertModeOn end |
#FlinkVersion ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def FlinkVersion @FlinkVersion end |
#JobGraph ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def JobGraph @JobGraph end |
#JobId ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def JobId @JobId end |
#JobManagerCpu ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def JobManagerCpu @JobManagerCpu end |
#JobManagerMem ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def JobManagerMem @JobManagerMem end |
#JobManagerSpec ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def JobManagerSpec @JobManagerSpec end |
#LogCollect ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def LogCollect @LogCollect end |
#LogCollectType ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def LogCollectType @LogCollectType end |
#LogLevel ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def LogLevel @LogLevel end |
#ProgramArgs ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def ProgramArgs @ProgramArgs end |
#ProgramArgsAfterGzip ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def ProgramArgsAfterGzip @ProgramArgsAfterGzip end |
#Properties ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def Properties @Properties end |
#PythonVersion ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def PythonVersion @PythonVersion end |
#Remark ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def Remark @Remark end |
#ResourceRefs ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def ResourceRefs @ResourceRefs end |
#TaskManagerCpu ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def TaskManagerCpu @TaskManagerCpu end |
#TaskManagerMem ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def TaskManagerMem @TaskManagerMem end |
#TaskManagerSpec ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def TaskManagerSpec @TaskManagerSpec end |
#TraceModeConfiguration ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def TraceModeConfiguration @TraceModeConfiguration end |
#TraceModeOn ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def TraceModeOn @TraceModeOn end |
#UseOldSystemConnector ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def UseOldSystemConnector @UseOldSystemConnector end |
#WorkSpaceId ⇒ Object
Parameters:
-
JobId:
—
作业Id
-
EntrypointClass:
—
主类
-
ProgramArgs:
—
主类入参,需要区分下Sql作业配置,Jar作业配置,Python作业配置,具体参考下面的示例值
-
Remark:
—
备注
-
ResourceRefs:
—
资源引用数组
-
DefaultParallelism:
—
作业默认并行度
-
Properties:
—
系统参数
-
AutoDelete:
—
1: 作业配置达到上限之后,自动删除可删除的最早版本
-
COSBucket:
—
作业使用的 COS 存储桶名
-
LogCollect:
—
是否采集作业日志
-
JobManagerSpec:
—
JobManager规格
-
TaskManagerSpec:
—
TaskManager规格
-
ClsLogsetId:
—
CLS日志集ID
-
ClsTopicId:
—
CLS日志主题ID
-
LogCollectType:
—
日志采集类型 2:CLS;3:COS
-
PythonVersion:
—
pyflink作业运行时使用的python版本
-
WorkSpaceId:
—
工作空间 SerialId
-
LogLevel:
—
日志级别
-
AutoRecover:
—
Oceanus 平台恢复作业开关 1:开启 -1: 关闭
-
ClazzLevels:
—
类日志级别
-
ExpertModeOn:
—
是否打开专家模式
-
ExpertModeConfiguration:
—
专家模式的配置
-
TraceModeOn:
—
trace链路
-
TraceModeConfiguration:
—
trace链路配置
-
CheckpointRetainedNum:
—
checkpoint保留个数
-
JobGraph:
—
算子拓扑图
-
EsServerlessIndex:
—
es索引名称
-
EsServerlessSpace:
—
es索引空间
-
FlinkVersion:
—
flink版本
-
JobManagerCpu:
—
JobManager cpu
-
JobManagerMem:
—
JobManager 内存
-
TaskManagerCpu:
—
TaskManager cpu
-
TaskManagerMem:
—
TaskManager 内存
-
UseOldSystemConnector:
—
0=默认使用老的 1=使用新的
-
ProgramArgsAfterGzip:
—
压缩参数
-
CheckpointTimeoutSecond:
—
checkpoint 超时时间
-
CheckpointIntervalSecond:
—
checkpoint 间隔时间
1110 1111 1112 |
# File 'lib/v20190422/models.rb', line 1110 def WorkSpaceId @WorkSpaceId end |
Instance Method Details
#deserialize(params) ⇒ Object
1152 1153 1154 1155 1156 1157 1158 1159 1160 1161 1162 1163 1164 1165 1166 1167 1168 1169 1170 1171 1172 1173 1174 1175 1176 1177 1178 1179 1180 1181 1182 1183 1184 1185 1186 1187 1188 1189 1190 1191 1192 1193 1194 1195 1196 1197 1198 1199 1200 1201 1202 1203 1204 1205 1206 1207 1208 1209 1210 1211 1212 1213 1214 1215 1216 1217 1218 1219 1220 |
# File 'lib/v20190422/models.rb', line 1152 def deserialize(params) @JobId = params['JobId'] @EntrypointClass = params['EntrypointClass'] @ProgramArgs = params['ProgramArgs'] @Remark = params['Remark'] unless params['ResourceRefs'].nil? @ResourceRefs = [] params['ResourceRefs'].each do |i| resourceref_tmp = ResourceRef.new resourceref_tmp.deserialize(i) @ResourceRefs << resourceref_tmp end end @DefaultParallelism = params['DefaultParallelism'] unless params['Properties'].nil? @Properties = [] params['Properties'].each do |i| property_tmp = Property.new property_tmp.deserialize(i) @Properties << property_tmp end end @AutoDelete = params['AutoDelete'] @COSBucket = params['COSBucket'] @LogCollect = params['LogCollect'] @JobManagerSpec = params['JobManagerSpec'] @TaskManagerSpec = params['TaskManagerSpec'] @ClsLogsetId = params['ClsLogsetId'] @ClsTopicId = params['ClsTopicId'] @LogCollectType = params['LogCollectType'] @PythonVersion = params['PythonVersion'] @WorkSpaceId = params['WorkSpaceId'] @LogLevel = params['LogLevel'] @AutoRecover = params['AutoRecover'] unless params['ClazzLevels'].nil? @ClazzLevels = [] params['ClazzLevels'].each do |i| clazzlevel_tmp = ClazzLevel.new clazzlevel_tmp.deserialize(i) @ClazzLevels << clazzlevel_tmp end end @ExpertModeOn = params['ExpertModeOn'] unless params['ExpertModeConfiguration'].nil? @ExpertModeConfiguration = ExpertModeConfiguration.new @ExpertModeConfiguration.deserialize(params['ExpertModeConfiguration']) end @TraceModeOn = params['TraceModeOn'] unless params['TraceModeConfiguration'].nil? @TraceModeConfiguration = TraceModeConfiguration.new @TraceModeConfiguration.deserialize(params['TraceModeConfiguration']) end @CheckpointRetainedNum = params['CheckpointRetainedNum'] unless params['JobGraph'].nil? @JobGraph = JobGraph.new @JobGraph.deserialize(params['JobGraph']) end @EsServerlessIndex = params['EsServerlessIndex'] @EsServerlessSpace = params['EsServerlessSpace'] @FlinkVersion = params['FlinkVersion'] @JobManagerCpu = params['JobManagerCpu'] @JobManagerMem = params['JobManagerMem'] @TaskManagerCpu = params['TaskManagerCpu'] @TaskManagerMem = params['TaskManagerMem'] @UseOldSystemConnector = params['UseOldSystemConnector'] @ProgramArgsAfterGzip = params['ProgramArgsAfterGzip'] @CheckpointTimeoutSecond = params['CheckpointTimeoutSecond'] @CheckpointIntervalSecond = params['CheckpointIntervalSecond'] end |