Class: TencentCloud::Dlc::V20210125::SparkJobInfo

Inherits:
Common::AbstractModel
  • Object
show all
Defined in:
lib/v20210125/models.rb

Overview

spark作业详情。

Instance Attribute Summary collapse

Instance Method Summary collapse

Constructor Details

#initialize(jobid = nil, jobname = nil, jobtype = nil, dataengine = nil, eni = nil, islocal = nil, jobfile = nil, rolearn = nil, mainclass = nil, cmdargs = nil, jobconf = nil, islocaljars = nil, jobjars = nil, islocalfiles = nil, jobfiles = nil, jobdriversize = nil, jobexecutorsize = nil, jobexecutornums = nil, jobmaxattempts = nil, jobcreator = nil, jobcreatetime = nil, jobupdatetime = nil, currenttaskid = nil, jobstatus = nil, streamingstat = nil, datasource = nil, islocalpythonfiles = nil, apppythonfiles = nil, islocalarchives = nil, jobarchives = nil, sparkimage = nil, jobpythonfiles = nil, tasknum = nil, dataenginestatus = nil, jobexecutormaxnumbers = nil, sparkimageversion = nil, sessionid = nil, dataengineclustertype = nil, dataengineimageversion = nil, isinherit = nil, issessionstarted = nil, enginetypedetail = nil) ⇒ SparkJobInfo

Returns a new instance of SparkJobInfo.



14439
14440
14441
14442
14443
14444
14445
14446
14447
14448
14449
14450
14451
14452
14453
14454
14455
14456
14457
14458
14459
14460
14461
14462
14463
14464
14465
14466
14467
14468
14469
14470
14471
14472
14473
14474
14475
14476
14477
14478
14479
14480
14481
14482
# File 'lib/v20210125/models.rb', line 14439

def initialize(jobid=nil, jobname=nil, jobtype=nil, dataengine=nil, eni=nil, islocal=nil, jobfile=nil, rolearn=nil, mainclass=nil, cmdargs=nil, jobconf=nil, islocaljars=nil, jobjars=nil, islocalfiles=nil, jobfiles=nil, jobdriversize=nil, jobexecutorsize=nil, jobexecutornums=nil, jobmaxattempts=nil, jobcreator=nil, jobcreatetime=nil, jobupdatetime=nil, currenttaskid=nil, jobstatus=nil, streamingstat=nil, datasource=nil, islocalpythonfiles=nil, apppythonfiles=nil, islocalarchives=nil, jobarchives=nil, sparkimage=nil, jobpythonfiles=nil, tasknum=nil, dataenginestatus=nil, jobexecutormaxnumbers=nil, sparkimageversion=nil, sessionid=nil, dataengineclustertype=nil, dataengineimageversion=nil, isinherit=nil, issessionstarted=nil, enginetypedetail=nil)
  @JobId = jobid
  @JobName = jobname
  @JobType = jobtype
  @DataEngine = dataengine
  @Eni = eni
  @IsLocal = islocal
  @JobFile = jobfile
  @RoleArn = rolearn
  @MainClass = mainclass
  @CmdArgs = cmdargs
  @JobConf = jobconf
  @IsLocalJars = islocaljars
  @JobJars = jobjars
  @IsLocalFiles = islocalfiles
  @JobFiles = jobfiles
  @JobDriverSize = jobdriversize
  @JobExecutorSize = jobexecutorsize
  @JobExecutorNums = jobexecutornums
  @JobMaxAttempts = jobmaxattempts
  @JobCreator = jobcreator
  @JobCreateTime = jobcreatetime
  @JobUpdateTime = jobupdatetime
  @CurrentTaskId = currenttaskid
  @JobStatus = jobstatus
  @StreamingStat = streamingstat
  @DataSource = datasource
  @IsLocalPythonFiles = islocalpythonfiles
  @AppPythonFiles = apppythonfiles
  @IsLocalArchives = islocalarchives
  @JobArchives = jobarchives
  @SparkImage = sparkimage
  @JobPythonFiles = jobpythonfiles
  @TaskNum = tasknum
  @DataEngineStatus = dataenginestatus
  @JobExecutorMaxNumbers = jobexecutormaxnumbers
  @SparkImageVersion = sparkimageversion
  @SessionId = sessionid
  @DataEngineClusterType = dataengineclustertype
  @DataEngineImageVersion = dataengineimageversion
  @IsInherit = isinherit
  @IsSessionStarted = issessionstarted
  @EngineTypeDetail = enginetypedetail
end

Instance Attribute Details

#AppPythonFilesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def AppPythonFiles
  @AppPythonFiles
end

#CmdArgsObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def CmdArgs
  @CmdArgs
end

#CurrentTaskIdObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def CurrentTaskId
  @CurrentTaskId
end

#DataEngineObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def DataEngine
  @DataEngine
end

#DataEngineClusterTypeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def DataEngineClusterType
  @DataEngineClusterType
end

#DataEngineImageVersionObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def DataEngineImageVersion
  @DataEngineImageVersion
end

#DataEngineStatusObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def DataEngineStatus
  @DataEngineStatus
end

#DataSourceObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def DataSource
  @DataSource
end

#EngineTypeDetailObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def EngineTypeDetail
  @EngineTypeDetail
end

#EniObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def Eni
  @Eni
end

#IsInheritObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def IsInherit
  @IsInherit
end

#IsLocalObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def IsLocal
  @IsLocal
end

#IsLocalArchivesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def IsLocalArchives
  @IsLocalArchives
end

#IsLocalFilesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def IsLocalFiles
  @IsLocalFiles
end

#IsLocalJarsObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def IsLocalJars
  @IsLocalJars
end

#IsLocalPythonFilesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def IsLocalPythonFiles
  @IsLocalPythonFiles
end

#IsSessionStartedObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def IsSessionStarted
  @IsSessionStarted
end

#JobArchivesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobArchives
  @JobArchives
end

#JobConfObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobConf
  @JobConf
end

#JobCreateTimeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobCreateTime
  @JobCreateTime
end

#JobCreatorObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobCreator
  @JobCreator
end

#JobDriverSizeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobDriverSize
  @JobDriverSize
end

#JobExecutorMaxNumbersObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobExecutorMaxNumbers
  @JobExecutorMaxNumbers
end

#JobExecutorNumsObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobExecutorNums
  @JobExecutorNums
end

#JobExecutorSizeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobExecutorSize
  @JobExecutorSize
end

#JobFileObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobFile
  @JobFile
end

#JobFilesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobFiles
  @JobFiles
end

#JobIdObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobId
  @JobId
end

#JobJarsObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobJars
  @JobJars
end

#JobMaxAttemptsObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobMaxAttempts
  @JobMaxAttempts
end

#JobNameObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobName
  @JobName
end

#JobPythonFilesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobPythonFiles
  @JobPythonFiles
end

#JobStatusObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobStatus
  @JobStatus
end

#JobTypeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobType
  @JobType
end

#JobUpdateTimeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def JobUpdateTime
  @JobUpdateTime
end

#MainClassObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def MainClass
  @MainClass
end

#RoleArnObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def RoleArn
  @RoleArn
end

#SessionIdObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def SessionId
  @SessionId
end

#SparkImageObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def SparkImage
  @SparkImage
end

#SparkImageVersionObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def SparkImageVersion
  @SparkImageVersion
end

#StreamingStatObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def StreamingStat
  @StreamingStat
end

#TaskNumObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • JobId:

    spark作业ID

  • JobName:

    spark作业名

  • JobType:

    spark作业类型,可去1或者2,1表示batch作业, 2表示streaming作业

  • DataEngine:

    引擎名

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    程序包是否本地上传,cos或者lakefs

  • JobFile:

    程序包路径

  • RoleArn:

    角色ID

  • MainClass:

    spark作业运行主类

  • CmdArgs:

    命令行参数,spark作业命令行参数,空格分隔

  • JobConf:

    spark原生配置,换行符分隔

  • IsLocalJars:

    依赖jars是否本地上传,cos或者lakefs

  • JobJars:

    spark作业依赖jars,逗号分隔

  • IsLocalFiles:

    依赖文件是否本地上传,cos或者lakefs

  • JobFiles:

    spark作业依赖文件,逗号分隔

  • JobDriverSize:

    spark作业driver资源大小

  • JobExecutorSize:

    spark作业executor资源大小

  • JobExecutorNums:

    spark作业executor个数

  • JobMaxAttempts:

    spark流任务最大重试次数

  • JobCreator:

    spark作业创建者

  • JobCreateTime:

    spark作业创建时间

  • JobUpdateTime:

    spark作业更新时间

  • CurrentTaskId:

    spark作业最近任务ID

  • JobStatus:

    spark作业最近运行状态,初始化:0,运行中:1,成功:2,数据写入中: 3, 排队中: 4, 失败: -1, 已删除: -3,已过期: -5

  • StreamingStat:

    spark流作业统计

  • DataSource:

    数据源名

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    注:该返回值已废弃

  • IsLocalArchives:

    archives:依赖上传方式,1、cos;2、lakefs(控制台使用,该方式不支持直接接口调用)

  • JobArchives:

    archives:依赖资源

  • SparkImage:

    Spark Image 版本

  • JobPythonFiles:

    pyspark:python依赖, 除py文件外,还支持zip/egg等归档格式,多文件以逗号分隔

  • TaskNum:

    当前job正在运行或准备运行的任务个数

  • DataEngineStatus:

    引擎状态:-100(默认:未知状态),-2~11:引擎正常状态;

  • JobExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于JobExecutorNums

  • SparkImageVersion:

    镜像版本

  • SessionId:

    查询脚本关联id

  • DataEngineClusterType:

    spark_emr_livy

  • DataEngineImageVersion:

    Spark 3.2-EMR

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • EngineTypeDetail:

    引擎详细类型:SparkSQL、PrestoSQL、SparkBatch、StandardSpark、StandardPresto



14437
14438
14439
# File 'lib/v20210125/models.rb', line 14437

def TaskNum
  @TaskNum
end

Instance Method Details

#deserialize(params) ⇒ Object



14484
14485
14486
14487
14488
14489
14490
14491
14492
14493
14494
14495
14496
14497
14498
14499
14500
14501
14502
14503
14504
14505
14506
14507
14508
14509
14510
14511
14512
14513
14514
14515
14516
14517
14518
14519
14520
14521
14522
14523
14524
14525
14526
14527
14528
14529
14530
# File 'lib/v20210125/models.rb', line 14484

def deserialize(params)
  @JobId = params['JobId']
  @JobName = params['JobName']
  @JobType = params['JobType']
  @DataEngine = params['DataEngine']
  @Eni = params['Eni']
  @IsLocal = params['IsLocal']
  @JobFile = params['JobFile']
  @RoleArn = params['RoleArn']
  @MainClass = params['MainClass']
  @CmdArgs = params['CmdArgs']
  @JobConf = params['JobConf']
  @IsLocalJars = params['IsLocalJars']
  @JobJars = params['JobJars']
  @IsLocalFiles = params['IsLocalFiles']
  @JobFiles = params['JobFiles']
  @JobDriverSize = params['JobDriverSize']
  @JobExecutorSize = params['JobExecutorSize']
  @JobExecutorNums = params['JobExecutorNums']
  @JobMaxAttempts = params['JobMaxAttempts']
  @JobCreator = params['JobCreator']
  @JobCreateTime = params['JobCreateTime']
  @JobUpdateTime = params['JobUpdateTime']
  @CurrentTaskId = params['CurrentTaskId']
  @JobStatus = params['JobStatus']
  unless params['StreamingStat'].nil?
    @StreamingStat = StreamingStatistics.new
    @StreamingStat.deserialize(params['StreamingStat'])
  end
  @DataSource = params['DataSource']
  @IsLocalPythonFiles = params['IsLocalPythonFiles']
  @AppPythonFiles = params['AppPythonFiles']
  @IsLocalArchives = params['IsLocalArchives']
  @JobArchives = params['JobArchives']
  @SparkImage = params['SparkImage']
  @JobPythonFiles = params['JobPythonFiles']
  @TaskNum = params['TaskNum']
  @DataEngineStatus = params['DataEngineStatus']
  @JobExecutorMaxNumbers = params['JobExecutorMaxNumbers']
  @SparkImageVersion = params['SparkImageVersion']
  @SessionId = params['SessionId']
  @DataEngineClusterType = params['DataEngineClusterType']
  @DataEngineImageVersion = params['DataEngineImageVersion']
  @IsInherit = params['IsInherit']
  @IsSessionStarted = params['IsSessionStarted']
  @EngineTypeDetail = params['EngineTypeDetail']
end