Class: TencentCloud::Dlc::V20210125::CreateSparkAppRequest

Inherits:
Common::AbstractModel
  • Object
show all
Defined in:
lib/v20210125/models.rb

Overview

CreateSparkApp请求参数结构体

Instance Attribute Summary collapse

Instance Method Summary collapse

Constructor Details

#initialize(appname = nil, apptype = nil, dataengine = nil, appfile = nil, rolearn = nil, appdriversize = nil, appexecutorsize = nil, appexecutornums = nil, eni = nil, islocal = nil, mainclass = nil, appconf = nil, islocaljars = nil, appjars = nil, islocalfiles = nil, appfiles = nil, cmdargs = nil, maxretries = nil, datasource = nil, islocalpythonfiles = nil, apppythonfiles = nil, islocalarchives = nil, apparchives = nil, sparkimage = nil, sparkimageversion = nil, appexecutormaxnumbers = nil, sessionid = nil, isinherit = nil, issessionstarted = nil, dependencypackages = nil) ⇒ CreateSparkAppRequest

Returns a new instance of CreateSparkAppRequest.



2662
2663
2664
2665
2666
2667
2668
2669
2670
2671
2672
2673
2674
2675
2676
2677
2678
2679
2680
2681
2682
2683
2684
2685
2686
2687
2688
2689
2690
2691
2692
2693
# File 'lib/v20210125/models.rb', line 2662

def initialize(appname=nil, apptype=nil, dataengine=nil, appfile=nil, rolearn=nil, appdriversize=nil, appexecutorsize=nil, appexecutornums=nil, eni=nil, islocal=nil, mainclass=nil, appconf=nil, islocaljars=nil, appjars=nil, islocalfiles=nil, appfiles=nil, cmdargs=nil, maxretries=nil, datasource=nil, islocalpythonfiles=nil, apppythonfiles=nil, islocalarchives=nil, apparchives=nil, sparkimage=nil, sparkimageversion=nil, appexecutormaxnumbers=nil, sessionid=nil, isinherit=nil, issessionstarted=nil, dependencypackages=nil)
  @AppName = appname
  @AppType = apptype
  @DataEngine = dataengine
  @AppFile = appfile
  @RoleArn = rolearn
  @AppDriverSize = appdriversize
  @AppExecutorSize = appexecutorsize
  @AppExecutorNums = appexecutornums
  @Eni = eni
  @IsLocal = islocal
  @MainClass = mainclass
  @AppConf = appconf
  @IsLocalJars = islocaljars
  @AppJars = appjars
  @IsLocalFiles = islocalfiles
  @AppFiles = appfiles
  @CmdArgs = cmdargs
  @MaxRetries = maxretries
  @DataSource = datasource
  @IsLocalPythonFiles = islocalpythonfiles
  @AppPythonFiles = apppythonfiles
  @IsLocalArchives = islocalarchives
  @AppArchives = apparchives
  @SparkImage = sparkimage
  @SparkImageVersion = sparkimageversion
  @AppExecutorMaxNumbers = appexecutormaxnumbers
  @SessionId = sessionid
  @IsInherit = isinherit
  @IsSessionStarted = issessionstarted
  @DependencyPackages = dependencypackages
end

Instance Attribute Details

#AppArchivesObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppArchives
  @AppArchives
end

#AppConfObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppConf
  @AppConf
end

#AppDriverSizeObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppDriverSize
  @AppDriverSize
end

#AppExecutorMaxNumbersObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppExecutorMaxNumbers
  @AppExecutorMaxNumbers
end

#AppExecutorNumsObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppExecutorNums
  @AppExecutorNums
end

#AppExecutorSizeObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppExecutorSize
  @AppExecutorSize
end

#AppFileObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppFile
  @AppFile
end

#AppFilesObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppFiles
  @AppFiles
end

#AppJarsObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppJars
  @AppJars
end

#AppNameObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppName
  @AppName
end

#AppPythonFilesObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppPythonFiles
  @AppPythonFiles
end

#AppTypeObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def AppType
  @AppType
end

#CmdArgsObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def CmdArgs
  @CmdArgs
end

#DataEngineObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def DataEngine
  @DataEngine
end

#DataSourceObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def DataSource
  @DataSource
end

#DependencyPackagesObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def DependencyPackages
  @DependencyPackages
end

#EniObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def Eni
  @Eni
end

#IsInheritObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def IsInherit
  @IsInherit
end

#IsLocalObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def IsLocal
  @IsLocal
end

#IsLocalArchivesObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def IsLocalArchives
  @IsLocalArchives
end

#IsLocalFilesObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def IsLocalFiles
  @IsLocalFiles
end

#IsLocalJarsObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def IsLocalJars
  @IsLocalJars
end

#IsLocalPythonFilesObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def IsLocalPythonFiles
  @IsLocalPythonFiles
end

#IsSessionStartedObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def IsSessionStarted
  @IsSessionStarted
end

#MainClassObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def MainClass
  @MainClass
end

#MaxRetriesObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def MaxRetries
  @MaxRetries
end

#RoleArnObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def RoleArn
  @RoleArn
end

#SessionIdObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def SessionId
  @SessionId
end

#SparkImageObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def SparkImage
  @SparkImage
end

#SparkImageVersionObject

Parameters:

  • AppName:

    spark作业名

  • AppType:

    spark作业类型,1代表spark jar作业,2代表spark streaming作业

  • DataEngine:

    执行spark作业的数据引擎名称

  • AppFile:

    spark作业程序包文件路径

  • RoleArn:

    数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;

  • AppDriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • AppExecutorNums:

    spark作业executor个数

  • Eni:

    该字段已下线,请使用字段Datasource

  • IsLocal:

    spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • MainClass:

    spark作业主类

  • AppConf:

    spark配置,以换行符分隔

  • IsLocalJars:

    spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppJars:

    spark 作业依赖jar包(–jars),以逗号分隔

  • IsLocalFiles:

    spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppFiles:

    spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔

  • CmdArgs:

    spark作业程序入参,空格分割

  • MaxRetries:

    最大重试次数,只对spark流任务生效

  • DataSource:

    数据源名称

  • IsLocalPythonFiles:

    pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppPythonFiles:

    pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔

  • IsLocalArchives:

    spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)

  • AppArchives:

    spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔

  • SparkImage:

    Spark Image 版本号

  • SparkImageVersion:

    Spark Image 版本名称

  • AppExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums

  • SessionId:

    关联dlc查询脚本id

  • IsInherit:

    任务资源配置是否继承集群模板,0(默认)不继承,1:继承

  • IsSessionStarted:

    是否使用session脚本的sql运行任务:false:否,true:是

  • DependencyPackages:

    依赖包信息



2660
2661
2662
# File 'lib/v20210125/models.rb', line 2660

def SparkImageVersion
  @SparkImageVersion
end

Instance Method Details

#deserialize(params) ⇒ Object



2695
2696
2697
2698
2699
2700
2701
2702
2703
2704
2705
2706
2707
2708
2709
2710
2711
2712
2713
2714
2715
2716
2717
2718
2719
2720
2721
2722
2723
2724
2725
2726
2727
2728
2729
2730
2731
2732
2733
# File 'lib/v20210125/models.rb', line 2695

def deserialize(params)
  @AppName = params['AppName']
  @AppType = params['AppType']
  @DataEngine = params['DataEngine']
  @AppFile = params['AppFile']
  @RoleArn = params['RoleArn']
  @AppDriverSize = params['AppDriverSize']
  @AppExecutorSize = params['AppExecutorSize']
  @AppExecutorNums = params['AppExecutorNums']
  @Eni = params['Eni']
  @IsLocal = params['IsLocal']
  @MainClass = params['MainClass']
  @AppConf = params['AppConf']
  @IsLocalJars = params['IsLocalJars']
  @AppJars = params['AppJars']
  @IsLocalFiles = params['IsLocalFiles']
  @AppFiles = params['AppFiles']
  @CmdArgs = params['CmdArgs']
  @MaxRetries = params['MaxRetries']
  @DataSource = params['DataSource']
  @IsLocalPythonFiles = params['IsLocalPythonFiles']
  @AppPythonFiles = params['AppPythonFiles']
  @IsLocalArchives = params['IsLocalArchives']
  @AppArchives = params['AppArchives']
  @SparkImage = params['SparkImage']
  @SparkImageVersion = params['SparkImageVersion']
  @AppExecutorMaxNumbers = params['AppExecutorMaxNumbers']
  @SessionId = params['SessionId']
  @IsInherit = params['IsInherit']
  @IsSessionStarted = params['IsSessionStarted']
  unless params['DependencyPackages'].nil?
    @DependencyPackages = []
    params['DependencyPackages'].each do |i|
      dependencypackage_tmp = DependencyPackage.new
      dependencypackage_tmp.deserialize(i)
      @DependencyPackages << dependencypackage_tmp
    end
  end
end