Class: TencentCloud::Dlc::V20210125::CreateSparkAppRequest
- Inherits:
-
Common::AbstractModel
- Object
- Common::AbstractModel
- TencentCloud::Dlc::V20210125::CreateSparkAppRequest
- Defined in:
- lib/v20210125/models.rb
Overview
CreateSparkApp请求参数结构体
Instance Attribute Summary collapse
- #AppArchives ⇒ Object
- #AppConf ⇒ Object
- #AppDriverSize ⇒ Object
- #AppExecutorMaxNumbers ⇒ Object
- #AppExecutorNums ⇒ Object
- #AppExecutorSize ⇒ Object
- #AppFile ⇒ Object
- #AppFiles ⇒ Object
- #AppJars ⇒ Object
- #AppName ⇒ Object
- #AppPythonFiles ⇒ Object
- #AppType ⇒ Object
- #CmdArgs ⇒ Object
- #DataEngine ⇒ Object
- #DataSource ⇒ Object
- #DependencyPackages ⇒ Object
- #Eni ⇒ Object
- #IsInherit ⇒ Object
- #IsLocal ⇒ Object
- #IsLocalArchives ⇒ Object
- #IsLocalFiles ⇒ Object
- #IsLocalJars ⇒ Object
- #IsLocalPythonFiles ⇒ Object
- #IsSessionStarted ⇒ Object
- #MainClass ⇒ Object
- #MaxRetries ⇒ Object
- #RoleArn ⇒ Object
- #SessionId ⇒ Object
- #SparkImage ⇒ Object
- #SparkImageVersion ⇒ Object
Instance Method Summary collapse
- #deserialize(params) ⇒ Object
-
#initialize(appname = nil, apptype = nil, dataengine = nil, appfile = nil, rolearn = nil, appdriversize = nil, appexecutorsize = nil, appexecutornums = nil, eni = nil, islocal = nil, mainclass = nil, appconf = nil, islocaljars = nil, appjars = nil, islocalfiles = nil, appfiles = nil, cmdargs = nil, maxretries = nil, datasource = nil, islocalpythonfiles = nil, apppythonfiles = nil, islocalarchives = nil, apparchives = nil, sparkimage = nil, sparkimageversion = nil, appexecutormaxnumbers = nil, sessionid = nil, isinherit = nil, issessionstarted = nil, dependencypackages = nil) ⇒ CreateSparkAppRequest
constructor
A new instance of CreateSparkAppRequest.
Constructor Details
#initialize(appname = nil, apptype = nil, dataengine = nil, appfile = nil, rolearn = nil, appdriversize = nil, appexecutorsize = nil, appexecutornums = nil, eni = nil, islocal = nil, mainclass = nil, appconf = nil, islocaljars = nil, appjars = nil, islocalfiles = nil, appfiles = nil, cmdargs = nil, maxretries = nil, datasource = nil, islocalpythonfiles = nil, apppythonfiles = nil, islocalarchives = nil, apparchives = nil, sparkimage = nil, sparkimageversion = nil, appexecutormaxnumbers = nil, sessionid = nil, isinherit = nil, issessionstarted = nil, dependencypackages = nil) ⇒ CreateSparkAppRequest
Returns a new instance of CreateSparkAppRequest.
2662 2663 2664 2665 2666 2667 2668 2669 2670 2671 2672 2673 2674 2675 2676 2677 2678 2679 2680 2681 2682 2683 2684 2685 2686 2687 2688 2689 2690 2691 2692 2693 |
# File 'lib/v20210125/models.rb', line 2662 def initialize(appname=nil, apptype=nil, dataengine=nil, appfile=nil, rolearn=nil, appdriversize=nil, appexecutorsize=nil, appexecutornums=nil, eni=nil, islocal=nil, mainclass=nil, appconf=nil, islocaljars=nil, appjars=nil, islocalfiles=nil, appfiles=nil, cmdargs=nil, maxretries=nil, datasource=nil, islocalpythonfiles=nil, apppythonfiles=nil, islocalarchives=nil, apparchives=nil, sparkimage=nil, sparkimageversion=nil, appexecutormaxnumbers=nil, sessionid=nil, isinherit=nil, issessionstarted=nil, dependencypackages=nil) @AppName = appname @AppType = apptype @DataEngine = dataengine @AppFile = appfile @RoleArn = rolearn @AppDriverSize = appdriversize @AppExecutorSize = appexecutorsize @AppExecutorNums = appexecutornums @Eni = eni @IsLocal = islocal @MainClass = mainclass @AppConf = appconf @IsLocalJars = islocaljars @AppJars = appjars @IsLocalFiles = islocalfiles @AppFiles = appfiles @CmdArgs = cmdargs @MaxRetries = maxretries @DataSource = datasource @IsLocalPythonFiles = islocalpythonfiles @AppPythonFiles = apppythonfiles @IsLocalArchives = islocalarchives @AppArchives = apparchives @SparkImage = sparkimage @SparkImageVersion = sparkimageversion @AppExecutorMaxNumbers = appexecutormaxnumbers @SessionId = sessionid @IsInherit = isinherit @IsSessionStarted = issessionstarted @DependencyPackages = dependencypackages end |
Instance Attribute Details
#AppArchives ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppArchives @AppArchives end |
#AppConf ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppConf @AppConf end |
#AppDriverSize ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppDriverSize @AppDriverSize end |
#AppExecutorMaxNumbers ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppExecutorMaxNumbers @AppExecutorMaxNumbers end |
#AppExecutorNums ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppExecutorNums @AppExecutorNums end |
#AppExecutorSize ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppExecutorSize @AppExecutorSize end |
#AppFile ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppFile @AppFile end |
#AppFiles ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppFiles @AppFiles end |
#AppJars ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppJars @AppJars end |
#AppName ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppName @AppName end |
#AppPythonFiles ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppPythonFiles @AppPythonFiles end |
#AppType ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def AppType @AppType end |
#CmdArgs ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def CmdArgs @CmdArgs end |
#DataEngine ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def DataEngine @DataEngine end |
#DataSource ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def DataSource @DataSource end |
#DependencyPackages ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def DependencyPackages @DependencyPackages end |
#Eni ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def Eni @Eni end |
#IsInherit ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def IsInherit @IsInherit end |
#IsLocal ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def IsLocal @IsLocal end |
#IsLocalArchives ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def IsLocalArchives @IsLocalArchives end |
#IsLocalFiles ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def IsLocalFiles @IsLocalFiles end |
#IsLocalJars ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def IsLocalJars @IsLocalJars end |
#IsLocalPythonFiles ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def IsLocalPythonFiles @IsLocalPythonFiles end |
#IsSessionStarted ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def IsSessionStarted @IsSessionStarted end |
#MainClass ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def MainClass @MainClass end |
#MaxRetries ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def MaxRetries @MaxRetries end |
#RoleArn ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def RoleArn @RoleArn end |
#SessionId ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def SessionId @SessionId end |
#SparkImage ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def SparkImage @SparkImage end |
#SparkImageVersion ⇒ Object
Parameters:
-
AppName:
—
spark作业名
-
AppType:
—
spark作业类型,1代表spark jar作业,2代表spark streaming作业
-
DataEngine:
—
执行spark作业的数据引擎名称
-
AppFile:
—
spark作业程序包文件路径
-
RoleArn:
—
数据访问策略,CAM Role arn,控制台通过数据作业—>作业配置获取,SDK通过DescribeUserRoles接口获取对应的值;
-
AppDriverSize:
—
指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorSize:
—
指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)
-
AppExecutorNums:
—
spark作业executor个数
-
Eni:
—
该字段已下线,请使用字段Datasource
-
IsLocal:
—
spark作业程序包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
MainClass:
—
spark作业主类
-
AppConf:
—
spark配置,以换行符分隔
-
IsLocalJars:
—
spark 作业依赖jar包是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppJars:
—
spark 作业依赖jar包(–jars),以逗号分隔
-
IsLocalFiles:
—
spark作业依赖文件资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppFiles:
—
spark作业依赖文件资源(–files)(非jar、zip),以逗号分隔
-
CmdArgs:
—
spark作业程序入参,空格分割
-
MaxRetries:
—
最大重试次数,只对spark流任务生效
-
DataSource:
—
数据源名称
-
IsLocalPythonFiles:
—
pyspark:依赖上传方式,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppPythonFiles:
—
pyspark作业依赖python资源(–py-files),支持py/zip/egg等归档格式,多文件以逗号分隔
-
IsLocalArchives:
—
spark作业依赖archives资源是否本地上传,cos:存放与cos,lakefs:本地上传(控制台使用,该方式不支持直接接口调用)
-
AppArchives:
—
spark作业依赖archives资源(–archives),支持tar.gz/tgz/tar等归档格式,以逗号分隔
-
SparkImage:
—
Spark Image 版本号
-
SparkImageVersion:
—
Spark Image 版本名称
-
AppExecutorMaxNumbers:
—
指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于AppExecutorNums
-
SessionId:
—
关联dlc查询脚本id
-
IsInherit:
—
任务资源配置是否继承集群模板,0(默认)不继承,1:继承
-
IsSessionStarted:
—
是否使用session脚本的sql运行任务:false:否,true:是
-
DependencyPackages:
—
依赖包信息
2660 2661 2662 |
# File 'lib/v20210125/models.rb', line 2660 def SparkImageVersion @SparkImageVersion end |
Instance Method Details
#deserialize(params) ⇒ Object
2695 2696 2697 2698 2699 2700 2701 2702 2703 2704 2705 2706 2707 2708 2709 2710 2711 2712 2713 2714 2715 2716 2717 2718 2719 2720 2721 2722 2723 2724 2725 2726 2727 2728 2729 2730 2731 2732 2733 |
# File 'lib/v20210125/models.rb', line 2695 def deserialize(params) @AppName = params['AppName'] @AppType = params['AppType'] @DataEngine = params['DataEngine'] @AppFile = params['AppFile'] @RoleArn = params['RoleArn'] @AppDriverSize = params['AppDriverSize'] @AppExecutorSize = params['AppExecutorSize'] @AppExecutorNums = params['AppExecutorNums'] @Eni = params['Eni'] @IsLocal = params['IsLocal'] @MainClass = params['MainClass'] @AppConf = params['AppConf'] @IsLocalJars = params['IsLocalJars'] @AppJars = params['AppJars'] @IsLocalFiles = params['IsLocalFiles'] @AppFiles = params['AppFiles'] @CmdArgs = params['CmdArgs'] @MaxRetries = params['MaxRetries'] @DataSource = params['DataSource'] @IsLocalPythonFiles = params['IsLocalPythonFiles'] @AppPythonFiles = params['AppPythonFiles'] @IsLocalArchives = params['IsLocalArchives'] @AppArchives = params['AppArchives'] @SparkImage = params['SparkImage'] @SparkImageVersion = params['SparkImageVersion'] @AppExecutorMaxNumbers = params['AppExecutorMaxNumbers'] @SessionId = params['SessionId'] @IsInherit = params['IsInherit'] @IsSessionStarted = params['IsSessionStarted'] unless params['DependencyPackages'].nil? @DependencyPackages = [] params['DependencyPackages'].each do |i| dependencypackage_tmp = DependencyPackage.new dependencypackage_tmp.deserialize(i) @DependencyPackages << dependencypackage_tmp end end end |