Class: TencentCloud::Dlc::V20210125::NotebookSessionInfo

Inherits:
Common::AbstractModel
  • Object
show all
Defined in:
lib/v20210125/models.rb

Overview

Notebook Session详细信息。

Instance Attribute Summary collapse

Instance Method Summary collapse

Constructor Details

#initialize(name = nil, kind = nil, dataenginename = nil, arguments = nil, programdependentfiles = nil, programdependentjars = nil, programdependentpython = nil, programarchives = nil, driversize = nil, executorsize = nil, executornumbers = nil, proxyuser = nil, timeoutinsecond = nil, sparkappid = nil, sessionid = nil, state = nil, createtime = nil, appinfo = nil, sparkuiurl = nil, executormaxnumbers = nil, sessiontype = nil, dataengineid = nil, resourcegroupid = nil, resourcegroupname = nil, podsize = nil, podnumbers = nil) ⇒ NotebookSessionInfo

Returns a new instance of NotebookSessionInfo.



12813
12814
12815
12816
12817
12818
12819
12820
12821
12822
12823
12824
12825
12826
12827
12828
12829
12830
12831
12832
12833
12834
12835
12836
12837
12838
12839
12840
# File 'lib/v20210125/models.rb', line 12813

def initialize(name=nil, kind=nil, dataenginename=nil, arguments=nil, programdependentfiles=nil, programdependentjars=nil, programdependentpython=nil, programarchives=nil, driversize=nil, executorsize=nil, executornumbers=nil, proxyuser=nil, timeoutinsecond=nil, sparkappid=nil, sessionid=nil, state=nil, createtime=nil, appinfo=nil, sparkuiurl=nil, executormaxnumbers=nil, sessiontype=nil, dataengineid=nil, resourcegroupid=nil, resourcegroupname=nil, podsize=nil, podnumbers=nil)
  @Name = name
  @Kind = kind
  @DataEngineName = dataenginename
  @Arguments = arguments
  @ProgramDependentFiles = programdependentfiles
  @ProgramDependentJars = programdependentjars
  @ProgramDependentPython = programdependentpython
  @ProgramArchives = programarchives
  @DriverSize = driversize
  @ExecutorSize = executorsize
  @ExecutorNumbers = executornumbers
  @ProxyUser = proxyuser
  @TimeoutInSecond = timeoutinsecond
  @SparkAppId = sparkappid
  @SessionId = sessionid
  @State = state
  @CreateTime = createtime
  @AppInfo = appinfo
  @SparkUiUrl = sparkuiurl
  @ExecutorMaxNumbers = executormaxnumbers
  @SessionType = sessiontype
  @DataEngineId = dataengineid
  @ResourceGroupId = resourcegroupid
  @ResourceGroupName = resourcegroupname
  @PodSize = podsize
  @PodNumbers = podnumbers
end

Instance Attribute Details

#AppInfoObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def AppInfo
  @AppInfo
end

#ArgumentsObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def Arguments
  @Arguments
end

#CreateTimeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def CreateTime
  @CreateTime
end

#DataEngineIdObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def DataEngineId
  @DataEngineId
end

#DataEngineNameObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def DataEngineName
  @DataEngineName
end

#DriverSizeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def DriverSize
  @DriverSize
end

#ExecutorMaxNumbersObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ExecutorMaxNumbers
  @ExecutorMaxNumbers
end

#ExecutorNumbersObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ExecutorNumbers
  @ExecutorNumbers
end

#ExecutorSizeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ExecutorSize
  @ExecutorSize
end

#KindObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def Kind
  @Kind
end

#NameObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def Name
  @Name
end

#PodNumbersObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def PodNumbers
  @PodNumbers
end

#PodSizeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def PodSize
  @PodSize
end

#ProgramArchivesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ProgramArchives
  @ProgramArchives
end

#ProgramDependentFilesObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ProgramDependentFiles
  @ProgramDependentFiles
end

#ProgramDependentJarsObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ProgramDependentJars
  @ProgramDependentJars
end

#ProgramDependentPythonObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ProgramDependentPython
  @ProgramDependentPython
end

#ProxyUserObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ProxyUser
  @ProxyUser
end

#ResourceGroupIdObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ResourceGroupId
  @ResourceGroupId
end

#ResourceGroupNameObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def ResourceGroupName
  @ResourceGroupName
end

#SessionIdObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def SessionId
  @SessionId
end

#SessionTypeObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def SessionType
  @SessionType
end

#SparkAppIdObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def SparkAppId
  @SparkAppId
end

#SparkUiUrlObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def SparkUiUrl
  @SparkUiUrl
end

#StateObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def State
  @State
end

#TimeoutInSecondObject

注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。注意:此字段可能返回 null,表示取不到有效值。

Parameters:

  • Name:

    Session名称

  • Kind:

    类型,当前支持:spark、pyspark、sparkr、sql

  • DataEngineName:

    DLC Spark作业引擎名称

  • Arguments:

    Session相关配置,当前支持:eni、roleArn以及用户指定的配置

  • ProgramDependentFiles:

    运行程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentJars:

    依赖的jar程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramDependentPython:

    依赖的python程序地址,当前支持:cosn://和lakefs://两种路径

  • ProgramArchives:

    依赖的pyspark虚拟环境地址,当前支持:cosn://和lakefs://两种路径

  • DriverSize:

    指定的Driver规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorSize:

    指定的Executor规格,当前支持:small(默认,1cu)、medium(2cu)、large(4cu)、xlarge(8cu)

  • ExecutorNumbers:

    指定的Executor数量,默认为1

  • ProxyUser:

    代理用户,默认为root

  • TimeoutInSecond:

    指定的Session超时时间,单位秒,默认3600秒

  • SparkAppId:

    Spark任务返回的AppId

  • SessionId:

    Session唯一标识

  • State:

    Session状态,包含:not_started(未启动)、starting(已启动)、idle(等待输入)、busy(正在运行statement)、shutting_down(停止)、error(异常)、dead(已退出)、killed(被杀死)、success(正常停止)

  • CreateTime:

    Session创建时间

  • AppInfo:

    其它信息

  • SparkUiUrl:

    Spark ui地址

  • ExecutorMaxNumbers:

    指定的Executor数量(最大值),默认为1,当开启动态分配有效,若未开启,则该值等于ExecutorNumbers

  • SessionType:

    session类型,group:资源组下session independent:独立资源session, 不依赖资源组

  • DataEngineId:

    引擎id

  • ResourceGroupId:

    资源组id

  • ResourceGroupName:

    资源组名称

  • PodSize:

    session,pod大小

  • PodNumbers:

    pod数量



12811
12812
12813
# File 'lib/v20210125/models.rb', line 12811

def TimeoutInSecond
  @TimeoutInSecond
end

Instance Method Details

#deserialize(params) ⇒ Object



12842
12843
12844
12845
12846
12847
12848
12849
12850
12851
12852
12853
12854
12855
12856
12857
12858
12859
12860
12861
12862
12863
12864
12865
12866
12867
12868
12869
12870
12871
12872
12873
12874
12875
12876
12877
12878
12879
12880
12881
12882
12883
# File 'lib/v20210125/models.rb', line 12842

def deserialize(params)
  @Name = params['Name']
  @Kind = params['Kind']
  @DataEngineName = params['DataEngineName']
  unless params['Arguments'].nil?
    @Arguments = []
    params['Arguments'].each do |i|
      kvpair_tmp = KVPair.new
      kvpair_tmp.deserialize(i)
      @Arguments << kvpair_tmp
    end
  end
  @ProgramDependentFiles = params['ProgramDependentFiles']
  @ProgramDependentJars = params['ProgramDependentJars']
  @ProgramDependentPython = params['ProgramDependentPython']
  @ProgramArchives = params['ProgramArchives']
  @DriverSize = params['DriverSize']
  @ExecutorSize = params['ExecutorSize']
  @ExecutorNumbers = params['ExecutorNumbers']
  @ProxyUser = params['ProxyUser']
  @TimeoutInSecond = params['TimeoutInSecond']
  @SparkAppId = params['SparkAppId']
  @SessionId = params['SessionId']
  @State = params['State']
  @CreateTime = params['CreateTime']
  unless params['AppInfo'].nil?
    @AppInfo = []
    params['AppInfo'].each do |i|
      kvpair_tmp = KVPair.new
      kvpair_tmp.deserialize(i)
      @AppInfo << kvpair_tmp
    end
  end
  @SparkUiUrl = params['SparkUiUrl']
  @ExecutorMaxNumbers = params['ExecutorMaxNumbers']
  @SessionType = params['SessionType']
  @DataEngineId = params['DataEngineId']
  @ResourceGroupId = params['ResourceGroupId']
  @ResourceGroupName = params['ResourceGroupName']
  @PodSize = params['PodSize']
  @PodNumbers = params['PodNumbers']
end