Class: TencentCloud::Aai::V20180522::SimultaneousInterpretingRequest

Inherits:
Common::AbstractModel
  • Object
show all
Defined in:
lib/v20180522/models.rb

Overview

SimultaneousInterpreting请求参数结构体

Instance Attribute Summary collapse

Instance Method Summary collapse

Constructor Details

#initialize(projectid = nil, subservicetype = nil, recenginemodeltype = nil, data = nil, datalen = nil, voiceid = nil, isend = nil, voiceformat = nil, opentranslate = nil, sourcelanguage = nil, targetlanguage = nil, seq = nil) ⇒ SimultaneousInterpretingRequest

Returns a new instance of SimultaneousInterpretingRequest.



161
162
163
164
165
166
167
168
169
170
171
172
173
174
# File 'lib/v20180522/models.rb', line 161

def initialize(projectid=nil, subservicetype=nil, recenginemodeltype=nil, data=nil, datalen=nil, voiceid=nil, isend=nil, voiceformat=nil, opentranslate=nil, sourcelanguage=nil, targetlanguage=nil, seq=nil)
  @ProjectId = projectid
  @SubServiceType = subservicetype
  @RecEngineModelType = recenginemodeltype
  @Data = data
  @DataLen = datalen
  @VoiceId = voiceid
  @IsEnd = isend
  @VoiceFormat = voiceformat
  @OpenTranslate = opentranslate
  @SourceLanguage = sourcelanguage
  @TargetLanguage = targetlanguage
  @Seq = seq
end

Instance Attribute Details

#DataObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def Data
  @Data
end

#DataLenObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def DataLen
  @DataLen
end

#IsEndObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def IsEnd
  @IsEnd
end

#OpenTranslateObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def OpenTranslate
  @OpenTranslate
end

#ProjectIdObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def ProjectId
  @ProjectId
end

#RecEngineModelTypeObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def RecEngineModelType
  @RecEngineModelType
end

#SeqObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def Seq
  @Seq
end

#SourceLanguageObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def SourceLanguage
  @SourceLanguage
end

#SubServiceTypeObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def SubServiceType
  @SubServiceType
end

#TargetLanguageObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def TargetLanguage
  @TargetLanguage
end

#VoiceFormatObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def VoiceFormat
  @VoiceFormat
end

#VoiceIdObject

Parameters:

  • ProjectId:

    腾讯云项目 ID,可填 0,总长度不超过 1024 字节。

  • SubServiceType:

    子服务类型。0:离线语音识别。1:实时流式识别,2,一句话识别。3:同传。

  • RecEngineModelType:

    识别引擎类型。8k_zh: 8k 中文会场模型;16k_zh:16k 中文会场模型,8k_en: 8k 英文会场模型;16k_en:16k 英文会场模型。当前仅支持16K。

  • Data:

    语音数据,要base64编码。

  • DataLen:

    数据长度。

  • VoiceId:

    声音id,标识一句话。

  • IsEnd:

    是否是一句话的结束。

  • VoiceFormat:

    声音编码的格式1:pcm,4:speex,6:silk,默认为1。

  • OpenTranslate:

    是否需要翻译结果,1表示需要翻译,0是不需要。

  • SourceLanguage:

    如果需要翻译,表示源语言类型,可取值:zh,en。

  • TargetLanguage:

    如果需要翻译,表示目标语言类型,可取值:zh,en。

  • Seq:

    表明当前语音分片的索引,从0开始



159
160
161
# File 'lib/v20180522/models.rb', line 159

def VoiceId
  @VoiceId
end

Instance Method Details

#deserialize(params) ⇒ Object



176
177
178
179
180
181
182
183
184
185
186
187
188
189
# File 'lib/v20180522/models.rb', line 176

def deserialize(params)
  @ProjectId = params['ProjectId']
  @SubServiceType = params['SubServiceType']
  @RecEngineModelType = params['RecEngineModelType']
  @Data = params['Data']
  @DataLen = params['DataLen']
  @VoiceId = params['VoiceId']
  @IsEnd = params['IsEnd']
  @VoiceFormat = params['VoiceFormat']
  @OpenTranslate = params['OpenTranslate']
  @SourceLanguage = params['SourceLanguage']
  @TargetLanguage = params['TargetLanguage']
  @Seq = params['Seq']
end