A.两种做法没什么区别
B.前者的做法效果不如后者
C.可以把编码器的输入之间的语义关系与解码器的输出之间的语义关系更好地对应
D.可以把编码器的输入之间的时序关系与解码器的输出之间的时序关系更好地对应
您可能感兴趣的试卷
你可能感兴趣的试题
A.Softmax
B.Sigmoid
C.Tanh
D.ReLU
A.更好地拟合编码器输入词之间的语义关系
B.更好地拟合编码器输入词之间的次序
C.更好地拟合编码器输入和输出之间的次序关系
D.更好地拟合编码器输入和输出之间的语义关系
A.相同
B.不确定
C.不相同
A.拟合解码器输出词之间的语义关系
B.拟合编码器输入和解码器输出之间的语义关系
C.拟合编码器输入和解码器输出之间的词序关系
D.拟合解码器输出词之间的顺序关系
A.上下文向量是注意力机制实现的手段
B.上下文向量把编码器和解码器组合成完整的Seq2Seq模型
C.上下文向量中的元素需要当做网络参数训练得到
D.上下文向量拟合了编码器的不同时刻输入对解码器输出的影响
A.在无注意力机制的Seq2Seq模型中,语义向量c对解码器的输出作用是无差异的
B.在Seq2Seq模型中,编码器和解码器可以使用不同的RNN模型
C.在Seq2Seq模型中,语义向量c的作用拟合编码器不同输入的关系,也要拟合与解码器输出之间的映射
D.引入注意力机制后,解码器不同时刻的输入对应的语义向量是相同的
A.机器写诗
B.车牌识别
C.文本摘要
D.语音识别
A.在声音处理中,深度神经网络的低层可以提取一些声音的特征,而高层提取类别间的判别信息
B.对于一维的声音序列或二维的频谱图,都可以使用卷积神经网络进行特征提取,学习相邻帧的关系等
C.与图像不同,声音信号是一维的序列数据,通过FFT等频域转换为二维频谱,即可用卷积进行分类
D.对于声音数据,可以先通过CNN来进行高维特征的提取,再使用RNN对时间相关性进行建模