多项选择题下面关于编码器和注意力机制的对比描述正确的说法有哪些?()

A.注意力机制的含义表示输出与输入之间的对应关系
B.解码器强化了不同时刻输出之间的关系
C.引注意力机制后会减少编码器(RNN)和解码器(RNN)的长跨度依赖问题
D.使用注意力机制之后会增加计算量,但是性能水平能够得到提升


您可能感兴趣的试卷

你可能感兴趣的试题

1.多项选择题‍Seq2Seq模型引入注意力机制后,解码器某个时刻的输入语义向量的权重直接影响因素是哪些?()

A.解码器上一时刻隐层的输出
B.解码器该时刻的输出
C.编码器的输入
D.编码器各个时刻隐单元的输出

2.单项选择题‌在计算上下文向量时,使用了解码器各个时刻隐层的输出,而不是编码器的输入,以下哪个说法是正确的?()

A.两种做法没什么区别
B.前者的做法效果不如后者
C.可以把编码器的输入之间的语义关系与解码器的输出之间的语义关系更好地对应
D.可以把编码器的输入之间的时序关系与解码器的输出之间的时序关系更好地对应

3.单项选择题​在计算上下文向量时,使用了以下哪种函数?()

A.Softmax
B.Sigmoid
C.Tanh
D.ReLU

4.单项选择题‌编码器使用双向LSTM的作用是以下哪项?()

A.更好地拟合编码器输入词之间的语义关系
B.更好地拟合编码器输入词之间的次序
C.更好地拟合编码器输入和输出之间的次序关系
D.更好地拟合编码器输入和输出之间的语义关系

7.单项选择题在使用SeqSeq模型实现机器翻译时,解码器的输入(非上下文向量部分)和输出之间的映射作用是以下哪一项?()

A.拟合解码器输出词之间的语义关系
B.拟合编码器输入和解码器输出之间的语义关系
C.拟合编码器输入和解码器输出之间的词序关系
D.拟合解码器输出词之间的顺序关系

8.单项选择题在SeqSeq模型中,以下有关上下文向量(语义表示向量)C的说法错误的是哪个?()

A.上下文向量是注意力机制实现的手段
B.上下文向量把编码器和解码器组合成完整的Seq2Seq模型
C.上下文向量中的元素需要当做网络参数训练得到
D.上下文向量拟合了编码器的不同时刻输入对解码器输出的影响

9.单项选择题下面有关Seq2Seq模型的说法哪个是错误的?()

A.在无注意力机制的Seq2Seq模型中,语义向量c对解码器的输出作用是无差异的
B.在Seq2Seq模型中,编码器和解码器可以使用不同的RNN模型
C.在Seq2Seq模型中,语义向量c的作用拟合编码器不同输入的关系,也要拟合与解码器输出之间的映射
D.引入注意力机制后,解码器不同时刻的输入对应的语义向量是相同的

10.单项选择题‏以下哪种情景不适合采用Seq2Seq模型?()

A.机器写诗
B.车牌识别
C.文本摘要
D.语音识别

最新试题