A.对计算资源要求更低
B.参数量减少了
C.计算量相对更少
D.以上所有
您可能感兴趣的试卷
你可能感兴趣的试题
2017年,Laurent Sifr提出一种全新的卷积方式-深度可分离卷积(Depthwise Separable Convolution),这种卷积方式将传统的卷积运算分为两步,分别包含()。
1.Depthwise convolution
2.Pointwise convolution
3.Group convolution
4.Transpose Convolution
A.1,2
B.2,3
C.3,4
D.1,4
A.转置卷积可以应用于图像分割和生成式对抗模型中
B.转置卷积(transposed convolution)又被称为逆卷积,其目的是对图像进行上采样
C.转置卷积(transposed convolution)首次出现在2018年,Vincent Dumoulin的A guide to convolution arithmetic for deep learning论文中
D.以上都正确
A.每个卷积核参数量是k*k*d*c,其中k是卷积核尺寸,d是代表时间维度,c是输入数据的通道数
B.3D卷积可以应用于视频分类,动作识别等领域
C.3D卷积首次2013年,Shuiwang Ji的3D Convolutional Neural Networks for Human Action Recognition论文中
D.以上都正确
下图是一个利用sigmoid函数作为激活函数的含四个隐藏层的神经网络训练的梯度图。这个神经网络遇到了梯度消失的问题。下面哪个叙述是正确的?()
A.第一隐藏层对应D、第二隐藏层对应C、第三隐藏层对应B、第四隐藏层对应A
B.第一隐藏层对应A、第二隐藏层对应C、第三隐藏层对应B、第四隐藏层对应D
C.第一隐藏层对应A、第二隐藏层对应B、第三隐藏层对应C、第四隐藏层对应D
D.第一隐藏层对应B、第二隐藏层对应D、第三隐藏层对应C、第四隐藏层对应A
A.MSE
B.CrossEntropy Cost Function
C.Prelu
D.Hing Loss
A.数据增强
B.提前停止
C.Dropout
D.以上全部
A.Sigmoid
B.MSE
C.Tanh
D.Relu
A.改变学习速率,比如一开始的几个训练周期不断更改学习速率
B.一开始将学习速率减小10倍,然后用动量项(momentum)
C.增加参数数目,这样神经网络就不会卡在局部最优处
D.其他都不对
A.模型在训练集上、测试集上的表现都不好
B.模型复杂度高或者数据集规模小是模型过拟合的两个因素
C.模型过拟合可以增加训练集、降低模型复杂度、添加正则化约束、添加BatchNormal层、使用dropout机制等来解决
D.模型在训练集上的表现非常好,但是在测试集、验证集以及新数据上的表现很差
下列哪些项目是在图像识别任务中使用的数据扩增技术?()
1.水平翻转(Horizontal flipping)
2.随机裁剪(Random cropping)
3.随机放缩(Random scaling)
4.颜色抖动(Color jittering)
5.随机平移(Random translation)
6.随机剪切(Random shearing)
A.1,3,5,6
B.1,2,4
C.2,3,4,5,6
D.1,2,3,4,5,6
最新试题
提升卷积核(convolutional kernel)的大小会显著提升卷积神经网络的性能。
动态视觉设计的内容主要是以图形、视觉元素产生动态的效果为主。图形、视觉元素的变化包含以下哪些类型变化?()
在北美地区,电视和影像使用的标准帧频是23.976fps,这个也被认为等同于常规的传统35毫米胶片的()帧的帧频。
负对数似然度损失函数和欧式距离损失函数都是用于计算像素区域的修复。
一个不包含非线性的神经元可以看作是线性回归函数。
在虚拟空间中,通过()轴创造出景深。它是一个虚拟的平面,方向是伸出屏幕或者进入屏幕。
将Sigmoid激活函数改为ReLU,将有助于克服梯度消失的问题。
训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力。
神经网络被称为通用函数拟合器,所以它理论上可以表示任何决策边界。
在神经网络中ReLU永远不会饱和。