A.明表达设计主题
B.强注目效果和吸引力
C.与图的整体黑白灰关系
D.提升审美价值
您可能感兴趣的试卷
你可能感兴趣的试题
A.50年代
B.80年代
C.70年代
D.60年代
A.企业名称
B.企业标志
C.象征图案
D.办公用品
A.如果以鼠标单击点为中心绘制矩形、椭圆及圆角矩形,使用工具的同时按Shift键就可实现
B.在绘制矩形时,起始点为右下角,鼠标只需向左上角拖移,便可绘制一个矩形
C.在绘制圆角矩形时,如果希望长方形的两边呈对称的半圆形,可在圆角矩形对话框中使圆角半径值大于高度的一半
D.如果欲显示图形的中心点,首先确定图形处于选择状态,然后在属性面板上单击显示中
A.愉快
B.希望
C.象征光明
D.高贵
E.浪漫
A.变化与统一是相互依存的
B.变化时各组成部分的区别
C.统一是各组成部分之间的内在联系
D.变化与统一是相对对立的
A.白、紫、黑
B.红、黄、蓝
C.绿、红、青
D.白、黑、灰
A.书籍扉页
B.书籍装订
C.书籍封面
D.书脊
A.环保、健康、暴力
B.热烈、青春、朝气、积极、革命
C.给人清冷、恬静、深远感
D.高贵、浪漫
A.路径文字工具
B.直排文字工具
C.修饰文字工具
D.区域文字工具
A.防止文字移动位置
B.防止文字被编辑
C.防止文字变小
D.防止字体丢失
最新试题
激活函数为有限值时,基于梯度的优化方法更加稳定。
如果我们去掉ReLU层,这个神经网络仍能够处理非线性函数。
在大多数欧洲国家,电视和影像系统都使用的是()帧为—秒的帧频(fps)。
多层网络全部初始化为0,会使梯度为0或各层相同,相当于浅层网络。
将Sigmoid激活函数改为ReLU,将有助于克服梯度消失的问题。
在神经网络中ReLU永远不会饱和。
在虚拟空间中,通过()轴创造出景深。它是一个虚拟的平面,方向是伸出屏幕或者进入屏幕。
GAN只能用于深度神经网络。
神经网络进行图片语义分割时,先用CNN处理输入,再用反CNN得到输出。
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题。