问答题
在深度学习的二分类任务中 考虑以下关于激活函数的高级特性及其对模型训练影响的描述 哪一项表述最为精确且深入地阐述了Sigmoid与ReLU在输出层应用时的主要差异 A Sigmoid函数由于其饱和性 容易在深层网络中导致梯度消失问题 而ReLU通过其线性区域能够有效缓解梯度消失 因此ReLU总是优于Sigmoid作为二分类输出层的激活函数 B Sigmoid函数的输出范围限制在 0 1
答案:
答案:B 解析: 选项B正确。Sigmoid函数的输出范围限制在(0,1),这意味着它能够将任何实数值压缩到(0...