单项选择题
SGD和Adam的优化方法有什么区别?()
A.SGD只考虑一阶梯度,而Adam结合了一阶动量和二阶动量
B.Adam只考虑一阶梯度,而SGD基于动量梯度方法
C.SGD和Adam都只使用一阶梯度
D.SGD和Adam都考虑二阶梯度
点击查看答案&解析
相关考题
-
单项选择题
在深度学习中,哪种激活函数通常不存在梯度消失问题,并且计算效率较高?()
A.Sigmoid
B.Tanh
C.ReLU
D.Softmax -
单项选择题
为什么在使用sigmoid作为激活函数时,常用交叉熵损失函数而不用均方差误差损失函数?()
A.均方差误差损失函数容易陷入局部最优解
B.均方差误差损失函数在sigmoid函数下容易导致梯度消失
C.因为交叉熵损失函数不适于分类问题
D.交叉熵损失函数比均方差误差损失函数计算更简单 -
单项选择题
在什么条件下,最小二乘法与极大似然估计是等价的?()
A.样本服从正态分布
B.残差服从正态分布
C.样本量足够大
D.模型自变量无共线性
