欢迎来到在线考试题库网 在线考试题库官网
logo
全部科目 > 大学试题 > 计算机科学 > 人工智能

单项选择题

SGD和Adam的优化方法有什么区别?()

    A.SGD只考虑一阶梯度,而Adam结合了一阶动量和二阶动量
    B.Adam只考虑一阶梯度,而SGD基于动量梯度方法
    C.SGD和Adam都只使用一阶梯度
    D.SGD和Adam都考虑二阶梯度

点击查看答案&解析

相关考题

微信小程序免费搜题
微信扫一扫,加关注免费搜题

微信扫一扫,加关注免费搜题