Pytorch中adam优化器的参数问题

之前用的adam优化器一直是这样的: alpha_optim = torch.optim.Adam(model.alphas(), config.alpha_lr, betas=(0.5, 0.999), weight_decay=config.alpha_weight_decay) 没有细想内部参
posted @ 2020-07-27 17:06  嶙羽  阅读(8142)  评论(0编辑  收藏  举报