Title
13 keras优化器
发布时间:2024-05-06 05:06:22 作者:佚名 点击量:
原文地址optimizers(优化器)。机器学习包括两部分内容,一部分是如何构建模型,另一部分就是如何训练模型。训练模型就是通过挑选最佳的优化器去训练出最优的模型。
Keras包含了很多优化方法。比如最常用的随机梯度下降法(SGD),还有Adagrad、Adadelta、RMSprop、Adam等。下面通过具体的代码介绍一下优化器的使用方法。最重要的就是SGD,其他的优化器有兴趣的可以自行了解一下。
在编译一个Keras模型时,优化器是2个参数之一(另外一个是损失函数)。看如下代码:
这个例子中是在调用compile之前实例化了一个优化器。我们也可以通过传递名字的方式调用默认的优化器。代码如下:
所有的优化器都继承自上面这个带有keyword参数的类。当然基类是不能用来训练模型的。
参数:
- lr :float>=0,学习速率
- momentum :float>=0 参数更新的动量
- decay : float>=0 每次更新后学习速率的衰减量
- nesterov :Boolean 是否使用Nesterov动量项
参数:
- lr : float>=0,学习速率
- epsilon :float>=0
- decay : float>=0 每次更新后学习速率的衰减量
参数:
- lr :float>=0,学习速率
- rho : float>=0
- epsilon :float>=0 模糊因子
- decay : float>=0 每次更新后学习速率的衰减量
参数:
- lr:float>=0,学习速率
- rho : float>=0
- epsilon : float>=0 模糊因子
- decay : float>=0 每次更新后学习速率的衰减量
参数:
- lr : float>=0,学习速率
- beta_1, beta_2:floats, 0 < beta < 1 通常都是接近于1
- epsilon :float>=0 模糊因子
- decay : float>=0 每次更新后学习速率的衰减量
参数:
- lr : float>=0,学习速率
- beta_1, beta_2:floats, 0 < beta < 1 通常都是接近于1
- epsilon :float>=0 模糊因子
- decay : float>=0 每次更新后学习速率的衰减量
返回列表