深度学习中的优化算法之RMSProp

x33g5p2x  于2022-05-22 转载在 其他  
字(3.8k)|赞(0)|评价(0)|浏览(421)

    之前在https://blog.csdn.net/fengbingchun/article/details/124766283 中介绍过深度学习中的优化算法AdaGrad,这里介绍下深度学习的另一种优化算法RMSProp。

    RMSProp全称为Root Mean Square Propagation,是一种未发表的自适应学习率方法,由Geoff Hinton提出,是梯度下降优化算法的扩展。如下图所示,截图来自:https://arxiv.org/pdf/1609.04747.pdf

   

     AdaGrad的一个限制是,它可能会在搜索结束时导致每个参数的步长(学习率)非常小,这可能会大大减慢搜索进度,并且可能意味着无法找到最优值。RMSProp和Adadelta都是在同一时间独立开发的,可认为是AdaGrad的扩展,都是为了解决AdaGrad急剧下降的学习率问题。

    RMSProp采用了指数加权移动平均(exponentially weighted moving average)。

    RMSProp比AdaGrad只多了一个超参数,其作用类似于动量**(momentum),其值通常置为0.9**。

    RMSProp旨在加速优化过程,例如减少达到最优值所需的迭代次数,或提高优化算法的能力,例如获得更好的最终结果。

    以下是与AdaGrad不同的代码片段:

    1.在原有枚举类Optimizaiton的基础上新增RMSProp:

  1. enum class Optimization {
  2. BGD, // Batch Gradient Descent
  3. SGD, // Stochastic Gradient Descent
  4. MBGD, // Mini-batch Gradient Descent
  5. SGD_Momentum, // SGD with Momentum
  6. AdaGrad, // Adaptive Gradient
  7. RMSProp // Root Mean Square Propagation
  8. };

    2.calculate_gradient_descent函数:RMSProp与AdaGrad只有g[j]的计算不同

  1. void LogisticRegression2::calculate_gradient_descent(int start, int end)
  2. {
  3. switch (optim_) {
  4. case Optimization::RMSProp: {
  5. int len = end - start;
  6. std::vector<float> g(feature_length_, 0.);
  7. std::vector<float> z(len, 0), dz(len, 0);
  8. for (int i = start, x = 0; i < end; ++i, ++x) {
  9. z[x] = calculate_z(data_->samples[random_shuffle_[i]]);
  10. dz[x] = calculate_loss_function_derivative(calculate_activation_function(z[x]), data_->labels[random_shuffle_[i]]);
  11. for (int j = 0; j < feature_length_; ++j) {
  12. float dw = data_->samples[random_shuffle_[i]][j] * dz[x];
  13. g[j] = mu_ * g[j] + (1. - mu_) * (dw * dw);
  14. w_[j] = w_[j] - alpha_ * dw / (std::sqrt(g[j]) + eps_);
  15. }
  16. b_ -= (alpha_ * dz[x]);
  17. }
  18. }
  19. break;
  20. case Optimization::AdaGrad: {
  21. int len = end - start;
  22. std::vector<float> g(feature_length_, 0.);
  23. std::vector<float> z(len, 0), dz(len, 0);
  24. for (int i = start, x = 0; i < end; ++i, ++x) {
  25. z[x] = calculate_z(data_->samples[random_shuffle_[i]]);
  26. dz[x] = calculate_loss_function_derivative(calculate_activation_function(z[x]), data_->labels[random_shuffle_[i]]);
  27. for (int j = 0; j < feature_length_; ++j) {
  28. float dw = data_->samples[random_shuffle_[i]][j] * dz[x];
  29. g[j] += dw * dw;
  30. w_[j] = w_[j] - alpha_ * dw / (std::sqrt(g[j]) + eps_);
  31. }
  32. b_ -= (alpha_ * dz[x]);
  33. }
  34. }
  35. break;
  36. case Optimization::SGD_Momentum: {
  37. int len = end - start;
  38. std::vector<float> change(feature_length_, 0.);
  39. std::vector<float> z(len, 0), dz(len, 0);
  40. for (int i = start, x = 0; i < end; ++i, ++x) {
  41. z[x] = calculate_z(data_->samples[random_shuffle_[i]]);
  42. dz[x] = calculate_loss_function_derivative(calculate_activation_function(z[x]), data_->labels[random_shuffle_[i]]);
  43. for (int j = 0; j < feature_length_; ++j) {
  44. float new_change = mu_ * change[j] - alpha_ * (data_->samples[random_shuffle_[i]][j] * dz[x]);
  45. w_[j] += new_change;
  46. change[j] = new_change;
  47. }
  48. b_ -= (alpha_ * dz[x]);
  49. }
  50. }
  51. break;
  52. case Optimization::SGD:
  53. case Optimization::MBGD: {
  54. int len = end - start;
  55. std::vector<float> z(len, 0), dz(len, 0);
  56. for (int i = start, x = 0; i < end; ++i, ++x) {
  57. z[x] = calculate_z(data_->samples[random_shuffle_[i]]);
  58. dz[x] = calculate_loss_function_derivative(calculate_activation_function(z[x]), data_->labels[random_shuffle_[i]]);
  59. for (int j = 0; j < feature_length_; ++j) {
  60. w_[j] = w_[j] - alpha_ * (data_->samples[random_shuffle_[i]][j] * dz[x]);
  61. }
  62. b_ -= (alpha_ * dz[x]);
  63. }
  64. }
  65. break;
  66. case Optimization::BGD:
  67. default: // BGD
  68. std::vector<float> z(m_, 0), dz(m_, 0);
  69. float db = 0.;
  70. std::vector<float> dw(feature_length_, 0.);
  71. for (int i = 0; i < m_; ++i) {
  72. z[i] = calculate_z(data_->samples[i]);
  73. o_[i] = calculate_activation_function(z[i]);
  74. dz[i] = calculate_loss_function_derivative(o_[i], data_->labels[i]);
  75. for (int j = 0; j < feature_length_; ++j) {
  76. dw[j] += data_->samples[i][j] * dz[i]; // dw(i)+=x(i)(j)*dz(i)
  77. }
  78. db += dz[i]; // db+=dz(i)
  79. }
  80. for (int j = 0; j < feature_length_; ++j) {
  81. dw[j] /= m_;
  82. w_[j] -= alpha_ * dw[j];
  83. }
  84. b_ -= alpha_*(db/m_);
  85. }
  86. }

    执行结果如下图所示:测试函数为test_logistic_regression2_gradient_descent,多次执行每种配置,最终结果都相同。图像集使用MNIST,其中训练图像总共10000张,0和1各5000张,均来自于训练集;预测图像总共1800张,0和1各900张,均来自于测试集。在它们学习率为0.01及其它配置参数相同的情况下,AdaGrad耗时为17秒,RMSProp耗时为33秒;它们的识别率均为100%。当学习率调整为0.001时,AdaGrad耗时为26秒,RMSProp耗时为19秒;它们的识别率均为100%。

    GitHub: https://github.com/fengbingchun/NN_Test

相关文章