我試圖實現具有兩個約束的隨機梯度下降,因此無法使用scikit-learn。不幸的是,我已經在不受兩個約束條件的情況下掙扎於常規新元。訓練集上的損失(平方損失)在一些迭代中下降,但在一段時間後開始增加,如圖中所示。 這些是我經常使用的功能:SGD - 經過一些迭代後損失開始增加
def loss_prime_simple(w,node,feature,data):
x = data[3]
y = data[2]
x_f = x[node][feature]
y_node = y[node]
ret = (y_node - w[feature] * x_f) * (-x_f)
return ret
def update_weights(w,data,predecs,children,node, learning_rate):
len_features = len(data[3][0])
w_new = np.zeros(len_features)
for feature_ in range(len_features):
w_new[feature_] = loss_prime_simple(w,node,feature_,data)
return w - learning_rate * w_new
def loss_simple(w,data):
y_p = data[2]
x = data[3]
return ((y_p - np.dot(w,np.array(x).T)) ** 2).sum()
這顯示了兩種不同的學習率(0.001,0.0001)設置的培訓損失http://postimg.org/image/43nbmh8x5/
任何人都可以找到一個錯誤或有建議如何調試這個? 感謝
編輯:
由於lejlot指出,這將是很好的數據。 這裏是我使用x的數據(單樣本):http://textuploader.com/5x0f1
Y = 2
這給出了這樣的損失:http://postimg.org/image/o9d97kt9v/
的更新的代碼:
def loss_prime_simple(w,node,feature,data):
x = data[3]
y = data[2]
x_f = x[node][feature]
y_node = y[node]
return -(y_node - w[feature] * x_f) * x_f
def update_weights(w,data,predecs,children,node, learning_rate):
len_features = len(data[3][0])
w_new = np.zeros(len_features)
for feature_ in range(len_features):
w_new[feature_] = loss_prime_simple(w,node,feature_,data)
return w - learning_rate * w_new
def loss_simple2(w,data):
y_p = data[2]
x = data[3]
return ((y_p - np.dot(w,np.array(x).T)) ** 2).sum()
import numpy as np
X = [#put array from http://textuploader.com/5x0f1 here]
y = [2]
data = None, None, y, X
w = np.random.rand(4096)
a = [ loss_simple2(w, data) ]
for _ in range(200):
for j in range(X.shape[0]):
w = update_weights(w,data,None,None,j, 0.0001)
a.append(loss_simple2(w, data))
from matplotlib import pyplot as plt
plt.figure()
plt.plot(a)
plt.show()
感謝您的建議。我試過了,但沒有改變。編輯它在我的問題 – TobSta
如果問題仍然存在,你必須提供一個最小的工作示例 - 四**全**代碼(不只是很少的方法,也許你不正確地運行它們)和它失敗的數據 – lejlot
感謝指出out :)我編輯了這些問題 – TobSta