2017-05-27 57 views

回答

0

一般來說,你會執行一些非迭代算法(可能基於求解一個線性方程組)或者像GD這樣的迭代方法,但是這裏更簡單,因爲它已經給出了這裏有一個完美的適合

完美貼合表示:損失/零誤差

  • 的零牽連損失,即sigma0需要是零或者樣品4(最後一個)誘導損耗
    • 總體損耗的樣品損失和每一損失的總和/組件非負 - >我們無法容忍這裏
  • 損失當sigma0是固定的,樣品4具有產生無損失的解決方案的一個無限量
  • 但是樣品1顯示,它必須是0.5,以誘導ñ Ø虧
  • 檢查別人,它的裝修非常

一個假設我提出:

  • 梯度下降將收斂到最優解(這並非總是如此,即使對於凸優化問題;它取決於學習速度;可以使用行搜索來基於關於該問題的一些假設來證明收斂;但這一切都是無關的)
0

這是緩存這是機器學習中最容易出現的問題之一。

剛看到,我們必須建立一個線性迴歸模型,以適應以下數據: -

STEP 1:理解問題

而作爲在最後一個問題中提到的它應該完全適合數據。

我們必須找到theta0theta1以這樣的方式使得x Htheta(x)的給定值將給出y的正確值。

步驟2:FINDING THETA1

在這些米實施例採取任何2個隨機實例

Htheta(x2)-Htheta(x1) = theta1*(x2)-theta1*(x1) 
-----Subtracting those 2 variables(eliminating theta0) 


hteta(x2) = y2 
(y corresponding to that x in the data as the parameters exactly fit the data provided) 


(y2-y1)/(x2-x1) = theta1 
----taking common and then dividing by(x2-x1) on both sides of equation 

從這:

theta1 = 0.5 

STEP3:計算THETA0

採取任何隨便舉個例子,把的theta1yx值在這個等式

y = theta1*x + theta0 

theta0會出來爲0