我試圖通過延伸的第一示例來運行具有兩個功能的高斯過程迴歸在https://pymc-devs.github.io/pymc3/notebooks/GP-introduction.html n = 20
X = np.array([list(a) for a in zip(np.sort(3*np.random.rand(n)), np.sort(3*np.random.rand(n)))])
我不知道爲什麼下面的代碼是無效的.. from numpy import *
import theano.tensor as T
x = T.dmatrix("x")
mx = x[...,None,:]
a = T.ones((1,3))
T.grad(mx[...,0].dot(a).sum(), a).eval({x:ones((5,10)).astype(float32)})
我正在嘗試使用Theano來實現CNN,並嘗試使用我的較大數據集的小樣本集來測試我的代碼。我試圖將一組8280張圖片(250 * 250大小)分類成115個類別,而我的樣本集合是前兩個類別的32張圖片(每張16張圖片)。我遇到的問題是,從第一個時代開始,NaN的訓練損失和它在更進一步的時代不會改變。 from __future__ import print_function
import sy