eigenvector

    -1熱度

    1回答

    如何構造具有相同對角元素的兩個正半定矩陣?假設M1和M2是兩個psd矩陣。我想要對角線(M1)和對角線(M2)的矢量相同。非對角元素必須有所不同。 [a e f g] [a s t u] [e b h i] [s b v w] [f h c j] [t v c x] [g i j d] [u w x d] 認爲第一個矩陣爲M1,第二個矩陣爲M2。請記住M1和M2都是PSD。 在此先感謝!

    1熱度

    1回答

    我想用scipy.sparse.linalg.eigsh使用shift-invert模式找到複雜矩陣的特徵值和特徵向量。在矩陣中只有實數,我可以得到與spicy.linalg.eigh求解器相同的結果,但是在添加虛部時,特徵值會發散。一個微小的例子: import numpy as np from scipy.linalg import eigh from scipy.sparse.linal

    0熱度

    1回答

    事先道歉,Python不是我的強項。 與矩陣的實際特徵值(如Python計算)相對應的特徵向量看起來不是特徵向量,而由Wolfram Alpha計算的特徵向量似乎可行。 (我的同事證實,同一病理執行R中的計算時,雖然我沒有成績單似乎是這樣。)代碼片段: >>> import numpy as np >>> in_matrix = np.array([[0.904, 0.012, 0.427],

    1熱度

    1回答

    據我所知,有經典的特徵向量中心性,並有變種,如卡茨中心性或PageRank。我不知道後者是否是特徵向量中心性演變的「最新階段」,因此總是優越?還是有一定的條件,取決於哪一個應該使用一個或另一個。如果是這樣,那將是什麼條件?

    2熱度

    1回答

    我在ruby中使用Matrix類來計算特徵值和特徵向量。有了這個代碼: m = Matrix[[0.6868,0.6067],[0.6067,0.5978]] v, d, v_inv = m.eigensystem 正確的結果應該是: [ 1.25057433 0.03398123] [[ 0.73251454 -0.68075138] [ 0.68075138 0.73251454]]

    1熱度

    1回答

    我使用apache.commons.math3庫來計算一個3x3矩陣的特徵向量,但對於計算特徵向量的特徵分解方法將返回錯誤的結果:這是我的代碼: double[][] matrix = { {1 ,3 ,2}, {1 ,4 ,3}, {2 ,1 ,0} }; RealMatrix realMatrix = MatrixUtils.cr

    0熱度

    1回答

    我嘗試使用Python sklearn對breast_canser數據集進行主成分分析。 並且不明白爲什麼特徵向量的點積(3個分量)不是零? frst = pca.components_[0,:] scnd = pca.components_[1,:] thrd = pca.components_[2,:] orth1 = np.dot(frst,scnd) orth2 = np.dot(

    1熱度

    2回答

    1)在eigenface方法中,特徵臉是來自不同面的元素的組合。這些元素是什麼? 2)輸出面是由不同權重的不同特徵臉組成的圖像。特徵臉的權重究竟意味着什麼?我知道權重是圖像中特徵臉的百分比,但它究竟意味着什麼,是指所選像素的數量?

    0熱度

    1回答

    我有一個問題,通過eig_sym犰狳中的本徵分解。當我試圖計算出多組特徵向量的並行,不時的特徵向量是 不是正交 不歸 甚至不會有問題的矩陣的特徵向量。 如果每次只運行一次計算(所以這似乎是一些線程安全問題),此問題消失。一旦兩個計算並行運行,問題就會再次出現。奇怪的是,特徵值在任何情況下都是正確的。 //compile with: g++ -std=c++11 -pthread -larmadil

    0熱度

    1回答

    我嘗試使用一些示例(here)使用ARPACK,但我甚至無法弄清楚如何輸入我的矩陣。從這個question看來,Python和Matlab中的實現似乎是避免ARPACK複雜性的唯一解決方案。是否有一些(基於Fortran的)方法來做到這一點,也避免計算所有的特徵值/特徵向量?