通常求特征值和特征向量即為求出該矩陣能使哪些向量(固然是特征向量)只發(fā)生拉伸,使其發(fā)生拉伸的程度如何(特征值大?。_@樣做的意義在于看清一個矩陣在那些方面能產(chǎn)生最大的效果,并根據(jù)所產(chǎn)生的每個特征向量(一般研究特征值最大的那幾個)進(jìn)行分類討論與研究。
求特征向量:
一旦找到特征值λ,相應(yīng)的特征向量可以通過求解特征方程(A – λI) v = 0 得到,其中v為待求特征向量,I為單位陣。
沒有實(shí)特征值的一個矩陣的例子是順時針旋轉(zhuǎn)90度。
數(shù)值計(jì)算:
在實(shí)踐中,大型矩陣的特征值無法通過特征多項(xiàng)式計(jì)算,計(jì)算該多項(xiàng)式本身相當(dāng)費(fèi)資源,而精確的“符號式”的根對于高次的多項(xiàng)式來說很難計(jì)算和表達(dá):阿貝爾-魯費(fèi)尼定理顯示高次(5次或更高)多項(xiàng)式的根無法用n次方根來簡單表達(dá)。對于估算多項(xiàng)式的根的有效算法是有的,但特征值的小誤差可以導(dǎo)致特征向量的巨大誤差。求特征多項(xiàng)式的零點(diǎn),即特征值的一般算法,是迭代法。最簡單的方法是冪法:取一個隨機(jī)向量v,然后計(jì)算一系列單位向量。
這個序列幾乎總是收斂于絕對值最大的特征值所對應(yīng)的特征向量。這個算法很簡單,但是本身不是很實(shí)用。但是,象QR算法這樣的算法正是以此為基礎(chǔ)的。
特征向量簡介特征向量是一個非簡并的向量,在這種變換下其方向保持不變。該向量在此變換下縮放的比例稱為其特征值(本征值)。特征值是線性代數(shù)中的一個重要概念。
線性變換通常可以用其特征值和特征向量來完全描述。特征空間是一組特征值相同的特征向量。“特征”一詞來自德語的eigen。
希爾伯特在1904年第一次用這個詞,更早亥爾姆霍爾茲也在相關(guān)意義下使用過該詞。eigen一詞可翻譯為”自身的”、“特定于……的”、“有特征的”、或者“個體的”,這顯示了特征值對于定義特定的線性變換的重要性。
來源:高三網(wǎng)
能發(fā)現(xiàn)自己知識上的薄弱環(huán)節(jié),在上課前補(bǔ)上這部分的知識,不使它成為聽課時的“絆腳石”。這樣,就會順利理解新知識,相信通過怎么求特征向量這篇文章能幫到你,在和好朋友分享的時候,也歡迎感興趣小伙伴們一起來探討。