矩陣對角化與奇異值分解
來自專欄本科生的筆記本6 人贊了文章
Part.1 矩陣對角化
1.1矩陣和線性變換
Definition1: 對於向量空間 的一個變換 (一般使用花體拉丁字母 代表 的變換, 代表元素 在變換 下的象),如果對於 中任意元素 和數域 中任意數 ,都有: 則稱變換(映射) 為線性變換(映射)
一個矩陣 乘一個向量 實際上是把 「變換」為另一個向量 ,即將 映射到 中。矩陣乘法法則告訴我們
式(2)符合式(1)關於線性變換的定義,因此矩陣和向量相乘本質上是一種線性變換,這種變換將 中的一個向量映射到 中去。
比如 將 映射為 。
當 即 是方陣時這個線性變換為
與向量 相乘 意味著將二維空間 中的向量 映射為二維空間 中的向量
1.2特徵值與特徵向量
先給出定義,然後我們會用一個例子來說明特徵向量的幾何意義
Definition2:設 是 階方陣,如果數 和 維非零向量 使 成立,則稱 是特徵值, 是對應於 的特徵向量
How to find :
注意到 是一個方陣,所以 在 時有非零解,這些非零解便是 的特徵向量。現在看一個例題。由 可列出關於 的方程,這個方程被稱為 的特徵方程。
Problem: 設有矩陣 ,求它的特徵值和特徵向量 Solution:
令其等於零可得: ,將 分別代回方程(4)可得:
用一張圖表示(5):
由上圖不難發現特徵向量在經過與 相乘這個變換操作後得到的新向量方向與特徵向量相同。
1.矩陣與向量相乘是一種線性變換
2.矩陣的特徵向量經過矩陣所代表的線性變換後方向與原方向保持一致
這種「變換」中的」不變性「被我們看作矩陣的一種特徵,故而叫特徵值與特徵向量,它反映了變換矩陣所代表的線性變換的固有特點。
1.3矩陣對角化
假設 有 個特徵值 和特徵向量 ,由1.2中方程 可得:
由(6)(7)得:
上式意味著如果給一個方陣 左乘其特徵向量矩陣 的逆,右乘 便可得到一個對角陣。
觀察式(8)不難發現要對角化 有兩個前提條件
1. 可逆
可逆意味著 有 個獨立的特徵向量 2. 是方陣非方陣沒有特徵值和特徵向量,也就無法構成 矩陣
Part.2 實對稱矩陣
2.1 實對稱矩陣的對角化
Definition3:若 ,則稱 為對稱矩陣 。
由定義容易知道一個對稱矩陣 必然是一個方陣
Theorem1: 投影矩陣 必為對稱矩陣 Proof:
根據眼淚不會為你而流:投影矩陣與最小二乘法這篇文章1.2部分的內容可知,如果我們要把一個向量 投影到由向量 張成的空間 中去,就要找到一個投影矩陣 用 去右乘 來得到 在 中的投影 。
故投影矩陣 為對稱矩陣Q.E.D
Theorem2:所有實對稱矩陣都可分解為 。
其中 由的正交特徵向量組成, 的特徵值均為實數。
a.先證明 的所有特徵值為為實數
Proof: 1.2告訴我們求 的特徵值等價於求方程 的非零解,我們先利用 求得 特徵值 ,再將 回代入(a1)解出 特徵向量 。容易發現,當特徵值為複數時, 必有複數元素,因此特徵向量 也必含複數元素。則有
因為 是實矩陣,所以兩邊取共軛得: 給(a2)左乘 ,給(a3)右乘 得: 所以 ,又 所以
b.證明對稱矩陣 的特徵向量均正交之前,先引入兩個引理
Lemma1: 實對稱矩陣 對應於不同特徵值的特徵向量必正交 Proof:設 為對應於 的特徵向量:
想辦法構造出 (或 ): 即 Q.E.D.
Lemma2: 若 是實對稱矩陣 的特徵方程的 重根,則 , ,因此可從 中選出 個正交的向量作為 的解,也就是作為 的特徵向量 。
Proof:略
容易驗證當 階方陣 的互不相等的特徵值 的重數分別為 時, 。
根據Lemma2可知:對於每一個 均對應了 個正交的特徵向量,記這組正交向量為 。根據Lemma1可知: 不同組內的特徵向量也相互正交。所以 中的 個特徵向量均正交。
2.2小結*
在矩陣對角化後面介紹對稱矩陣主要是因為實對稱矩陣有著良好的性質和廣泛的應用。下面我們概述下前面的內容。
2.2.1矩陣對角化的本質
不了解基變換矩陣請參考 【熟肉】線性代數的本質 - 09 - 基變換
特徵向量來自於方陣 的行空間中。特徵向量,式 表明對 施加 所代表的變換 後,將其映射為 中的 ,也就是說在映射前後, 的方向不發生改變而長度伸縮 倍。當方陣有足夠的( 個)特徵向量時,我們用這些特徵向量作為空間 的基,由特徵向量的定義知:線性變換 在這組基向量上都是伸縮變換
這個矩陣代表的線性變換是在基向量上進行的,而 則是在基向量 上進行的, 是一個基變換矩陣。
- 和 是同一個線性變換在不同基下的描述。
- 矩陣對角化就是把一組基上的線性變換用另一組基來描述,用後一組基描述時,線性變換 只是單純的伸縮變換 。
當方陣沒有足夠的( 個)線性無關的特徵向量時,就無法作為 的一組基,也就無法在特徵向量基上描述線性變換 。
當 不是實對稱矩陣時, 我們可以直接組成 ,也可以將特徵向量單位化再組成
我們為什麼能對特徵向量進行單位化,既然可以單位化那能不能正交化呢?
Lemma3:如果 是 的特徵向量 ,則,即 也是 的特徵向量。 Lemma3解釋了特徵向量為什麼能夠單位化。同時注意:如果對特徵向量進行正交化,特徵向量將不再保持原有方向,與特徵向量保持方向不變的性質相衝突。所以一般而言不能對非正交的特徵向量進行正交化操作。
特別地,當方陣 是對稱矩陣時,我們證明了 一定有足夠的( 個)線性無關特徵向量構成 矩陣,並且此時 , 即是單位正交矩陣(orthonormal matrix)。
雖然我們只證明了 是正交矩陣(orthogonal matrix),但根據Lemma3,我們可以將特徵向量全部單位化再組成 ,這樣 就變成了單位正交矩陣,也就有
2.2.2實對稱矩陣的對角化
特徵向量來自方陣的行空間, 階實對稱矩陣必有 個單位正交的特徵向量。我們完全可以用 個單位正交的特徵向量 作為行空間 的基向量組 ,令人偷稅的是,在經過方陣所代表的線性變換映射後,這組基在列空間中的象仍是正交的。 一般而言,正交的總是最好最簡潔最方便的!
Proof:
因為 正交,所以 ,故 Q.E.D
Part.3奇異值分解(SVD)
3.1SVD的動機和靈感
當 是方陣時我們給出了矩陣對角化的方法,當 不是方陣時我們能不能也將 「對角化」呢?
對角化打引號是因為當 不是方陣時,我們通過SVD得到的是形如
或者形如 的矩形」對角陣「。而在Part.1和Part.2中我們得到的對角陣是方陣 。
在2.2中我們知道方陣 對角化的含義:
矩陣對角化就是把一組基上的線性變換用另一組基(特徵向量基)來描述。用後一組基描述時,線性變換 只是單純的伸縮變換 ,其對應的變換矩陣為對角矩陣 。特別地,當 是實對稱矩陣時,特徵向量基是正交的。
也就是說 和 代表的是同一種線性變換,只是用於描述的基向量不同罷了。
奇異值分解本質上同方陣對角化意義相同,即在不同的基上描述同一種線性變換。矩陣 對應的線性變換為 ,對於 我們總是默認基向量為
而便是在這組默認的基上對 的數值化描述,因此實際上 對 的數值描述為:
方陣對角化中選擇合適的基(由特徵向量組成的基)描述線性變換使該變換在數值描述上成為單純的伸縮變換,特別地,在對稱方陣對角化過程中這組基是正交的。於是我們就想能不能給非方陣 對應變換 的定義域 ,值域 也選擇合適的基向量,使變換 在數值描述上也像方陣對角化里那樣變為單純的伸縮變換?或者更進一步像對稱方陣對角化中那樣選取的基也是正交的?答案當然是 能!
3.2選擇合適的基
在開始選擇基向量之前先回顧矩陣四個子空間的聯繫圖
給 的定義域也就是 選擇一組正交基等價於在 的 和 中分別找到兩組正交的基。
在 投影矩陣與最小二乘法 這篇文章的附錄 [2],我們證明過 由 矩陣的四個子空間及其聯繫 這篇文章2.2部分可知行空間和零空間互為 下的正交補,故
由(11)(12)知:
Lemma4: 和 具有相同的行空間和零空間。因此在 的 和 中分別找兩組正交的基等價於在 的 和 中分別找兩組正交基。
設 的秩為 ,則由(11)和秩-零度定理[1]可知: 明顯是實對稱矩陣,根據本文2.1和2.2可知 的正交特徵向量 來自其行空間 , 來自其零空間 。來自於零空間的 均對應於特徵值 。
Lemma4告訴我們 和 具有相同的行空間和零空間,因此來自 的 可作為 的一組正交基, 可作為 的一組正交基。因為 互為正交補,所以 是 的一組正交基。
類似地,我們可以發現
的正交基 和 的正交基 是 的單位正交特徵向量。又因為 與 互為正交補,所以 ,即 是 的一組正交基
到目前為止,我們找到了映射 定義域 內的正交基 和值域 內的正交基。現在問題變成了:用我們找到的這兩正交基組基是否能使映射 的數值化描述變為單純的伸縮變換 ?
答案是 能!下面我們來證明它。
Theorem3:設有矩陣 ,其對應的線性映射為 。已知對稱陣 的單位特徵向量 可作為 的一組正交基。
對稱陣 的單位特徵向量 可作為 的一組正交基,試證明 Proof:因為 是 的單位特徵向量,不妨設對應的特徵值為 (d2)兩邊左乘 得 因為 是單位向量( ),故 ,所以有: (d2)兩邊左乘 得 (d5)表明向量 就是方陣 的特徵向量,其對應的特徵值為 。將 單位化就是求 。因此 的單位特徵向量 ,即有 ,其中 是方陣 特徵值 的平方根。
我們證明了
其中 是方陣 特徵值的平方根。根據這個式子我們可以寫出SVD的形式:
,又因為 由方陣 的正交特徵向量組成,所以 。所以
除了 其他元素全為 。式(*)右邊是 個秩為 的 矩陣 。如果把這些秩 矩陣看作組成 的成分,則 代表了該秩 矩陣這個成分佔 的比重。
在圖片壓縮技術中應用SVD便可以找到圖像矩陣中佔比最大的成分。刪去佔比過大的成分,會使原圖片丟失較多信息,變得模糊,就如本文正文前兩張圖片展示的一樣。
附錄
[1]Rank-nullity theorem
推薦閱讀:
※線性代數三兩談
※線性代數線性相關無關的吃貨表示
※從頭開始實現一個線性代數庫:演算法實現篇
※PCA線性代數講解
※線性代數(0):開始
TAG:線性代數 |