首先來總結一下前面兩部分的一些主要結論:算法
下面讓咱們把視力集中到一點以改變咱們以往看待矩陣的方式。咱們知道,線性空間裏的基本對象是向量,而向量是這麼表示的:工具
\[[a1, a2, a3, ..., an]\]學習
矩陣呢?矩陣是這麼表示的:
\[ \begin{align} \left[ \begin{matrix} a_{11} & a_{12} & a_{13} & \cdots & a_{1n} \\ a_{21} & a_{22} & a_{23} & \cdots & a_{2n} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & a_{n3} & \cdots & a_{nn} \\ \end{matrix} \right] \notag \end{align} \]spa
不用太聰明,咱們就能看出來,矩陣是一組向量組成的。特別的,n維線性空間裏的方陣是由n個n維向量組成的。咱們在這裏只討論這個n階的、非奇異的方陣,由於理解它就是理解矩陣的關鍵,它纔是通常狀況,而其餘矩陣都是意外,都是不得不對付的討厭情況,大能夠放在一邊。這裏多一句嘴,學習東西要抓住主流,不要糾纏於旁支末節。很惋惜咱們的教材課本大多數都是把主線埋沒在細節中的,搞得你們還沒明白怎麼回事就先被灌暈了。好比數學分析,明明最要緊的觀念是說,一個對象能夠表達爲無窮多個合理選擇的對象的線性和,這個概念是貫穿始終的,也是數學分析的精華。可是課本里自始至終不講這句話,反正就是讓你作吉米多維奇,掌握一大堆解偏題的技巧,記住各類特殊狀況,兩類間斷點,怪異的可微和可積條件(誰還記得柯西條件、迪裏赫萊條件...?),最後考試一過,一切忘光光。要我說,還不如反覆強調這一個事情,把它深深入在腦子裏,別的東西忘了就忘了,真碰到問題了,再查數學手冊嘛,何須因小失大呢?.net
言歸正傳。若是一組向量是彼此線性無關的話,那麼它們就能夠成爲度量這個線性空間的一組基,從而事實上成爲一個座標系體系,其中每個向量都躺在一根座標軸上,而且成爲那根座標軸上的基本度量單位(長度1)。對象
如今到了關鍵的一步。看上去矩陣就是由一組向量組成的,並且若是矩陣非奇異的話(我說了,只考慮這種狀況),那麼組成這個矩陣的那一組向量也就是線性無關的了,也就能夠成爲度量線性空間的一個座標系。結論:矩陣描述了一個座標系。blog
「慢着!」,你嚷嚷起來了,「你這個騙子!你不是說過,矩陣就是運動嗎?怎麼這會矩陣又是座標系了?」get
嗯,因此我說到了關鍵的一步。我並無騙人,之因此矩陣又是運動,又是座標系,那是由於——數學
「運動等價於座標系變換」。it
對不起,這話其實不許確,我只是想讓你印象深入。準確的說法是:
「對象的變換等價於座標系的變換」。
或者:
「固定座標系下一個對象的變換等價於固定對象所處的座標系變換。」
說白了就是:
「運動是相對的。」
讓咱們想一想,達成同一個變換的結果,好比把點(1, 1)變到點(2, 3)去,你能夠有兩種作法。第一,座標系不動,點動,把(1, 1)點挪到(2, 3)去。第二,點不動,變座標系,讓x軸的度量(單位向量)變成原來的1/2,讓y軸的度量(單位向量)變成原先的1/3,這樣點仍是那個點,但是點的座標就變成(2, 3)了。方式不一樣,結果同樣。
從第一個方式來看,那就是我在《理解矩陣》1/2中說的,把矩陣當作是運動描述,矩陣與向量相乘就是使向量(點)運動的過程。在這個方式下,
\[Ma = b\]
的意思是:「向量a通過矩陣M所描述的變換,變成了向量b。」
而從第二個方式來看,矩陣M描述了一個座標系,姑且也稱之爲M。那麼:
\[Ma = b\]
的意思是:「有一個向量,它在座標系\(M\)的度量下獲得的度量結果向量爲a,那麼它在座標系\(I\)的度量下,這個向量的度量結果是b。」 這裏的\(I\)是指單位矩陣,就是主對角線是1,其餘爲零的矩陣。
而這兩個方式本質上是等價的。
我但願你務必理解這一點,由於這是本篇的關鍵。
正由於是關鍵,因此我得再解釋一下。
在M爲座標系的意義下,若是把M放在一個向量a的前面,造成\(Ma\)的樣式,咱們能夠認爲這是對向量a的一個環境聲明。它至關因而說:
「注意了!這裏有一個向量,它在座標系M中度量,獲得的度量結果能夠表達爲a。但是它在別的座標系裏度量的話,就會獲得不一樣的結果。爲了明確,我把M放在前面,讓你明白,這是該向量在座標系M中度量的結果。」
那麼咱們再看孤零零的向量b:
b
多看幾遍,你沒看出來嗎?它其實不是b,它是:
\(Ib\)
也就是說:「在單位座標系,也就是咱們一般說的直角座標系I中,有一個向量,度量的結果是b。」
而 \(Ma = Ib\)的意思就是說:
「在M座標系裏量出來的向量a,跟在I座標系裏量出來的向量b,其實根本就是一個向量啊!」
這哪裏是什麼乘法計算,根本就是身份識別嘛。
從這個意義上咱們從新理解一下向量。向量這個東西客觀存在,可是要把它表示出來,就要把它放在一個座標系中去度量它,而後把度量的結果(向量在各個座標軸上的投影值)按必定順序列在一塊兒,就成了咱們平時所見的向量表示形式。你選擇的座標系(基)不一樣,得出來的向量的表示就不一樣。向量仍是那個向量,選擇的座標系不一樣,其表示方式就不一樣。所以,按道理來講,每寫出一個向量的表示,都應該聲明一下這個表示是在哪一個座標系中度量出來的。表示的方式,就是 Ma,也就是說,有一個向量,在M矩陣表示的座標系中度量出來的結果爲a。咱們平時說一個向量是\([2,\,3,\, 5,\, 7]^T\),隱含着是說,這個向量在 \(I\) 座標系中的度量結果是\([2,\, 3, \,5,\, 7]^T\),所以,這個形式反而是一種簡化了的特殊狀況。
注意到,M矩陣表示出來的那個座標系,由一組基組成,而那組基也是由向量組成的,一樣存在這組向量是在哪一個座標系下度量而成的問題。也就是說,表述一個矩陣的通常方法,也應該要指明其所處的基準座標系。所謂M,實際上是 IM,也就是說,M中那組基的度量是在 I 座標系中得出的。從這個視角來看,\(M×N\)也不是什麼矩陣乘法了,而是聲明瞭一個在M座標系中量出的另外一個座標系N,其中M自己是在\(I\)座標系中度量出來的。
回過頭來講變換的問題。我剛纔說,「固定座標系下一個對象的變換等價於固定對象所處的座標系變換」,那個「固定對象」咱們找到了,就是那個向量。可是座標系的變換呢?我怎麼沒看見?
請看:
\[Ma = Ib\]
我如今要變M爲I,怎麼變?對了,再前面乘以個\(M^{-1}\),也就是M的逆矩陣。換句話說,你不是有一個座標系M嗎,如今我讓它乘以個\(M^{-1}\),變成\(I\),這樣一來的話,原來M座標系中的a在\(I\)中一量,就獲得b了。
我建議你此時此刻拿起紙筆,畫畫圖,求得對這件事情的理解。好比,你畫一個座標系,x軸上的衡量單位是2,y軸上的衡量單位是3,在這樣一個座標系裏,座標爲(1,1)的那一點,實際上就是笛卡爾座標系裏的點(2, 3)。而讓它原形畢露的辦法,就是把原來那個座標系:
2 0
0 3
的x方向度量縮小爲原來的1/2,而y方向度量縮小爲原來的1/3,這樣一來座標系就變成單位座標系I了。保持點不變,那個向量如今就變成了(2, 3)了。
怎麼可以讓「x方向度量縮小爲原來的1/2,而y方向度量縮小爲原來的1/3」呢?就是讓原座標系:
2 0
0 3
被矩陣:
1/2 0
0 1/3
左乘。而這個矩陣就是原矩陣的逆矩陣。
下面咱們得出一個重要的結論:
「對座標系施加變換的方法,就是讓表示那個座標系的矩陣與表示那個變化的矩陣相乘。」
再一次的,矩陣的乘法變成了運動的施加。只不過,被施加運動的再也不是向量,而是另外一個座標系。
若是你以爲你還搞得清楚,請再想一下剛纔已經提到的結論,矩陣MxN,一方面代表座標系N在運動M下的變換結果,另外一方面,把M當成N的前綴,當成N的環境描述,那麼就是說,在M座標系度量下,有另外一個座標系N。這個座標系N若是放在I座標系中度量,其結果爲座標系MxN。
在這裏,我實際上已經回答了通常人在學習線性代數是最困惑的一個問題,那就是爲何矩陣的乘法要規定成這樣。簡單地說,是由於:
從變換的觀點看,對座標系N施加M變換,就是把組成座標系N的每個向量施加M變換。
從座標系的觀點看,在M座標系中表現爲N的另外一個座標系,這也歸結爲,對N座標系基的每個向量,把它在I座標系中的座標找出來,而後匯成一個新的矩陣。
至於矩陣乘以向量爲何要那樣規定,那是由於一個在M中度量爲a的向量,若是想要恢復在I中的真像,就必須分別與M中的每個向量進行內積運算。我把這個結論的推導留給感興趣的朋友吧。應該說,其實到了這一步,已經很容易了。
綜合以上1/2/3,矩陣的乘法就得那麼規定,一切有根有據,毫不是哪一個神經病胡思亂想出來的。
我已經沒法說得更多了。矩陣又是座標系,又是變換。究竟是座標系,仍是變換,已經說不清楚了,運動與實體在這裏統一了,物質與意識的界限已經消失了,一切歸於沒法言說,沒法定義了。道可道,很是道,名可名,很是名。矩陣是在是不可道之道,不可名之名的東西。到了這個時候,咱們不得不認可,咱們偉大的線性代數課本上說的矩陣定義,是無比正確的:
「矩陣就是由m行n列數放在一塊兒組成的數學對象。」
好了,這基本上就是我想說的所有了。還留下一個行列式的問題。矩陣M的行列式其實是組成M的各個向量按照平行四邊形法則搭成一個n維立方體的體積。對於這一點,我只能感嘆於其精妙,卻沒法揭開其中奧祕了。也許我掌握的數學工具不夠,我但願有人可以給咱們你們講解其中的道理了。
我不知道是否講得足夠清楚了,反正這一部分須要您花些功夫去推敲。
此外,請你們沒必要等待這個系列的後續部分。以個人工做狀況而言,近期內很難保證繼續投入腦力到這個領域中,儘管我仍然對此興致濃厚。不過若是還有(四)的話,多是一些站在應用層面的考慮,好比對計算機圖形學相關算法的理解。可是我不承諾這些討論近期內會出現了。
最後的最後,很是感謝原做者分享本身對於矩陣的理解,我想說這對不少人來講都受益不淺,書本上冰冷的知識堆砌一直讓我摸不着頭腦,爲何要這麼定義?這麼求出來爲何就是特徵值或者特徵矩陣了呢?讀了這些系列文章後有種醍醐灌頂的感受,再次表示感謝!
做者:myan
來源:CSDN
原文:https://blog.csdn.net/myan/article/details/1865397