對於一個以下的線性系統
可經過Multiplication和Addition轉換爲線性方程租
即線性系統與線性方程租等價
線性系統的應用
大多數電路系統爲線性系統
機器學習
設計濾波器
經過特徵值(Ei)與特徵向量能夠設計特定輸出的線性系統
圖像壓縮
向量(Vectors)
向量的第i個元素爲v
i,v
1=1, v
2=2, v
3=3
零向量
標準向量
向量集
包含n個元素的向量集爲
![](http://static.javashuo.com/static/loading.gif)
R
n
矩陣(Matrix)
標記規則:先 Row 再 Column
零矩陣
單位矩陣(Identity matrix)
矩陣轉置
AT中第(i,j)個元素爲A中第(j,i)個元素
矩陣與向量
矩陣A
m*n與向量x相乘結果爲m維向量。可經過行角度和列角度理解:
eg.
A and B 都是mxn矩陣. 若是對於R
n中全部w,都有Aw = Bw. 那麼A=B?
由於
線性組合(Linear Combination)
「Ax = b 是否有解」 能夠轉化爲 「b是不是A中各列的線性組合」
線性空間(Span)
給定一組向量集合
![](http://static.javashuo.com/static/loading.gif)
,Span A定義爲其中各向量的全部線性組合,即
![](http://static.javashuo.com/static/loading.gif)
「Ax = b 是否有解」能夠轉化爲 「b是否 ∈ Span A」
【總結】
對於
![](http://static.javashuo.com/static/loading.gif)
線性相關(Linear Dependent)
定義:給定一組向量集{a1, a2,..., an} ,若其中存在任一貫量ai可由其餘向量線性組合,則稱該向量集線性相關
等價爲以下
向量集{a1, a2,..., an} 線性相關:Ax = 0存在非零解
向量集{a1, a2,..., an}
線性獨立:Ax = 0只有零解
對於
線性相關的向量集{a1, a2,..., an} / Ax = 0存在非零解 → 方程Ax=b只要有解,必有無窮多解
線性相關法證實:
齊次方程(Homogeneous Equations)Ax=0證實:
秩(Rank)
定義:矩陣中線性獨立列的最大值
Nullity = Number of columns - rank
對於Am*n
【總結】
解線性方程方法
抽象爲線性系統即爲
其中A'=[A b]稱爲增廣陣(augmented matrix)
R=[R' b']爲簡化行階梯矩陣(reduced row echelon form,RREF)
- 矩陣是行階梯型
- 含先導元素(leading entries)的列(pivot column)是標準向量
![](http://static.javashuo.com/static/loading.gif)
A'→R的變換稱爲基礎行變換(elementary row operations)
初始矩陣 v.s. RREF
列:關係不變、span 變化(即Col A≠Col R)
行:關係變化、span 不變(即Row A=Row R)
秩(Rank)
最大獨立列的個數 = 主元列(Pivot Col)個數 = 非零行個數
由上可得,Rank A ≤ Min(列數,行數)
RREF與解的關係
對於瘦長型矩陣
若 Rank R = col A
無解:Rank R < Rank R'
惟一解:Rank R = Rank R'
若 Rank R < col A
無窮多解
對於扁平型矩陣
無解:Rank R < Rank R'
無窮多解:m = n 且 Rank R = Rank R'
惟一解:m < n 且 Rank R = Rank R'
矩陣相乘的兩個觀點
內積
列的線性組合
AB = A[b
1 b
2 ... b
p] = [Ab
1 Ab
2 ... Ab
p]
基礎行變換與矩陣乘積
1. 互換
2. 縮放
3. 倍乘第i行、加至第j行
eg. A爲m*n矩陣,其RREF爲R,即
可逆
A爲n*n矩陣,當且僅當如下條件成立時,A是可逆的:
- A的列張成(span)Rn
- 對全部b∈Rn, Ax=b都有解
- A的秩爲n
- A的列相互獨立
- Ax=0 只有零解
- A的nullity爲0
- A的RREF爲In
- 存在Bn*n使得BA = In
- 存在Cn*n使得AC = In
求解逆矩陣
對於A
n*n,將[A I
n]進行基礎行變換,轉化爲[I
n B],則A
-1
=B
行列式(Determinants)
行列式的性質
- det(I) = 1
- 交換行改變det正負
- 行列式對每行都是線性
- det(AB) = det(A)det(B)
- a:det(A-1) = 1/det(A)
- b:det(A2) = det(A)2
行列式計算
選擇某行
或者某列
其中cij爲代數餘子式(cofactor)
克拉默法則(Cramer's Rule)
C爲A的代數餘子陣,C
T爲A的伴隨矩陣(adj A)
證實:
AC
T = det(A)I
n
【注】A中row i與row j的代數餘子式乘積爲0,至關於A中row i與row j相同
子空間(Subspace)
一組知足如下條件的向量集V:
0向量 ∈ V
若是
u,w ∈ V,則
u+w ∈ V
若是
u ∈ V,則c
u ∈ V
零空間(Null Space)
定義:Null A={
v∈R
n:A
v=
0 }
列空間(Column Space)
Col A={ A
v:
v∈R
n}
Row A=Col A
T
11
基(Basis)
定義:基爲子空間V的一個
線性獨立生成集
舉例:矩陣列空間Col A的基爲其先導列
【釋】先導列相互獨立;且其可生成Col A
基的性質
基是最小的生成集(generation set)
若是S爲子空間V的生成集
Subspace V = Span S = Col S,即Col S的基與Subspace V相同,然而S的基爲S的先導列(S的Subset),可參見上例
則V的基必定≤S的向量個數,即S可經過刪去某些向量轉化爲V的基
基是子空間中最大的獨立向量個數
子空間中的任何兩個基包含相同個數的向量(即爲子空間V的維度dim V)
此處證實較爲抽象故省略,創建這種直覺便可
證實向量集S爲子空間V的基
定義:基S爲子空間V的一個
線性獨立生成集
線性獨立:作RREF便可判斷
生成集:已知dim V = k(經過RREF判斷),而S是V的子集且含k個向量
eg.判斷B是否爲V的基。
知足如下兩個條件,故B是V的基
- B中各向量獨立
- dim V = 3,B∈V且含有3個向量
12
|
維度 |
基 |
Col A |
Rank A |
A的先導列 |
Null A |
Nullity A =n-Rank A |
Ax = 0的解向量 |
Row A |
Rank A |
A的RREF中非零行 |
13
當知足如下條件時,一組向量集B可做爲R
n的座標系
座標系B={u1,u2,...,un}爲Rn空間的基
座標系轉換
其餘系統↔笛卡爾座標系
14機器學習
機器學習學習
15spa
![](http://static.javashuo.com/static/loading.gif)
16
秩的更多性質
已知A
m×n、B
n×k,則Rank(AB) ≤ min(Rank(A), Rank(B))
證實
即證實如下兩條同時成立
a. Rank(AB) ≤ Rank(A)
b. Rank(AB) ≤ Rank(B)
先證(a)
對可逆矩陣Q
m×m,QA = R(RREF),因可逆矩陣是基礎矩陣的乘積,初等行變換不會改變行空間,
即行空間的維度不會變化,即Rank不變,故有Rank(QA) = Rank(A)
Rank(AB) = Rank(QAB) = Rank(RB)
Rank(A) = Rank(PA) = Rank(R)
R中非零行即爲Rank(R),而RB的非零行≤R中非零行,即Rank(RB) ≤ Rank(R),故有Rank(AB) ≤ Rank(A).net
將(AB)T帶入上式,可得Rank(AB) ≤ Rank(B),綜上則有Rank(AB) ≤ min(Rank(A), Rank(B))設計
其餘性質(證實省略)3d
- 若Rank(B) = n → Rank(AB) = Rank(A)
- 若Rank(A) = n → Rank(AB) = Rank(B)
- Rank(A+B) ≤ Rank(A) + Rank(B)
行列式的更多性質
交換行會改變行列式的正負
對每行來講,行列式是線性的
det(AB) = det(A)det(B)
det(A) = det(AT)
code
17
Av = λv(λ爲特徵值,v爲特徵向量【非零】)
可認爲T(v) = Av,即對向量v的線性變換
即求解(A - λI
n)v = 0
即λ對應的特徵向量爲Null(A - λI
n),又稱爲λ的特徵空間(eigenspace of λ)
判斷λ是否爲A的特徵值?
即判斷λ的特徵空間尺寸,若爲0 → 特徵空間僅含{0} → 沒有特徵向量 → λ不是特徵值
18 特徵多項式
值t爲方陣A的特徵值