機器學習和深度學習之數學基礎-線性代數 第二節 矩陣的概念及運算

本文爲原創文章,歡迎轉載,但請務必註明出處。

上文介紹了線性映射,而與線性映射直接相關的就是矩陣,它決定了線性映射的結果,這裏介紹矩陣的一些基本概念和運算。包括矩陣的轉置、逆、特徵值與特徵向量、投影、正交矩陣、對稱矩陣、正定矩陣、內積和外積、SVD、二次型等基本概念。本文主要參考Garrett Thomas(2018),Marc Peter Deisenroth(2018),Strang(2003),José Miguel Figueroa-O’Farrill, Isaiah Lankham(UCD, MAT67,2012)等教授的相關講座和教材。

1、 矩陣的轉置

矩陣轉置的定義很簡單,矩陣的轉置就是將矩陣的行變爲列,即 A R m × n , 那麼轉置 A R n × m ,且 ( A ) i j = A j i

轉置的性質:

  • ( A ) = A
  • ( A + B ) = A + B
  • ( α A ) = α A
  • ( A B ) = B A

A = A , 那麼 A 稱爲對稱矩陣(symmetric)。任何一個矩陣都可以是一個對稱矩陣和反對稱矩陣(antisymmetric)的和:

A = 1 2 ( A + A ) + 1 2 ( A A )

其中, 1 2 ( A + A ) 是對稱矩陣, 1 2 ( A A ) 是反對稱矩陣。

2、可逆矩陣(invertible matrix)

一個方陣 A R n × n 可逆當且僅當存在一個方陣 B R n × n 使得

A B = I

其中 I R n × n 爲單位矩陣。那麼方陣 B 爲方陣 A 的逆矩陣,記作 A 1

如果矩陣 A R n × n ,那麼下面的說法等價:

  • A 可逆
  • A 不是奇異矩陣(non-singular)
  • 行列式 d e t ( A ) 0
  • A 滿秩,即 r a n k ( A = n )
  • A x = 0 只有唯一解: x = 0
  • A 的零空間只有零向量: { 0 } ,即 n u l l ( A ) = 0
  • A 的列向量線性無關
  • A 的列向量的張成是整個 R n 空間。
  • A 的列向量構成 R n 的一個基向量集
  • 存在方陣 B R n × n 使得 A B = I = B A .
  • 轉置 A 是可逆矩陣,於是,矩陣 A 的行向量是線性無關的,張成是 R n 空間,同時構成了 R n 的一個基向量集。
  • A 不存在值爲0的特徵值。
  • A 可以表示爲有限個初等矩陣的乘積。
  • A 有左逆矩陣(即 B A = I )和 右逆矩陣(即 A C = I ),且 B = C = A 1

可逆矩陣 A 的一些重要性質:

  • ( A 1 ) 1 = A ;
  • ( α A ) 1 = α 1 A 1 ,這裏實數標量 α 0
  • ( A ) 1 = ( A 1 )
  • ( A B ) 1 = B 1 A 1 ,其中 B R n × n 是可逆矩陣。 更一般情況,如果方陣 A 1 , . . . A k 可逆,那麼 ( A 1 . . . A k ) 1 = A k 1 . . . A 1 1 .
  • d e t ( A 1 ) = ( d e t ( A ) ) 1

如果方陣 A 的逆矩陣就是它自身,即 A = A 1 , 那麼有 A 2 = I ,這是方陣 A 就叫對合矩陣(involutory matrix)。

3、矩陣的列空間(columnspace)和行空間(rowspace), 矩陣的秩(rank)

矩陣 A R m × n 列空間(columnspace)是指其列向量(看成是 R m 中的向量)的張成; 類似的,行空間(rowspace)是指其行向量(看成是 R n 中的向量)的張成。

矩陣 A 的列空間等於由矩陣 A 導致的線性映射 R n R m 的值域, 即 r a n g e ( A )

矩陣 A R m × n 列秩是矩陣 A 的線性無關的列向量的最大數量。類似地,行秩是矩陣 A 的線性無關的行向量的最大數量。 矩陣的列秩和行秩總是相等的,因此它們可以簡單地稱作矩陣 A 的秩,通常表示爲 r ( A ) r a n k ( A )

4、範數(norm)和內積(inner product)

4.1、範數(norm)

範數(norm)是對歐氏空間距離的一般描述。在實數向量空間 V 的一個範數是一個函數 : V R ,並且滿足:

  • x 0 , 當且僅當 x = 0 等號成立;
  • α x = | α | x
  • x + y x + y (三角不等式)

注意在 V 上的任何範數都會引出一個在 V 上的距離度量: d ( x , y ) = x y

常用的範數包括:

x 1 = i = 1 n | x i |

x 2 = i = 1 n x i 2

x p = ( i = 1 n | x i | p ) 1 p , ( p 1 )

x = m a x 1 i n | x i |

圖一,不同範數在二維平面的示例

圖一,不同範數在二維平面的示例

4.2、內積(inner product)

在實數向量空間 V 的一個內積是一個函數 : V × V R ,並且滿足:

  • x , x 0 ,當且僅當 x = 0 等號成立
  • x + y , z = x , z + y , z α x , y = α x , y
  • x , y = y , x

另外,對於向量的2-範數,有

x = x , x

x , y = 0 時, 那麼在同一向量空間中的非零向量 x y 正交 (orthogonal, 垂直,記爲 x y )。 如果 x y 還是單位長度,即 x = y = 1 ,那麼向量 x y 稱爲是標準正交的(orthonormal)。

向量正交的幾何解釋,如下圖二,假設向量 x y 的夾角是 θ ,那麼由於:

x , y = x y c o s ( θ )

當夾角 θ = π / 2 (即垂直)時, c o s ( θ ) = 0 ,所以有 x , y = 0
向量之間的夾角

圖二,空間中兩個向量之間的夾角

通常內積被記爲:

c o s ( θ ) = 0 ,所以有 x , y = 0
向量之間的夾角

圖二,空間中兩個向量之間的夾角

通常內積被記爲:

x , y = i = 1 n x i y i = x y

在空間 R n 上, 內積被稱爲點積(dot product), 記爲 xi

相關文章
相關標籤/搜索