线性代数高效学习指南(特征值与特征向量篇):矩阵的”灵魂”
说实话,特征值和特征向量是线性代数里最深奥的部分。
它抽象、难懂,但应用极广——从主成分分析到微分方程,从量子力学到机器学习,都离不开特征值。
今天学长分享特征值与特征向量的学习方法,帮你拿下这个硬骨头。
特征值与特征向量的定义
基本定义
特征值: 设A是n阶矩阵,若存在数λ和n维非零向量x,使得Ax = λx,则称λ是A的特征值,x是A的特征向量。
几何意义:
特征向量在变换后方向不变(不共线则反方向),只伸缩λ倍。
代数意义:
Ax = λx → (A-λE)x = 0
学长说
特征向量的定义就一句话:在矩阵变换下方向不变的向量。 记住这个,几何意义就理解了。
特征多项式
特征方程:
|A - λE| = 0
特征多项式:
f(λ) = |A - λE| = (-1)^n(λ-λ₁)(λ-λ₂)...(λ-λₙ)
重要结论:
- λ₁+λ₂+…+λₙ = tr(A) = a₁₁+a₂₂+…+aₙₙ (迹)
- λ₁·λ₂·…·λₙ = |A| (行列式)
学长说
特征值之和等于矩阵的迹,特征值之积等于行列式。 这是检验特征值是否算错的好方法!
特征值与特征向量的计算
计算步骤
Step 1:求特征方程 |A-λE| = 0
Step 2:解特征方程,得到特征值λ₁,λ₂,...,λₙ
Step 3:对于每个λᵢ,解方程组 (A-λᵢE)x = 0
Step 4:求基础解系,即为特征向量
具体计算
例:求矩阵A = [[2,1],[1,2]]的特征值和特征向量
Step 1:特征方程
|A-λE| = |[2-λ, 1],[1, 2-λ]|
= (2-λ)(2-λ) - 1
= (2-λ)² - 1
= λ² - 4λ + 3
= (λ-1)(λ-3) = 0
Step 2:特征值
λ₁ = 1, λ₂ = 3
Step 3:求特征向量
对于λ₁ = 1:
(A-E)x = 0
[1, 1],[1, 1] → [1, 1],[0, 0]
x₁ + x₂ = 0
x = k[-1, 1]^T (k≠0)
对于λ₂ = 3:
(A-3E)x = 0
[-1, 1],[1, -1] → [1, -1],[0, 0]
x₁ - x₂ = 0
x = k[1, 1]^T (k≠0)
学长说
特征向量不唯一(任意非零倍数都是)。 但同一个特征值的特征向量共面(线性相关)。
特征值的性质
代数性质
| 性质 | 说明 |
|---|---|
| 同一特征值的特征向量不唯一 | 任意非零倍数 |
| 不同特征值的特征向量线性无关 | 重要结论 |
| k重特征值最多有k个线性无关特征向量 | 可能是0 |
| λ=0是特征值 ⟺ A不可逆 | 可逆判别 |
| A可逆 ⟺ 特征值全非零 | 可逆判别 |
迹与行列式
迹(trace):
tr(A) = Σλᵢ = Σaᵢᵢ
行列式:
|A| = Πλᵢ
重要推论:
- |A| ≠ 0 ⟺ 0不是特征值
- tr(AB) = tr(BA)
- tr(A+B) = tr(A) + tr(B)
相似矩阵
相似定义
定义: 若存在可逆矩阵P,使得P⁻¹AP = B,则称A相似于B,记作A~B
性质:
- 反身性:A~A
- 对称性:A~B ⟹ B~A
- 传递性:A~B, B~C ⟹ A~C
重要定理:
A~B ⟹
- |A| = |B|
- tr(A) = tr(B)
- 特征值相同(重数也相同)
- r(A) = r(B)
学长说
相似矩阵的本质:同一个线性变换在不同基下的表示。 它们有相同的”本质”,所以特征值相同。
矩阵对角化
可对角化条件:
A可对角化 ⟺ A有n个线性无关特征向量
对角化步骤:
Step 1:求A的n个线性无关特征向量
Step 2:以特征向量为列构成矩阵P
Step 3:Λ = P⁻¹AP = diag(λ₁,λ₂,...,λₙ)
例:
A = [[2,1],[1,2]]
特征值:λ₁=1, λ₂=3
特征向量:p₁=[-1,1], p₂=[1,1]
P = [[-1,1],[1,1]]
P⁻¹ = (1/2)[[1,-1],[-1,-1]]
Λ = P⁻¹AP = [[1,0],[0,3]]
实对称矩阵的对角化
特殊性质:
- 实对称矩阵必可对角化
- 必有n个线性无关特征向量
- 不同特征值的特征向量正交
正交对角化:
存在正交矩阵Q,使得 Q⁻¹AQ = Q^T A Q = Λ
步骤:
- 求特征值和特征向量
- 特征向量正交规范化(施密特正交化)
- 以正交规范特征向量构成正交矩阵Q
- Λ = Q^T A Q
学长说
实对称矩阵的对角化是考试重点。 施密特正交化是难点,但步骤固定,多练就行。
二次型
二次型的定义
二次型: 含n个变量的二次齐次多项式
矩阵表示:
f(x₁,x₂,...,xₙ) = x^T A x
其中A是对称矩阵
例:
f(x,y) = x² + 2xy + y²
= [x, y] [[1, 1],[1, 1]] [x],[y]
二次型的标准形
定义: 只含平方项的二次型
方法1:配方法
例:
f = x₁² + 2x₁x₂ + x₂² + x₂x₃
= (x₁ + x₂)² + x₂x₃
= (x₁ + x₂)² + [(x₂ + x₃/2)² - (x₃/2)²]
= y₁² + y₂² - y₃²
其中:
y₁ = x₁ + x₂
y₂ = x₂ + x₃/2
y₃ = x₃
方法2:正交变换法
f = x^T A x → y^T Λ y
其中x = Qy,Q是正交矩阵
步骤:
- 求A的特征值和特征向量
- 正交规范化构成Q
- 写出标准形
正定二次型
定义: 对任意非零x,x^T Ax > 0
判别方法:
| 方法 | 条件 |
|---|---|
| 特征值 | 所有特征值 > 0 |
| 顺序主子式 | 所有顺序主子式 > 0 |
| 定义 | 对任意x≠0,f>0 |
顺序主子式:
| 阶数 | 主子式 |
|---|---|
| 1阶 | a₁₁ |
| 2阶 | |
| 3阶 |
学长说
正定二次型的判别是考试重点。 顺序主子式法最常用,也最简单。
特征值的应用
求矩阵的幂
方法:
A = PΛP⁻¹
A^k = PΛ^k P⁻¹
= P diag(λ₁^k,...,λₙ^k) P⁻¹
例:
A = [[2,1],[1,2]], A = PΛP⁻¹
A^k = P diag(1^k, 3^k) P⁻¹
= P diag(1, 3^k) P⁻¹
求矩阵指数(微分方程)
在微分方程中的应用:
x' = Ax → x(t) = e^(At) x(0)
e^(At) = P e^(Λt) P⁻¹
主成分分析(PCA)
原理:
- 数据协方差矩阵的特征值反映主成分的方差
- 特征向量是主成分的方向
量子力学
定态薛定谔方程:
Hψ = Eψ
E是哈密顿算符H的特征值。
学长私房话
说实话,特征值和特征向量是线性代数里最”高级”的内容。
学好了,说明你对线性代数有了深刻理解。
学长的学习方法:
- 理解定义
- 几何意义要理解
- 特征向量在变换下方向不变
- 熟练计算
- 求特征值、解方程组要多练
- 施密特正交化要掌握
- 掌握性质
- 迹与行列式的关系
- 相似矩阵的性质
- 理解应用
- 对角化、二次型
- 了解实际应用场景
学长踩过的坑
我大一下学特征值,总是把特征向量算错。 后来发现,问题出在解方程组时漏掉自由变量。 用基础解系表示时,一定要把所有自由变量写出来。 细节决定成败!
特征值和特征向量是线性代数最美的部分。
它揭示了矩阵的”本质”——特征。
学好了,你就能真正理解线性代数的精髓!