相关知识回顾
1.线性代数
①生成子空间:向量的线性组合 ∑icivi
②列空间:A的列向量的生成子空间→列空间/值域
如果Ax=b对∀b∈Rm∃解,则列空间构成Rm
比如:
[1324]⋅[xy]
就是构成了一个列空间,x、y任取就对应不同的结果,这个结果构成一个集合
③列空间构成Rm⇒ A至少m列即n≥m
因为:假设 A∈R3×2 b是三维的而x只有两维,只能描绘R3空间中的平面
④一个列向量线性相关的方阵成为奇异的
⑥矩阵可逆必为方阵(实际上m×n的矩阵也存在A使得A⋅B=Im但那是后续的伪逆,只有在即使左逆又是右逆的情况下才叫可逆,同时可以推出可逆阵是方阵
⑦范数(norm):衡量从原点到点x的距离
∥x∥p=(∑i∣xi∣p)p1
p=2 时 L2为欧几里得范数 L2=∥x∥2=x⋅x⊤(点积)
p=1 时为 L1 ,当机器学习问题中零元素和非零元素的差异非常重要时就会使用该范数, L1 也替代 L0 经常作为表示非零元素数目的替代函数
L∞范数(最大范数)表示向量中具有最大幅值的元素的绝对值。即L∞=maxi∣xi∣
Frobenius 范数: ∥A∥F=∑i,jAi,j2, 衡量矩阵的大小
⑧对角矩阵: i=jDi,j=0
diag(v)表示对角元素由向量v中元素给定的对角方阵
diag(v)⋅x=v⊙x
⑨标准正交:n个向量不仅相互正交并且范数都为1
正交矩阵:行、列向量分别标准正交,即 A⋅A⊤=A⊤⋅A=I 也即 A⊤=A−1
⑩特征分解
特征向量: 对于非零向量v,方阵A有
A⋅v=λv
标量λ为特征向量对应的特征值(同理有定义左特征向量v⊤A=λA)
⑪由于特征向量可以缩放,所以一般只考虑单位特征向量
n个线性无关的特征向量{v(1),...v(n)}
对应的特征值{λ1,...λn}
A 的特征值分解: Vdiag(λ)V−1
不是每一个矩阵都可以分解成特征值和特征向量
在某些特殊情况下特征分解存在但会涉及复数
而每个实对称矩阵都可以分解成实特征向量和实特征值
A=QΛQ−1
但特征分解可能不唯一
矩阵的作用其实是让的不同向量空间里的向量进行拉伸
- 矩阵是奇异的当且仅当含有零特征值
正定: 所有特征值都是正数
半正定: 所有特征值都是非负数
同理还有负定和半负定
⑫ f(x)=x⊤Ax x 为某个特征向量时 f 返回对应的特征值 (限制 ∥x∥2=1, 见花书 P 39)
⑬奇异值分解 (相比于特征分解应用更广泛, 因为不仅限于方阵)
每一个实数矩阵都有一个奇异值分解, 且非方阵只能用奇异值分解
分解:
A=UDV⊤
A:m×m 为正交矩阵, 列向量为左奇异向量
D:m×n 为对角矩阵, 对角元素为矩阵 A 的奇异值
V⊤:n×n 为正交矩阵, 列向量为右奇异向量
*⎩⎪⎪⎨⎪⎪⎧AA⊤的特征向量即为左奇异向量A⊤A的特征向量即为右奇异向量A的非零奇异向量是AA⊤/A⊤A特征值的平方根
⑭Moorse-Penrose 伪逆 (非方阵左逆)
A 的伪逆: A+=limα→∞(A⊤A+αI)−1A⊤
计算伪逆: A+=VD+U⊤ V、D、U即为奇异分解后的是哪个矩阵
D⊤即为D非零元素取倒数后转置
{m<n时x=A+y是方程所有可行解中∥x∥2中最小的一个m>n时可能没有解,伪逆得到的x使∥Ax−y∥2最小
⑮迹运算 Tr(A)=∑iAij
∥A∥F=Tr(AAT)
Tr(ABC)=Tr(CBA)=Tr(BCA)
更一般地有:Tr(∏inF(i))=Tr(F(n)∏in−1F(i))
对于标量 a=Tr(a)
⑯行列式:绝对值衡量矩阵乘法后空间扩大或者缩小多少(如果为0则沿某一维完全收缩,比较Jacobian矩阵)
行列式的结果等于矩阵的各个特征值的乘积
对于满秩矩阵,一组特征向量可以当作一组坐标系的基
分别伸缩λi倍 ∴空间伸缩∏inλi=∣A∣
(表示坐标旋转的矩阵一般人两个特征值共轭的复数,复平面上表示的旋转角度的绝对值即为坐标旋转角度)
2.概率与信息论
①Bernoulli分布
P(x=1)=ϕP(x=0)=1−ϕ
②Multinoulli分布(范畴分布)
具有k个不同状态的单个离散随机变量上的分布
③高斯分布(正态分布)
N(x,μ,σ2)=2πσ21e−2σ21(x−μ)2
多维正态分布:
N=(2π)ndet(Σ)1e−21(x−μ)⊤Σ−1(x−μ)
其中μ仍然是均值,不过是向量值;Σ是协方差矩阵,可以用β替代Σ−1
更简单版本:各向同性高斯分布(协方差阵是标量×单位阵)
④指数分布
p(x;λ)=λ1x≥0e−λx
Laplace分布: Laplace(x;μ;γ)=2γ1e−γ∣x−μ∣
可以在任意一点μ设置概率质量的峰值
⑤Dirac分布 p(x)=δ(x) 集中在一点
经验分布 p^(x)=m1∑imδ(x−x(i))
⑥常用函数
logistic sigmoid函数 σ(x)=1+e−x1 → 产生Bernoulli的ϕ
![[logistic函数.png]]
softplus函数 ζ(x)=log(1+ex) → 产生正态分布的β和σ
性质:
- σ(x)=ex+e0ex
- dxdσ(x)=σ(x)(1−σ(x))
- log(σ(x))=−ζ(−x)
- dxdζ(x)=σ(x)
- ∀x∈(0,1)σ−1(x)=log(1−x1)
- ∀x>0ζ−1(x)=log(ex−1)
- ζ(x)=∫−∞xσ(y)dy
- ζ(x)−ζ(−x)=x
信息论部分暂略…
3.数值计算
①条件数:函数对于输入的微小变化而变化的快慢程度
f(x)=A−1xA∈Rn×m 具有特征值分解时
条件数maxij∣λjλi∣ 最大与最小特征值模之比
② Jacobian矩阵: f:Rm→RnJij=∂x∂f(x)i
Hessian矩阵: H(f)(x)i,j=∂xi∂xj∂2f(x) 等价于梯度的Jacobian矩阵
仅使用梯度信息的优化算法 ⇒ 一阶优化算法
使用Hessian矩阵的优化算法 ⇒ 二阶最优化算法