本文重点
我们已经学习了线性变换了,而且我们知道每一个线性变换都有一个矩阵,那么本文我们从线性变换的角度来理解矩阵范数和行列式。
矩阵范数
为什么要学习范数呢?因为范数是程度概念的推广,在矩阵理论的计算方法中,要讨论收敛问题和逼近问题,那么就需要引入向量和矩阵范数的概念,我们在本专栏刚开始的时候就介绍了向量的范数和矩阵的范数,本文我们从线性变换的角度来理解什么是矩阵的范数?
我们先来回忆一下矩阵的范数:
如上所示,我们可以看到每个矩阵的范数的下面都有一个||x||=1,这个表示向量x的范数为1
AX这个相当于将矩阵A把向量x映射成AX,max||AX||取其在向量x范数为1所构成的闭集下的向量Ax范数最大值作为矩阵A的范数,即矩阵对向量缩放的比例的上界。
我们可以认为矩阵的范数反映了线性映射把一个向量映射为另一个向量,向量的“长度”缩放的最大比例,这个通俗理解就是说矩阵是由多个向量组成,每个向量都会对向量进行一个缩放、旋转(相当于没有缩放)等等,这里最大的那个缩放就定义为矩阵的范数。也就是说这个矩阵的范数表示了这个矩阵