线性代数中特征值和特征向量有啥用,在运筹学里有用吗?
2019-04-21
如果你把A*x=lambda*x中的A看做一种变换,一种作用,那么那些在这种作用下,只改变长短不改变方向的那些向量x就是特征向量,而特征值就是lambda,是伸缩系数,起能量增幅或者削减作用。
特征值特征向量在各学术领域均有很高级的作用,首先介绍PCA,主成分分析。如果你面前有大维数组,处理起来非常棘手,直接带入问题处理速度又慢,第一想法就是能不能从中取出最有用,最有代表性的内容,俗话说:捞干的。
回想tr迹这个性质,trA=A所有特征向量的和,主对角线元的意义非凡,暂且认为主对角线和就是这个矩阵所蕴含的能量。
而特征向量就是这些能量集中爆发的方向,如果你很清楚特征分解的几何意义,就知道特征向量就是数据在空间中的对称轴,特征分解就是把其他方面的能量都投影在对称轴上,所以特征分解完或者说投影完,中间就只剩一个对角阵了,非对角元全是0. 此时你把最大的那几个特征向量摘出来,其余的抛掉,如此能很大程度降低你数据的维度,但信息损失仍在可控的范围。
假设你求出100个特征值,头五个最大的和能达到这100个和的95%,那么其余95个丢掉,相对应的特征向量也丢掉。
此时你的100*100的方阵只剩下5*5了,但信息量保存了95%。金融业,银行业,保险业大量使用。互联网,Google的PageRank,就是 对www链接关系的修正邻接矩阵的,主要特征向量的投影分量,给出了页面平分。
也就是搜索排名,凭什么我靠前你靠后。人像识别,我们把图像A看成矩阵,进一步看成线性变换矩阵,把这个训练图像的特征矩阵求出来(假设取了n个能量最大的特征向量)。
用A乘以这个n个特征向量,得到一个n维矢量a,也就是A在特征空间的投影。还有聚类分析,信号处理等等。所以这块你一定要学透。
大家都在看
本站系本网编辑转载,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容!本站文章版权归原作者所有,内容为作者个人观点。本站只提供参考并不构成任何投资及应用建议。本站拥有对此声明的最终解释权。