本章,你学习了三种基本的用于特征抽取的降维方法:标准PCA、LDA和核PCA。
使用PCA,我们将数据映射到一个低维度的子空间并且最大化正交特征轴的方差,PCA不考虑类别信息。LDA是一种监督降维方法,意味着他要考虑训练集的类别信息,目标是将类别最大化地可分。最后,你学习了核PCA,它能够将非线性数据集映射到低维特征空间,然后数据变成线性可分了。