摘要:主成分分析,简称是一种非监督学习的机器算法,主要用于数据的降维。对于的目标函数求使得最大,可以使用梯度上升法来解决。利用梯度公式的梯度上升法实际上是批量梯度上升法还有随机梯度上升法和小批量梯度上升法,本文不涉及。
主成分分析(Principle Component Analysis,简称:PCA)是一种非监督学习的机器算法,主要用于数据的降维。
PCA 基本原理以有2个特征的二维平面举例,如图:
横轴表示特征1,纵轴表示特征2,其中4个点表示二维的特征样本。如果要对样本进行降维降到一维,可以将这些点映射到横轴、纵轴或者其它轴上如:
映射到不同的轴后样本间间距会不一样,而要找的就是让样本间间距最大的轴。假定这个轴方向为 $w = (w1, w2)$。
对于样本间间距可以用方差 $Var(x) = frac{1}{m}sum_{i=1}^m(x_i-overline x)^2$ 来衡量,方差越大,样本间越稀疏。
接着进行均值归0(demean)处理,即 $overline x = 0$,使得 $Var(x) = frac{1}{m}sum_{i=1}^m(x_i)^2$。均值归0处理使得原始样本发生了变化转换成了新的样本 $X$。将其映射到轴 $w$ 上又得到新的样本 $X_{pr}$,此时的方差为:
$$ Var(X_{pr}) = frac{1}{m}sum_{i=1}^m(X_{pr}^{(i)})^2 $$
因为 $X_{pr}^{(i)}$ 是一个向量 $(X_{pr1}^{(i)}, X_{pr2}^{(i)})$,所以实际的方差表示为:
$$ Var(X_{pr}) = frac{1}{m}sum_{i=1}^m||X_{pr}^{(i)}||^2 $$
最后计算 $||X_{pr}^{(i)}||$,如图所示:
$||X_{pr}^{(i)}|| = X^{(i)}·w$ ($w$ 为单位向量),如此得到了想要的目标函数:
求 $w$ 使得 $Var(X_{pr}) = frac{1}{m}sum_{i=1}^m(X^{(i)}·w)^2$ 最大;对于多维特征,即 $frac{1}{m}sum_{i=1}^m(X_1^{(i)}w_1+X_2^{(i)}w_2+...+X_n^{(i)}w_n)^2$ 最大。
梯度上升法解决PAC问题在梯度上升法中,$+eta abla f$ 代表了 $f$ 增大的方向。
对于 PAC 的目标函数:求 $w$ 使得 $f(X) = frac{1}{m}sum_{i=1}^m(X_1^{(i)}w_1+X_2^{(i)}w_2+...+X_n^{(i)}w_n)^2$ 最大,可以使用梯度上升法来解决。
$f(X)$ 的梯度为:
$$ abla f = egin{pmatrix} frac{partial f}{partial w_1} frac{partial f}{partial w_2} cdots frac{partial f}{partial w_n} end{pmatrix} = frac{2}{m} egin{pmatrix} sum_{i=1}^{m}(X_1^{(i)}w_1+X_2^{(i)}w_2+...+X_n^{(i)}w_n)X_1^{(i)} sum_{i=1}^{m}(X_1^{(i)}w_1+X_2^{(i)}w_2+...+X_n^{(i)}w_n)X_2^{(i)} cdots sum_{i=1}^{m}(X_1^{(i)}w_1+X_2^{(i)}w_2+...+X_n^{(i)}w_n)X_n^{(i)} end{pmatrix} = frac{2}{m} egin{pmatrix} sum_{i=1}^{m}(X^{(i)}w)X_1^{(i)} sum_{i=1}^{m}(X^{(i)}w)X_2^{(i)} cdots sum_{i=1}^{m}(X^{(i)}w)X_n^{(i)} end{pmatrix} = frac{2}{m}·X^T(Xw) $$
注:这里略去了转换过程。
利用梯度公式 $ abla f = frac{2}{m}·X^T(Xw)$ 的梯度上升法实际上是批量梯度上升法(还有随机梯度上升法和小批量梯度上升法,本文不涉及)。梯度上升法求主成分 求第一主成分
首先定义一组有两个特征的数据集 $X$,共100个样本:
import numpy as np X = np.empty((100, 2)) X[:, 0] = np.random.uniform(0., 100., size=100) X[:, 1] = 0.75 * X[:, 0] + 3. + np.random.normal(0, 10., size=100)
$X$ 可视化如图:
demean() 方法对 $X$ 进行均值归0处理:
def demean(X): return X - np.mean(X, axis=0) X_demean = demean(X)
均值归0处理后的 $X\_demean$ 可视化如图:
f() 方法求函数 $f$ 的值:
def f(w, X): return np.sum(X.dot(w) ** 2) / len(X)
df() 方法根据梯度公式 $ abla f = frac{2}{m}·X^T(Xw)$ 求梯度:
def df(w, X): return X.T.dot(X.dot(w)) * 2 / len(X)
gradient_ascent() 方法为梯度上升法的过程,在 n_iters 次循环中,每次获得新的 $w$,如果新的 $w$ 和旧的 $w$ 对应的函数 $f$ 的值的差值满足精度 epsilon,则表示找到了合适的 $w$:
def gradient_ascent(X, initial_w, eta, n_iters=1e4, epsilon=1e-8): w = direction(initial_w) cur_iter = 0 while cur_iter < n_iters: gradient = df(w, X) last_w = w w = w + eta * gradient w = direction(w) # 将w转换成单位向量 if(abs(f(w, X) - f(last_w, X)) < epsilon): break cur_iter += 1 return w
其中调用了一个方法 direction(),用于将 $w$ 转换成单位向量:
def direction(w): return w / np.linalg.norm(w)
接着使用梯度上升法,先设定一个初始的 $w$ 和学习率 $eta$:
initial_w = np.random.random(X.shape[1]) eta = 0.001
直接调用 gradient_ascent() 方法:
w = gradient_ascent(X_demean, initial_w, eta)
将得到的 $w$ 与样本可视化如图($w$ 以直线表示):
求前n个主成分前面求出了第一主成分,如何求出下一个主成分呢?以二维特征为例,如图:
样本 $X^{(i)}$ 在第一主成分 $w$ 上的分量为 $(X_{pr1}^{(i)}, X_{pr2}^{(i)})$,下一个主成分上的分量 $X^{"(i)} = X^{(i)} - (X_{pr1}^{(i)}, X_{pr2}^{(i)})$,因此只需将数据在第一主成分上的分量去掉,再对新的数据求第一主成分即可。
first_n_component() 方法用于求 $X$ 的前 n 个主成分,在 for 循环中每次求主成分时都设定一个随机的 $w$(initial_w),得到一个主成分后就去掉在这个主成分上的分量 X_pca = X_pca - X_pca.dot(w).reshape(-1, 1) * w:
def first_n_component(n, X, eta=0.001, n_iters=1e4, epsilon=1e-8): X_pca = X.copy() X_pca = demean(X_pca) res = [] for i in range(n): initial_w = np.random.random(X_pca.shape[1]) w = gradient_ascent(X_pca, initial_w, eta) res.append(w) X_pca = X_pca - X_pca.dot(w).reshape(-1, 1) * w return res降维映射
得到了多个主成分后,就可以通过这些主成分将高维数据映射到低维数据。
对于有 m 个样本,n 个特征的高维数据 $X$(m*n),主成分分析后得到前 k(k $$
X = egin{pmatrix} X_1^{(1)} X_2^{(1)} cdots X_n^{(1)} X_1^{(2)} X_2^{(2)} cdots X_n^{(2)} cdots cdots cdots cdots X_1^{(m)} X_2^{(m)} ... X_n^{(m)} end{pmatrix}, W_k= egin{pmatrix} W_1^{(1)} W_2^{(1)} cdots W_n^{(1)} W_1^{(2)} W_2^{(2)} cdots W_n^{(2)} cdots cdots cdots cdots W_1^{(k)} W_2^{(k)} ... W_n^{(k)} end{pmatrix}
$$ n 维降维到 k 维后的新数据为:$X_k = X·W_k^T$。 也可以将降维后的新数据恢复到原来的维度:$X_m = X_k·W_k$。 定义一个类 PCA,构造函数函数中 n_components 表示主成分个数即降维后的维数,components_ 表示主成分 $W_k$; 函数 fit() 与上面的 first_n_component() 方法一样,用于求出 $W_k$; 函数 transform() 将 $X$ 映射到各个主成分分量中,得到 $X_k$,即降维; 函数 transform() 将 $X_k$ 映射到原来的特征空间,得到 $X_m$。 Scikit Learn 中的 PCA 使用的不是梯度上升法,而是使用的相应的数学方法。使用方式如下: 参数 n_components 表示主成分个数。 由于 PCA 降维会丢失原数据的信息,Scikit Learn 中的 PCA 在 0 < n_components < 1 时表示降维的过程保留多少信息,如: 即保留原数据 95% 的信息,此时程序会自动得到一个 components_。 现在借助于 kNN 分类算法来看一看 PCA 的优势。首先使用一个正规的手写数据集 MNIST 数据集,获取样本数据集的程序为: 先不使用 PCA 来看看 kNN 算法的效率: 此时 fit 的过程消耗的时间为: 接着验证测试数据集的准确性: 此过程消耗的时间为: 并且测试数据集的正确率为0.9688。 然后在来看看 PCA 的优势,使用 PCA 时,设定保留信息为 90%: 此时 fit 的过程消耗的时间为: 接着验证测试数据集的准确性: 此过程消耗的时间为: 可以看出使用 PCA 后时间的消耗大大减少,而测试数据集的正确率为0.9728,不仅正确率没有降低还增加了,这是因为这里的降维过程丢失的信息是无用的信息从而达到了降燥效果。 Github | ML-Algorithms-Action在这个降维的过程中可能会丢失信息。如果原先的数据中本身存在一些无用信息,降维也可能会有降燥效果。
import numpy as np
class PCA:
def __init__(self, n_components):
self.n_components = n_components
self.components_ = None
def fit(self, X, eta=0.001, n_iters=1e4):
def demean(X):
return X - np.mean(X, axis=0)
def f(w, X):
return np.sum(X.dot(w) ** 2) / len(X)
def df(w, X):
return X.T.dot(X.dot(w)) * 2 / len(X)
def direction(w):
return w / np.linalg.norm(w)
def first_component(X, initial_w, eta, n_iters, epsilon=1e-8):
w = direction(initial_w)
cur_iter = 0
while cur_iter < n_iters:
gradient = df(w, X)
last_w = w
w = w + eta * gradient
w = direction(w)
if(abs(f(w, X) - f(last_w, X)) < epsilon):
break
cur_iter += 1
return w
X_pca = demean(X)
self.components_ = np.empty(shape=(self.n_components, X.shape[1]))
for i in range(self.n_components):
initial_w = np.random.random(X_pca.shape[1])
w = first_component(X_pca, initial_w, eta, n_iters)
self.components_[i:] = w
X_pca = X_pca - X_pca.dot(w).reshape(-1, 1) * w
return self
def transform(self, X):
return X.dot(self.components_.T)
def inverse_transform(self, X):
return X.dot(self.components_)
from sklearn.decomposition import PCA
pca = PCA(n_components=1)
pca = PCA(0.95)
import numpy as np
from sklearn.datasets import fetch_mldata
mnist = fetch_mldata("MNIST original")
X, y = mnist["data"], mnist["target"]
# MNIST 数据集已经默认分配好了训练数据集和测试数据集,即前60000个数据为训练数据
X_train = np.array(X[:60000], dtype=float)
y_train = np.array(y[:60000], dtype=float)
X_test = np.array(X[60000:], dtype=float)
y_test = np.array(y[60000:], dtype=float)
from sklearn.neighbors import KNeighborsClassifier
knn_clf = KNeighborsClassifier()
%time knn_clf.fit(X_train, y_train)
CPU times: user 29.6 s, sys: 306 ms, total: 29.9 s
Wall time: 30.7 s
%time knn_clf.score(X_test, y_test)
CPU times: user 10min 23s, sys: 2.05 s, total: 10min 25s
Wall time: 10min 31s
from sklearn.decomposition import PCA
pca = PCA(0.9)
pca.fit(X_train)
X_train_reduction = pca.transform(X_train)
knn_clf = KNeighborsClassifier()
%time knn_clf.fit(X_train_reduction, y_train)
CPU times: user 317 ms, sys: 5.31 ms, total: 323 ms
Wall time: 323 ms
X_test_reduction = pca.transform(X_test)
%time knn_clf.score(X_test_reduction, y_test)
CPU times: user 1min 15s, sys: 469 ms, total: 1min 15s
Wall time: 1min 17s
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/42653.html
摘要:表示学习率,是梯度下降法的一个超参数,其取值影响最优解的速度。因此在使用梯度下降法之前,最好进行数据归一化。同时在随机梯度下降法中学习率的取值是逐渐递减的,为了防止固定取值的学习率使得梯度下降到达最优解附近时继续跳出这个范围。 梯度下降法不是一个机器学习算法,而是一种基于搜索的最优化方法,用于最小化一个效用函数。 简单理解梯度下降法 假设存在一个只有一个参数 $ heta$ 的损失函数...
阅读 2920·2021-11-22 15:25
阅读 2221·2021-11-18 10:07
阅读 999·2019-08-29 15:29
阅读 459·2019-08-29 13:25
阅读 1483·2019-08-29 12:58
阅读 3153·2019-08-29 12:55
阅读 2893·2019-08-29 12:28
阅读 475·2019-08-29 12:16