LOADING

読み込みが遅い場合はキャッシュを有効にしてください。ブラウザはデフォルトで有効になっています

SVDとPCAの本質

数学基礎

固有値と固有ベクトル

もしベクトルvvが行列AAの固有ベクトルであれば、必ず以下の形式で表すことができます:

Av=λvAv=\lambda v

ここで:

  • λλ は固有ベクトルvvに対応する固有値
  • ある行列の固有ベクトルの組は直交ベクトルの組です

重要な性質

  • 固有ベクトルは行列の変換に対して方向を変えない(スカラー倍されるだけ)
  • 固有値はその方向における変換の「伸縮率」を表す

固有値分解行列

行列AAについて、一連の固有ベクトルvvがあり、このベクトルを正規直交化すると、一連の正規直交単位ベクトルが得られます。固有値分解とは、行列AAを以下の式のように分解することです:

A=QΣQ1A=Q\Sigma Q^{-1}

ここで:

  • QQ は行列AAの固有ベクトルで構成される行列
  • Σ\Sigma は対角行列で、対角線上の要素は固有値

実対称行列の場合

実対称行列(例えば共分散行列)の場合、QQ は直交行列となるため、Q1=QTQ^{-1} = Q^T となり:

A=QΣQTA=Q\Sigma Q^T

PCAとの関係

  • PCAでは、共分散行列の固有値分解を行い、最大の固有値に対応する固有ベクトル(主成分)を選択
  • 固有値の大きさは、その主成分方向のデータの分散の大きさを示す
  • 固有ベクトルは主成分の方向を表す

基底変換

数式表現

Y=PX=[p1p2pr]r×n[x1x2xm]n×m=[p1x1p1x2p1xmp2x1p2x2p2xmprx1prx2prxm]r×mY = PX = \begin{bmatrix} p_1 \\ p_2 \\ \vdots \\ p_r \end{bmatrix}_{r\times n}[ \begin{array} {cccccc}x_1 & x_2 & \cdots & x_m \end{array}]_{n\times m}= \begin{bmatrix} p_1x_1 & p_1x_2 & \cdots & p_1x_m \\ p_2x_1 & p_2x_2 & \cdots & p_2x_m \\ \vdots & \vdots & \ddots & \vdots \\ p_rx_1 & p_rx_2 & \cdots & p_rx_m \end{bmatrix}_{r\times m}

  • 元の基底:$ {[p_1, p_2, …, p_n]}^T $
  • 新しい基底:$ {[x_1, x_2, …, x_m]} $
  • 座標変換:$ P $ が旧座標系でのベクトル、$ x $ が新座標系でのベクトルなら、$ Y = PX $

本質

base change

行列掛け算の本質は基底変換である。

基底変換と座標系の伸長と回転

座標系の伸長

Y=XPY = XP

P=[a00b]P = \begin{bmatrix} a & 0 \\ 0 & b \end{bmatrix}

X=[1234],P=[2000.5]X = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}, \quad P = \begin{bmatrix} 2 & 0 \\ 0 & 0.5 \end{bmatrix}

Y=XP=[1234][2000.5]=[2162]Y = XP = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} 2 & 0 \\ 0 & 0.5 \end{bmatrix} = \begin{bmatrix} 2 & 1 \\ 6 & 2 \end{bmatrix}

この例では、第1特徴量を2倍に伸長し、第2特徴量を0.5倍に縮小しています。

座標系の回転

Y=RXY = RX

R=[cos(θ)sin(θ)sin(θ)cos(θ)]R = \begin{bmatrix} cos(\theta) & -sin(\theta) \\ sin(\theta) & cos(\theta) \end{bmatrix}

分散

分散は数値が平均値からどれだけ散らばっているかを示す指標です。

数式:

Var(X)=1ni=1n(xixˉ)2\text{Var}(X) = \frac{1}{n}\sum_{i=1}^{n}(x_i - \bar{x})^2

ここで:

  • $ x_i $:個々のデータ点
  • $ \bar{x} $:データの平均
  • $ n $:データ点の数

共分散

共分散は2つの変数が一緒にどう変化するかを測る指標で、同時に増加する傾向があるかを示します。

数式

Cov(X,Y)=1ni=1n(xixˉ)(yiyˉ)\text{Cov}(X,Y) = \frac{1}{n}\sum_{i=1}^{n}(x_i - \bar{x})(y_i - \bar{y})

ここで:

  • $ x_i, y_i $:2つの異なる変数のデータ点
  • $ \bar{x}, \bar{y} $:それぞれの変数の平均

解釈:

  • 正の共分散:変数が一緒に増加する傾向
  • 負の共分散:一方が増えると他方は減る
  • ゼロの共分散:線形関係なし

本質:共分散行列は、各変数の共分散を対角要素として持つ矩形行列です、共分散は 00 の場合、二つの変数は完全に関係ない。

共分散行列

共分散行列は多変量データセットの各次元ペア間の共分散を含む正方行列です。

数式

先ず要するに、行列Xn×mX_{n \times m}の共分散行列数式は:

C=1m1XXTC=\frac{1}{m-1} XX^T

手順は以下通り:

  1. サンプル平均

xˉ=1ni=1Nxi\bar{x}=\frac{1}{n}\sum_{i=1}^{N}{x_{i}}

  1. サンプル分散

Var(x)=S2=1n1i=1n(xixˉ)2Var(x)=S^{2}=\frac{1}{n-1}\sum_{i=1}^{n}{\left( x_{i}-\bar{x} \right)^2}

  1. サンプルの共分散

Cov(x,y)=1n1i=1n(xixˉ)(yiyˉ)Cov(x,y)=\frac{1}{n-1}\sum_{i=1}^{n}{\left( x_{i}-\bar{x} \right)\left( y_{i}-\bar{y} \right)}

  1. サンプルの共分散行列

ここで、dim=2dim=2のベクトル[x,y]T{[x,y]}^Tにしては:

C=[Var(x)Cov(x,y)Cov(x,y)Var(y)]C= \begin{bmatrix} Var(x) & Cov(x,y) \\ Cov(x,y) & Var(y) \end{bmatrix}

dim=ndim=nのベクトル[x1,x2,...,xn]T{[x_1,x_2,...,x_n]}^Tにしては:

C=[Var(x1)Cov(x1,x2)Cov(x1,xn)Cov(x2,x1)Var(x2)Cov(x1,xn)Cov(xn,x1)Cov(xn,x2)Var(xn)]C= \begin{bmatrix} Var(x_1) & Cov(x_1,x_2) & \cdots & Cov(x_1,x_n) \\ Cov(x_2,x_1) & Var(x_2) & \cdots & Cov(x_1,x_n) \\ \vdots & \vdots & \ddots & \vdots \\ Cov(x_n,x_1) & Cov(x_n,x_2) & \cdots & Var(x_n) \end{bmatrix}

SVD

SVDの定義

特異値分解は、任意の行列に適用可能な分解方法であり、任意の行列Aに対して常に特異値分解が存在します。

数式表現

A=UΣVTA = U \Sigma V^T

ここで:

  • Am×nm \times n の行列
  • Um×mm \times m の直交行列(左特異ベクトル)
  • Σm×nm \times n の行列(対角線上以外はすべて0、対角線上の要素は特異値)
  • V^Tn×nn \times n の直交行列の転置(右特異ベクトル)

SVD分解の手順

  1. AATAA^T の固有値と固有ベクトルを求める
    • AATAA^T の固有値と固有ベクトルを計算
    • 固有ベクトルを正規化して行列 U を構成
  2. ATAA^TA の固有値と固有ベクトルを求める
    • ATAA^TA の固有値と固有ベクトルを計算
    • 固有ベクトルを正規化して行列 V を構成
  3. 特異値の計算
    • AATAA^T または ATAA^TA の固有値の平方根を計算
    • その値を対角要素として行列 Σ を構成

重要な特徴

  • 特異値は通常、大きい順に並べられます
  • U は左特異ベクトル(AATAA^T の固有ベクトル)
  • V は右特異ベクトル(ATAA^TA の固有ベクトル)
  • Σ の対角要素が特異値であり、行列Aの「重要度」を示します

PCA

PCA(主成分分析)は主成分を抽出するための手法である。主成分はデータの分散を最大にするベクトルである。

共分散行列対角化

ここで、二つの行列Yr×mY_{r \times m}Xn×mX_{n \times m}がある。

そして、

  1. Pr×nP_{r \times n}があり、$$Y_{r \times m}=P_{r \times n}X_{n \times m}$$
  2. CCXXの共分散行列、DDYYの共分散行列である

目的: 元のデータ XX にPCAを適用した後、得られる YY の共分散行列 DD の各方向の分散が最大になり、共分散が 00 になることです。

では、CCDD はどのような関係にあるのでしょうか:

D=1mYYT=1m(PX)(PX)T=1mPXXTPT=1mP(XXT)PT=PCPT=P[1mi=1mx1i21mi=1mx1ix2i1mi=1mx2ix1i1mi=1mx2i2]PTD = \frac{1}{m}YY^T \\ = \frac{1}{m}(PX)(PX)^T \\ = \frac{1}{m}PXX^TP^T \\ = \frac{1}{m}P(XX^T)P^T \\ = PCP^T \\ = P \begin{bmatrix} \frac{1}{m}\sum_{i=1}^{m} x_{1i}^2 & \frac{1}{m}\sum_{i=1}^{m} x_{1i}x_{2i} \\ \frac{1}{m}\sum_{i=1}^{m} x_{2i}x_{1i} & \frac{1}{m}\sum_{i=1}^{m} x_{2i}^2 \end{bmatrix} P^T

ここに計算するところ、求めている PP は、元の共分散行列を対角化する PP であることを発見しました。

言い換えれば、最適化目標は行列 PP を見つけることであり、PCPTP C P^T が対角行列であり、対角要素が大きい順に並んでいることを満たす必要があります。すると、PP の上位 rr 行が求めている基底となり、PP の上位 rr 行で構成される行列に XX を乗じることで、XXnn 次元から rr 次元に削減され、上記の最適化条件を満たします。

ここで最後に、共分散行列の対角化という問題に集中することになります。

上記より、XX の共分散行列 CC は対称行列であることがわかります。線形代数において、実対称行列には非常に良い性質があります:

  1. 実対称行列の異なる固有値に対応する固有ベクトルは必ず直交する。

  2. 固有ベクトル λiλ_i の重複度が kik_i であれば、kik_i 個の線形独立な固有ベクトルが存在し、それらを正規直交化できます。

上記2つの性質より、n×nn \times n の実対称行列には必ず nn 個の単位直交固有ベクトルを見つけることができ、これらを e1,e2,...,ene_1, e_2, ..., e_n とし、列として行列を構成します:

E=[e1,e2,...,en]E = [e_1, e_2, ..., e_n]

xの共分散行列 CC について以下の結論があります:

ETCE=Λ=[λ100...00λ20...000λ3...0000...0000...λn]E^TCE = \Lambda = \begin{bmatrix} \lambda_1 & 0 & 0 & ... & 0 \\ 0 & \lambda_2 & 0 & ... & 0 \\ 0 & 0 & \lambda_3 & ... & 0 \\ 0 & 0 & 0 & ... & 0 \\ 0 & 0 & 0 & ... & \lambda_n \end{bmatrix}

ここで、Λ\Lambda は対角行列であり、対角要素は各固有ベクトルに対応する固有値(重複もあり得る)です。

上記の式より:

D=PCPTD=P C P^T

DD は対角行列であり、以下を得ます:

P=ETP = E^T

は共分散行列の固有ベクトルを単位化して行方向に並べた行列で、各行は CC の固有ベクトルです。もし PPΛ\Lambda 内の固有値の大きい順に、固有ベクトルを上から下に並べると、PP の上位 rr 行で構成される行列に元のデータ行列 XX を乗じることで、求めている次元削減後のデータ行列 YY が得られます。

固有値分解による共分散行列のPCA実装

入力

データセット X={x1,x2,x3,...,xn}X=\left\{ x_{1},x_{2},x_{3},...,x_{n} \right\}、k次元に削減する必要がある。

手順

  1. 平均値の除去(中心化):各特徴量からそれぞれの平均値を引く

  2. 共分散行列の計算1nXXT\frac{1}{n}XX^T(注:標本数nまたはn-1で割るかは、求められる固有ベクトルには影響しない)

  3. 固有値分解:共分散行列 1nXXT\frac{1}{n}XX^T の固有値と固有ベクトルを求める

  4. ソートと選択:固有値を大きい順に並べ替え、最大のk個を選ぶ。対応するk個の固有ベクトルを行ベクトルとして構成される行列Pを得る

  5. 変換:データをk個の固有ベクトルで構築された新しい空間に変換する:Y=PXY=PX

X=(1102020011)X=\left( \begin{matrix} -1 & -1 &0&2&0\\ -2&0&0&1&1 \end{matrix} \right)

この2行のデータを1行に削減するPCAの例:

  1. X行列の各行はすでにゼロ平均であるため、平均値の除去は不要

  2. 共分散行列の計算:

C=15(1102020011)(1210002101)=(65454565)C=\frac{1}{5}\left( \begin{matrix} -1&-1&0&2&0\\ -2&0&0&1&1 \end{matrix} \right) \left( \begin{matrix} -1&-2\\ -1&0\\ 0&0\\ 2&1\\ 0&1 \end{matrix} \right) = \left( \begin{matrix} \frac{6}{5}&\frac{4}{5}\\ \frac{4}{5}&\frac{6}{5} \end{matrix} \right)

  1. 共分散行列の固有値と固有ベクトルの計算:

    • 固有値:λ1=2\lambda_{1}=2λ2=25\lambda_{2}=\frac{2}{5}
    • 固有ベクトル:c1(11)c_{1} \left( \begin{matrix} 1\\ 1 \end{matrix} \right)c2(11)c_{2} \left( \begin{matrix} -1\\ 1 \end{matrix} \right)
    • 標準化された固有ベクトル:(1212)\left( \begin{matrix} \frac{1}{\sqrt{2}}\\ \frac{1}{\sqrt{2}} \end{matrix} \right)(1212)\left( \begin{matrix} -\frac{1}{\sqrt{2}}\\ \frac{1}{\sqrt{2}} \end{matrix} \right)
  2. 行列P:

P=(12121212)P=\left( \begin{matrix} \frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\\ -\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\\ \end{matrix} \right)

  1. 最後にPの1行目でデータ行列Xを乗じて、次元削減された結果を得る:

Y=(1212)(1102020011)=(321203212)Y=\left( \begin{matrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{matrix} \right) \left( \begin{matrix} -1 & -1& 0&2&0\\ -2&0&0&1&1 \end{matrix} \right) = \left( \begin{matrix} -\frac{3}{\sqrt{2}} & - \frac{1}{\sqrt{2}} &0&\frac{3}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{matrix} \right)

注意:固有値分解による共分散行列の方法では、データ行列Xの行(または列)方向の1つのPCA削減方向しか得られない。

SVD分解による共分散行列のPCA実装

入力

データセット X={x1,x2,x3,...,xn}X=\left\{ x_{1},x_{2},x_{3},...,x_{n} \right\}、k次元に削減する必要がある。

手順

  1. 平均値の除去:各特徴量からそれぞれの平均値を引く

  2. 共分散行列の計算

  3. SVDによる固有値と固有ベクトルの計算

  4. ソートと選択:固有値を大きい順に並べ替え、最大のk個を選ぶ。対応するk個の固有ベクトルを列ベクトルとして構成される行列を得る

  5. 変換:データをk個の固有ベクトルで構築された新しい空間に変換する

SVDの利点

PCA削減では、サンプル共分散行列 XXTXX^T の最大k個の固有ベクトルを見つけ、これらで構成される行列で低次元投影を行う必要がある。この過程では、共分散行列 XXTXX^T を求めなければならないが、サンプル数も特徴数も多い場合、計算量は非常に大きい。

SVD分解でPCAを実装する場合の2つの利点:

  1. 計算効率:一部のSVD実装アルゴリズムでは、共分散行列 XXTXX^T を求めずに右特異行列Vを求めることができる。つまり、PCAアルゴリズムは固有値分解ではなくSVDで実現でき、この方法はサンプル数が多い場合に効果的。実際、scikit-learnのPCAアルゴリズムの背後ではSVDが使用されており、固有値分解ではない。

  2. 双方向のPCA削減:PCAではSVDの左特異行列のみを使用し、右特異行列は使用しないが、右特異行列にも用途がある。

m×nm \times n の行列Xがある場合、SVDによって行列 XTXX^TX の最大k個の固有ベクトルで構成される k×nk \times n の行列 VTV^T を見つけたとすると:

Xm×k=Xm×nVn×kTX_{m \times k}^{'}=X_{m \times n}V_{n \times k}^{T}

m×km \times k の行列X’が得られ、元の m×nm \times n 行列Xと比較して列数がnからkに削減されている。つまり、左特異行列は行数の圧縮に使用できる。右特異行列は列(特徴次元)の圧縮に使用できる。このように、SVD分解でPCAを実装することで、2方向のPCA削減(行と列の2方向)を得ることができる。

PCAの本質

なお、PCAの目的を考え、“元のデータ XX にPCAを適用した後、得られる YY の共分散行列 DD の各方向の分散が最大になり、共分散が 00 になることです”ということには、“共分散数が00”つまりYYの各緯度のベクトル{y1,y2,...,yn}\{y_1, y_2,...,y_n\}は関係なく、“共分散行列の各方向の分散最大”つまり区分安くなるということです。

X

PCA前のデータ

Y

PCA後のデータ
  • 任意のデータ投影の第1の分散が第1座標(第1主成分)に来る
  • 第2の分散が第2座標(第2主成分)に来る
  • Y=PXY = PXの本質は座標系の変換

コード

code

avatar
lijunjie2232
個人技術ブログ
My Github
目次0