發表文章

目前顯示的是 5月, 2018的文章

機器學習筆記(五) - 高維體積計算、Gamma 函數與 Beta 函數、高斯積分

圖片
高維體積計算 在一個 \(n\) 維空間 \(\mathrm{R}^n\) 中,若欲求 \(k\ (k\le n)\) 個線性獨立向量 \(\{\vec{a_1}, \vec{a_2}, \cdots, \vec{a_k}\}\) 所構成的平行多面體 (注意此說法為在三維下的說法,在二維中其實就是個三角形,而高維中則是比較抽象的概念),令 \(A = \begin{bmatrix} \vec{a_1}& \vec{a_2}& \cdots \vec{a_k}\end{bmatrix}\): \[\text{則此 \(k\) 個向量所構成的體積}\ V = \sqrt{\text{det}(A^TA)}\] 證明如下:                 在計算三角形面積時,最簡單的方法是 (底 x 高);而在計算體積時,一般會使用 (長 x 寬 x 高) 來計算;而推廣至高維的時候,可以理解為 \(k\) 個正交的向量長度相乘,利用 Gram-Schmidt 正交化 (Gram-Schmidt orthogonalization) 的方法可求出一組正交化基底: \begin{array}{ll} \vec{b_1} = \vec{a_1}& &\vec{a_1} = \vec{b_1} \\ \vec{b_2} = \vec{a_2} - \frac{\vec{a_2}\cdot\vec{b_1}}{\vec{b_1}\cdot\vec{b_1}}\vec{b_1}& \Rightarrow& \vec{a_2} = \vec{b_2} + \frac{\vec{a_2}\cdot\vec{b_1}}{\vec{b_1}\cdot\vec{b_1}}\vec{b_1} \\ \qquad\vdots& & \qquad\vdots \\ \vec{b_k} = \vec{a_k} - \sum_{i = 1}^{k-1}\frac{\vec{a_k}\cdot\vec{b_i}}{\vec{b_i}\cdot\vec{b_i}}\vec{b_i}& & \vec{a_k} = \vec{b_k} + \sum_{i = 1}^{k-1}\frac{\vec{a_k}\cdot\ve