| 書名: | AI時代Math元年:用Python全精通矩陣及線性代數(二版) (2版) | |||
| 作者: | 姜偉生 | |||
| 版次: | 2 | |||
| ISBN: | 9786267757086 | |||
| 出版社: | 深智數位 | |||
| 出版日期: | 2025/07 | |||
| 頁數: | 832 | |||
|
#資訊
#AI人工智慧與機器學習 |
||||
【簡介】 ☆★暢銷再上市★☆ ►有資料就有矩陣,有矩陣就有向量,有向量就有幾何,有幾何就有空間 ►從資料一路提升到張量的所有數學基礎 ►將數學視為思想、工具、語言、體系、基石、藝術的角度進行學習 ►分為向量、矩陣、向量空間、矩陣分解、微積分、空間幾何、資料 ►所有機器學習、深度學習最重要的基礎數學概念 ►不再亂猜,寫機器學習程式碼時,每行指令背後代表的數學基礎 ►學矩陣就是學AI,從此看到AI程式碼完全無負擔 AI熱潮來臨,每個人都很怕直接被機器取代,不管文科理科背景的人,每個人都想搭上AI快車飛速到達未來。然而你的第一關就是數學。數學是宇宙的共同語言,也是人類意志極緻的展現。數學從數字開始進入高維之後,向量、矩陣、張量將整個人類文明帶入新的境界,也將我們的世界從點線面體推向無法視覺化的高維空間,而針對空間的運算,更是所有科學的重要基礎。空間幾何這門完全和生活知識抽離的學科,看似是和向量打交道而已,但卻是整個世界運行的基礎,近年AI興起,機器學習及深度學習成為熱門行業,當你想要學習TensorFlow時,面對的第一個觀念就是張量(Tensor)。這些名詞讓你感到陌生又不是完全不認識時,就是重拾矩陣的時候了。本書利用最小的成本,幫你把這個又陌生又熟悉的老朋友重新交往。作者從最簡單的加法開始說明,一直到機器學習中的梯度、偏導數、積分、矩陣、線性代數,從小學到研究所所學的數學,一一在適當的章節出現,當你讀到某個章節時,會發現「啊!原來如此,這就是奇異值分解在機器學習的原理啊!」,有一種豁然開朗的感覺,相信這種驚喜在全書中會不斷出現。ChatGPT出來之後,AI已經光速啟動,有志加入這個行業,也只能快速跟上,而這本書,正是你進入的最佳助手,與其繼續逃避直到被淘汰,不如就花一點時間,把這本本來就不難的書看完,補上你個人AI志業的最重要一塊拼圖。 全書分為以下幾個部分:向量:從資料、矩陣、向量、幾何、空間開始談起,包括向量運算,範數等基本定理。接下來談到矩陣,把矩陣所有的性質(四則運算、表格、秩等)說明清楚,更有重要的內外積等。第三部分談的是向量,包括座標系、各種變換、維度、行列視,投影、正交、基等性質。第四部分談的是矩陣分解,實作了包括LU、Cholesky、QR,特徵/奇異值分解。第五部分就是談到空間的微積分,如多元函式、偏導、梯度、方向微分、泰勒展開等。也說明了拉格朗日乘子等。第六部分說明了空間幾何,包括直線、超平面、圓錐曲線等。也說明了曲面和正定性等問題。最後一部分則整理了前面所有觀念,發展至資料統計、SVD分解、機器學習、線性迴歸及PCA原理。搭配本書系其它書籍,相信AI的數學,對你來說只會是開心而不是阻礙。 【目錄】 第1章 不止向量 1.1有資料的地方,必有矩陣 1.2有矩陣的地方,更有向量 1.3有向量的地方,就有幾何 1.4有幾何的地方,皆有空間 1.5有資料的地方,定有統計 第2章 向量運算 2.1向量:多面手 2.2行向量、列向量 2.3向量長度:模,歐氏距離,L2範數 2.4加減法:對應位置元素分別相加減 2.5純量乘法:向量縮放 2.6向量內積:結果為純量 2.7向量夾角:反餘弦 2.8餘弦相似度和餘弦距離 2.9向量積:結果為向量 2.10逐項積:對應元素分別相乘 2.11張量積:張起網格面 第3章 向量範數 3.1Lp範數:L2範數的推廣 3.2Lp範數和超橢圓的聯繫 3.3L1範數:旋轉正方形 3.4L2範數:正圓 3.5L∞範數:正方形 3.6再談距離度量 第4章 矩陣 4.1矩陣:一個不平凡的表格 4.2矩陣形狀:每種形狀都有特殊用途 4.3基本運算:加減和純量乘法 4.4廣播原則 4.5矩陣乘法:線性代數的運算核心 4.6兩個角度解剖矩陣乘法 4.7轉置:繞主對角線鏡像 4.8矩陣逆:「相當於 」除法運算 4.9跡:主對角元素之和 4.10逐項積:對應元素相乘 4.11行列式:將矩陣映射到純量值 第5章 矩陣乘法 5.1矩陣乘法:形態豐富多樣 5.2向量和向量 5.3再聊全1列向量 5.4矩陣乘向量:線性方程式組 5.5向量乘矩陣乘向量:二次型 5.6方陣次方陣:矩陣分解 5.7對角陣:批次縮放 5.8置換矩陣:調換元素順序 5.9矩陣乘向量:映射到一維 5.10矩陣乘矩陣:映射到多維 5.11長方陣:奇異值分解、格拉姆矩陣、張量積 5.12愛因斯坦求和約定 5.13矩陣乘法的幾個雷區 第6章 分塊矩陣 6.1分塊矩陣:橫平垂直切豆腐 6.2矩陣乘法第一角度:純量積展開 6.3矩陣乘法第二角度:外積展開 6.4矩陣乘法更多角度:分塊多樣化 6.5分塊矩陣的逆 6.6克羅內克積:矩陣張量積 第7章 向量空間 7.1向量空間:從直角座標系說起 7.2給向量空間塗顏色:RGB色卡 7.3張成空間:線性組合紅、綠、藍三原色 7.4線性無關:紅色和綠色,調不出青色 7.5非正交基底:青色、品紅、黃色 7.6基底轉換:從紅、綠、藍,到青色、品紅、黃色 第8章 幾何變換 8.1線性變換:線性空間到自身的線性映射 8.2平移:仿射變換,原點變動 8.3縮放:對角陣 8.4旋轉:行列式值為1 8.5鏡像:行列式值為負 8.6投影:降維操作 8.7再談行列式值:幾何角度 第9章 正交投影 9.1純量投影:結果為純量 9.2向量投影:結果為向量 9.3正交矩陣:一個規範正交基底 9.4規範正交基底性質 9.5再談鏡像:從投影角度 9.6格拉姆-施密特正交化 9.7投影角度看回歸 第10章 資料投影 10.1從一個矩陣乘法運算說起 10.2二次投影 + 層層疊加 10.3二特徵資料投影:標準正交基底 10.4二特徵資料投影:規範正交基底 10.5四特徵資料投影:標準正交基底 10.6四特徵資料投影:規範正交基底 10.7資料正交化 第11章 矩陣分解 11.1矩陣分解:類似因式分解 11.2LU分解:上下三角 11.3Cholesky分解:適用於正定矩陣 11.4QR分解:正交化 11.5特徵值分解:刻畫矩陣映射的特徵 11.6奇異值分解:適用於任何實數矩陣 第12章 Cholesky分解 12.1Cholesky分解 12.2正定矩陣才可以進行Cholesky分解 12.3幾何角度:開合 12.4幾何變換:縮放 → 開合 12.5推廣到三維空間 12.6從格拉姆矩陣到相似度矩陣 第13章 特徵值分解 13.1幾何角度看特徵值分解 13.2旋轉 → 縮放 → 旋轉 13.3再談行列式值和線性變換 13.4對角化、譜分解 13.5聊聊特徵值 13.6特徵值分解中的複數現象 第14章 深入特徵值分解 14.1方陣開方 14.2矩陣指數:冪級數的推廣 14.3費氏數列:求通項式 14.4馬可夫過程的平穩狀態 14.5瑞利商 14.6再談橢圓:特徵值分解 第15章 奇異值分解 15.1幾何角度:旋轉 → 縮放 → 旋轉 15.2不同類型SVD分解 15.3左奇異向量矩陣U 15.4右奇異向量矩陣V 15.5兩個角度:投影和資料疊加 第16章 深入奇異值分解 16.1完全型:U為方陣 16.2經濟型:S去掉零矩陣,變方陣 16.3緊湊型:非滿秩 16.4截斷型:近似 16.5資料還原:層層疊加 16.6估計與誤差:截斷型SVD 16.7正交投影:資料正交化 第17章 多元函式微分 17.1偏導:特定方向的變化率 17.2梯度向量:上山方向 17.3法向量:垂直於切平面 17.4方向性微分:函式任意方向的變化率 17.5泰勒展開:一元到多元 第18章 拉格朗日乘子法 18.1回顧最佳化問題 18.2等式約束條件 18.3線性等式約束 18.4非線性等式約束 18.5不等式約束 18.6再談特徵值分解:最佳化角度 18.7再談SVD:最佳化角度 18.8矩陣範數:矩陣 → 純量,矩陣「大小 」 18.9再談資料正交投影:最佳化角度 第19章 直線到超平面 19.1切向量:可以用來定義直線 19.2法向量:定義直線、平面、超平面 19.3超平面:一維直線和二維平面的推廣 19.4平面與梯度向量 19.5中垂線:用向量求解析式 19.6用向量計算距離 第20章 再談圓錐曲線 20.1無處不在的圓錐曲線 20.2正圓:從單位圓到任意正圓 20.3單位圓到旋轉橢圓:縮放 → 旋轉 → 平移 20.4多元高斯分佈:矩陣分解、幾何變換、距離 20.5從單位雙曲線到旋轉雙曲線 20.6切線:建構函式,求梯度向量 20.7法線:法向量垂直於切向量 第21章 曲面和正定性 21.1正定性 21.2幾何角度看正定性 21.3開口朝上抛物面:正定 21.4山谷面:半正定 21.5開口朝下抛物面:負定 21.6山脊面:半負定 21.7雙曲抛物面:不定 21.8多極值曲面:局部正定性 第22章 資料與統計 22.1統計 + 線性代數:以鳶尾花資料為例 22.2平均值:線性代數角度 22.3質心:平均值排列成向量 22.4中心化:平移 22.5分類資料:加標籤 22.6方差:平均值向量沒有解釋的部分 22.7協方差和相關性係數 22.8協方差矩陣和相關性係數矩陣 第23章 資料空間 23.1從資料矩陣X說起 23.2向量空間:從SVD分解角度理解 23.3緊湊型SVD分解:剔除零空間 23.4幾何角度說空間 23.5格拉姆矩陣:向量模、夾角餘弦值的集合體 23.6標準差向量:以資料質心為起點 23.7白話說空間:以鳶尾花資料為例 第24章 資料分解 24.1為什麼要分解矩陣? 24.2QR分解:獲得正交系 24.3Cholesky分解:找到列向量的座標 24.4特徵值分解:獲得行空間和零空間 24.5SVD分解:獲得四個空間 第25章 資料應用 25.1從線性代數到機器學習 25.2從隨機變數的線性變換說起 25.3單方向映射 25.4線性回歸 25.5多方向映射 25.6主成分分析
還沒有人留下心得,快來搶頭香!
為您推薦
相關熱銷的書籍推薦給您
書名:人工智慧:智慧型系統導論(第三版) 作者:李聯旺 出版社:全華 ISBN:9789862800959
相關熱銷的書籍推薦給您
書名:機器學習:類神經網路、模糊系統以及基因演算法則(第四版) 作者:蘇木春、張孝德 出版社:全華 出版日期:2016/05/00 ISBN:9789864632060 內容簡介 ■ 本書優點特色 1.將三種與機械學習相關的技術-類神經網路、模糊系統及基因演繹法作一通盤介紹。 2.以深入淺出的方式建立類神經網路與生物神經網路的關聯性,以便讓讀者更能發揮想像力。 3.每一種理論都儘可能配合書中範例及圖表加以說明。 ■ 內容簡介 本書將三種與機械學習相關的技術-類神經網路、模糊系統及基因演繹法作一通盤介紹。此外,作者以深入淺出的方式建立類神經網路與生物神經網路的關聯性,以便讓讀者更能發揮想像力。 目錄 第1章 類神經網路之簡介 第2章 感知機 第3章 多層感知機 第4章 非監督式類神經網路 第5章 聯想記憶 第6章 增強式學習 第7章 模糊集合 第8章 模糊關係及推論 第9章 模糊系統 第10章 基因演算法則
類似書籍推薦給您
【簡介】 有資料就有矩陣,有矩陣就有向量,有向量就有幾何,有幾何就有空間 從資料一路提升到張量的所有數學基礎 將數學視為思想、工具、語言、體系、基石、藝術的角度進行學習 分為向量、矩陣、向量空間、矩陣分解、微積分、空間幾何、資料 所有機器學習、深度學習最重要的基礎數學概念 不再亂猜,寫機器學習程式碼時,每行指令背後代表的數學基礎 學矩陣就是學AI,從此看到AI程式碼完全無負擔 AI熱潮來臨,每個人都很怕直接被機器取代,不管文科理科背景的人,每個人都想搭上AI快車飛速到達未來。然而你的第一關就是數學。數學是宇宙的共同語言,也是人類意志極緻的展現。數學從數字開始進入高維之後,向量、矩陣、張量將整個人類文明帶入新的境界,也將我們的世界從點線面體推向無法視覺化的高維空間,而針對空間的運算,更是所有科學的重要基礎。空間幾何這門完全和生活知識抽離的學科,看似是和向量打交道而已,但卻是整個世界運行的基礎,近年AI興起,機器學習及深度學習成為熱門行業,當你想要學習TensorFlow時,面對的第一個觀念就是張量(Tensor)。這些名詞讓你感到陌生又不是完全不認識時,就是重拾矩陣的時候了。本書利用最小的成本,幫你把這個又陌生又熟悉的老朋友重新交往。作者從最簡單的加法開始說明,一直到機器學習中的梯度、偏導數、積分、矩陣、線性代數,從小學到研究所所學的數學,一一在適當的章節出現,當你讀到某個章節時,會發現「啊!原來如此,這就是奇異值分解在機器學習的原理啊!」,有一種豁然開朗的感覺,相信這種驚喜在全書中會不斷出現。ChatGPT出來之後,AI已經光速啟動,有志加入這個行業,也只能快速跟上,而這本書,正是你進入的最佳助手,與其繼續逃避直到被淘汰,不如就花一點時間,把這本本來就不難的書看完,補上你個人AI志業的最重要一塊拼圖。 全書分為以下幾個部分:向量:從資料、矩陣、向量、幾何、空間開始談起,包括向量運算,範數等基本定理。接下來談到矩陣,把矩陣所有的性質(四則運算、表格、秩等)說明清楚,更有重要的內外積等。第三部分談的是向量,包括座標系、各種變換、維度、行列視,投影、正交、基等性質。第四部分談的是矩陣分解,實作了包括LU、Cholesky、QR,特徵/奇異值分解。第五部分就是談到空間的微積分,如多元函式、偏導、梯度、方向微分、泰勒展開等。也說明了拉格朗日乘子等。第六部分說明了空間幾何,包括直線、超平面、圓錐曲線等。也說明了曲面和正定性等問題。最後一部分則整理了前面所有觀念,發展至資料統計、SVD分解、機器學習、線性迴歸及PCA原理。搭配本書系其它書籍,相信AI的數學,對你來說只會是開心而不是阻礙。 【目錄】 第 1章 不止向量 1.1 有資料的地方,必有矩陣 1.2 有矩陣的地方,更有向量 1.3 有向量的地方,就有幾何 1.4 有幾何的地方,皆有空間 1.5 有資料的地方,定有統計 第 2章 向量運算 2.1 向量:多面手 2.2 行向量、列向量 2.3 向量長度:模,歐氏距離,L2範數 2.4 加減法:對應位置元素分別相加減 2.5 純量乘法:向量縮放 2.6 向量內積:結果為純量 2.7 向量夾角:反餘弦 2.8 餘弦相似度和餘弦距離 2.9 向量積:結果為向量 2.10 逐項積:對應元素分別相乘 2.11 張量積:張起網格面 第 3章 向量範數 3.1 Lp範數:L2範數的推廣 3.2 Lp範數和超橢圓的聯繫 3.3 L1範數:旋轉正方形 3.4 L2範數:正圓 3.5 L∞範數:正方形 3.6 再談距離度量 第4章 矩陣 4.1 矩陣:一個不平凡的表格 4.2 矩陣形狀:每種形狀都有特殊用途 4.3 基本運算:加減和純量乘法 4.4 廣播原則 4.5 矩陣乘法:線性代數的運算核心 4.6 兩個角度解剖矩陣乘法 4.7 轉置:繞主對角線鏡像 4.8 矩陣逆:「相當於 」除法運算 4.9 跡:主對角元素之和 4.10 逐項積:對應元素相乘 4.11 行列式:將矩陣映射到純量值 第5章 矩陣乘法 5.1 矩陣乘法:形態豐富多樣 5.2 向量和向量 5.3 再聊全1列向量 5.4 矩陣乘向量:線性方程式組 5.5 向量乘矩陣乘向量:二次型 5.6 方陣次方陣:矩陣分解 5.7 對角陣:批次縮放 5.8 置換矩陣:調換元素順序 5.9 矩陣乘向量:映射到一維 5.10 矩陣乘矩陣:映射到多維 5.11 長方陣:奇異值分解、格拉姆矩陣、張量積 5.12 愛因斯坦求和約定 5.13 矩陣乘法的幾個雷區 第6章 分塊矩陣 6.1 分塊矩陣:橫平垂直切豆腐 6.2 矩陣乘法第一角度:純量積展開 6.3 矩陣乘法第二角度:外積展開 6.4 矩陣乘法更多角度:分塊多樣化 6.5 分塊矩陣的逆 6.6 克羅內克積:矩陣張量積 第 7章 向量空間 7.1 向量空間:從直角座標系說起 7.2 給向量空間塗顏色:RGB色卡 7.3 張成空間:線性組合紅、綠、藍三原色 7.4 線性無關:紅色和綠色,調不出青色 7.5 非正交基底:青色、品紅、黃色 7.6 基底轉換:從紅、綠、藍,到青色、品紅、黃色 第8章 幾何變換 8.1 線性變換:線性空間到自身的線性映射 8.2 平移:仿射變換,原點變動 8.3 縮放:對角陣 8.4 旋轉:行列式值為1 8.5 鏡像:行列式值為負 8.6 投影:降維操作 8.7 再談行列式值:幾何角度 第 9章 正交投影 9.1 純量投影:結果為純量 9.2 向量投影:結果為向量 9.3 正交矩陣:一個規範正交基底 9.4 規範正交基底性質 9.5 再談鏡像:從投影角度 9.6 格拉姆-施密特正交化 9.7 投影角度看回歸 第 10 章 資料投影 10.1 從一個矩陣乘法運算說起 10.2 二次投影 + 層層疊加 10.3 二特徵資料投影:標準正交基底 10.4 二特徵資料投影:規範正交基底 10.5 四特徵資料投影:標準正交基底 10.6 四特徵資料投影:規範正交基底 10.7 資料正交化 第 11章 矩陣分解 11.1 矩陣分解:類似因式分解 11.2 LU分解:上下三角 11.3 Cholesky分解:適用於正定矩陣 11.4 QR分解:正交化 11.5 特徵值分解:刻畫矩陣映射的特徵 11.6 奇異值分解:適用於任何實數矩陣 第 12章 Cholesky分解 12.1 Cholesky分解 12.2 正定矩陣才可以進行Cholesky分解 12.3 幾何角度:開合 12.4 幾何變換:縮放 → 開合 12.5 推廣到三維空間 12.6 從格拉姆矩陣到相似度矩陣 第 13章 特徵值分解 13.1 幾何角度看特徵值分解 13.2 旋轉 → 縮放 → 旋轉 13.3 再談行列式值和線性變換 13.4 對角化、譜分解 13.5 聊聊特徵值 13.6 特徵值分解中的複數現象 第 14章 深入特徵值分解 14.1 方陣開方 14.2 矩陣指數:冪級數的推廣 14.3 費氏數列:求通項式 14.4 馬可夫過程的平穩狀態 14.5 瑞利商 14.6 再談橢圓:特徵值分解 第 15章 奇異值分解 15.1 幾何角度:旋轉 → 縮放 → 旋轉 15.2 不同類型SVD分解 15.3 左奇異向量矩陣U 15.4 右奇異向量矩陣V 15.5 兩個角度:投影和資料疊加 第 16章 深入奇異值分解 16.1 完全型:U為方陣 16.2 經濟型:S去掉零矩陣,變方陣 16.3 緊湊型:非滿秩 16.4 截斷型:近似 16.5 資料還原:層層疊加 16.6 估計與誤差:截斷型SVD 16.7 正交投影:資料正交化 第 17章 多元函式微分 17.1 偏導:特定方向的變化率 17.2 梯度向量:上山方向 17.3 法向量:垂直於切平面 17.4 方向性微分:函式任意方向的變化率 17.5 泰勒展開:一元到多元 第 18章 拉格朗日乘子法 18.1 回顧最佳化問題 18.2 等式約束條件 18.3 線性等式約束 18.4 非線性等式約束 18.5 不等式約束 18.6 再談特徵值分解:最佳化角度 18.7 再談SVD:最佳化角度 18.8 矩陣範數:矩陣 → 純量,矩陣「大小 」 18.9 再談資料正交投影:最佳化角度 第 19章 直線到超平面 19.1 切向量:可以用來定義直線 19.2 法向量:定義直線、平面、超平面 19.3 超平面:一維直線和二維平面的推廣 19.4 平面與梯度向量 19.5 中垂線:用向量求解析式 19.6 用向量計算距離 第 20 章 再談圓錐曲線 20.1 無處不在的圓錐曲線 20.2 正圓:從單位圓到任意正圓 20.3 單位圓到旋轉橢圓:縮放 → 旋轉 → 平移 20.4 多元高斯分佈:矩陣分解、幾何變換、距離 20.5 從單位雙曲線到旋轉雙曲線 20.6 切線:建構函式,求梯度向量 20.7 法線:法向量垂直於切向量 第 21章 曲面和正定性 21.1 正定性 21.2 幾何角度看正定性 21.3 開口朝上抛物面:正定 21.4 山谷面:半正定 21.5 開口朝下抛物面:負定 21.6 山脊面:半負定 21.7 雙曲抛物面:不定 21.8 多極值曲面:局部正定性 第 22章 資料與統計 22.1 統計 + 線性代數:以鳶尾花資料為例 22.2 平均值:線性代數角度 22.3 質心:平均值排列成向量 22.4 中心化:平移 22.5 分類資料:加標籤 22.6 方差:平均值向量沒有解釋的部分 22.7 協方差和相關性係數 22.8 協方差矩陣和相關性係數矩陣 第 23章 資料空間 23.1 從資料矩陣X說起 23.2 向量空間:從SVD分解角度理解 23.3 緊湊型SVD分解:剔除零空間 23.4 幾何角度說空間 23.5 格拉姆矩陣:向量模、夾角餘弦值的集合體 23.6 標準差向量:以資料質心為起點 23.7 白話說空間:以鳶尾花資料為例 第 24章 資料分解 24.1 為什麼要分解矩陣? 24.2 QR分解:獲得正交系 24.3 Cholesky分解:找到列向量的座標 24.4 特徵值分解:獲得行空間和零空間 24.5 SVD分解:獲得四個空間 第 25章 資料應用 25.1 從線性代數到機器學習 25.2 從隨機變數的線性變換說起 25.3 單方向映射 25.4 線性回歸 25.5 多方向映射 25.6 主成分分析
類似書籍推薦給您
【簡介】 AI時代Math元年 - 用Python全精通機器學習 ✴︎ 迴歸分析:深度挖掘資料中變數間的關聯性與規律 ✴︎ 線性迴歸:透過直線模型解讀簡單資料的趨勢與變化 ✴︎ 多元線性迴歸:建構高維資料模型,分析多重影響因素 ✴︎ 非線性迴歸:處理複雜資料模式,探索非線性關係的應用 ✴︎ 正規化迴歸:透過嶺回歸與套索迴歸有效抑制模型過擬合 ✴︎ 貝氏迴歸:結合先驗知識與數據,實現貝氏統計推斷 ✴︎ 高斯過程:深入了解從理論到應用的高斯模型方法 ✴︎ k最近鄰分類:運用鄰近資料進行分類與迴歸的經典算法 ✴︎ 決策樹:以層次結構實現資料分類與回歸的靈活應用 ✴︎ 支援向量機:應對高維資料,實現精確分類與回歸分析 ✴︎ 主成分分析:透過降維技術提取資料中的核心特徵與模式 ✴︎ K平均值聚類:快速分群分析,尋找資料內部結構與規律 ✴︎ 高斯混合模型:運用軟聚類技術實現精細的資料分群 ✴︎ 最大期望演算法:優化模型參數,提升聚類與估計效能 【目錄】 第 1 篇 整體說明 第 1 章 機器學習 1.1 什麼是機器學習? 1.2 迴歸:找到引數與因變數關係 1.3 分類:針對有標籤資料 1.4 降維:降低資料維度,提取主要特徵 1.5 聚類:針對無標籤資料 1.6 機器學習流程 1.7 下一步學什麼? 第 2 篇 迴歸 第 2 章 迴歸分析 2.1 線性迴歸:一個表格、一條直線 2.2 方差分析(ANOVA) 2.3 總離差平方和(SST) 2.4 迴歸平方和(SSR) 2.5 殘差平方和(SSE) 2.6 幾何角度:畢氏定理 2.7 擬合優度:評價擬合程度 2.8 F 檢驗:模型參數不全為0 2.9 t 檢驗:某個迴歸係數是否為0 2.10 置信區間:因變數平均值的區間 2.11 預測區間:因變數特定值的區間 2.12 對數似然函數:用在最大似然估計(MLE) 2.13 資訊準則:選擇模型的標準 2.14 殘差分析:假設殘差服從平均值為0 的正態分佈 2.15 自相關檢測:Durbin-Watson 2.16 條件數:多重共線性 第 3 章 多元線性迴歸 3.1 多元線性迴歸 3.2 最佳化問題:OLS 3.3 幾何解釋:投影 3.4 二元線性迴歸實例 3.5 多元線性迴歸實例 3.6 正交關係 3.7 三個平方和 3.8 t 檢驗 3.9 多重共線性 3.10 條件機率角度看多元線性迴歸 第 4 章 非線性迴歸 4.1 線性迴歸 4.2 線性對數模型 4.3 非線性迴歸 4.4 多項式迴歸 4.5 邏輯迴歸 4.6 邏輯函數完成分類問題 第 5 章 正規化迴歸 5.1 正規化:抑制過擬合 5.2 嶺迴歸 5.3 幾何角度看嶺迴歸 5.4 套索迴歸 5.5 幾何角度看套索迴歸 5.6 彈性網路迴歸 第 6 章 貝氏迴歸 6.1 回顧貝氏推斷 6.2 貝氏迴歸:無資訊先驗 6.3 使用PyMC 完成貝氏迴歸 6.4 貝氏角度理解嶺正規化 6.5 貝氏角度理解套索正規化 第 7 章 高斯過程 7.1 高斯過程原理 7.2 解決迴歸問題 7.3 解決分類問題 第 3 篇 分類 第 8 章 k 最近鄰分類 8.1 k 最近鄰分類原理:近朱者赤,近墨者黑 8.2 二分類:非紅,即藍 8.3 三分類:非紅,不是藍,就是灰 8.4 近鄰數量k 影響投票結果 8.5 投票權重:越近,影響力越高 8.6 最近質心分類:分類邊界為中垂線 8.7 k-NN 迴歸:非參數迴歸 第 9 章 單純貝氏分類 9.1 重逢貝氏 9.2 單純貝氏的「單純」之處 9.3 高斯,你好 第 10 章 高斯判別分析 10.1 又見高斯 10.2 六類協方差矩陣 10.3 決策邊界解析解 10.4 第一類 10.5 第二類 10.6 第三類 10.7 第四類 10.8 第五類 10.9 第六類 10.10 線性和二次判別分析 第 11 章 支援向量機 11.1 支援向量機 11.2 硬間隔:處理線性可分 11.3 構造最佳化問題 11.4 支援向量機處理二分類問題 11.5 軟間隔:處理線性不可分 第 12 章 核心技巧 12.1 映射函數:實現升維 12.2 核心技巧SVM 最佳化問題 12.3 線性核心:最基本的核心函數 12.4 多項式核心 12.5 二次核心:二次曲面 12.6 三次核心:三次曲面 12.7 高斯核心:基於徑向基函數 12.8 Sigmoid 核心 第 13 章 決策樹 13.1 決策樹:可以分類,也可以迴歸 13.2 資訊熵:不確定性度量 13.3 資訊增益:透過劃分,提高確定度 13.4 基尼指數:指數越大,不確定性越高 13.5 最大葉節點:影響決策邊界 13.6 最大深度:控制樹形大小 第 4 篇 降維 第 14 章 主成分分析 14.1 主成分分析 14.2 原始資料 14.3 特徵值分解 14.4 正交空間 14.5 投影結果 14.6 還原 14.7 雙標圖 14.8 陡坡圖 第 15 章 截斷奇異值分解 15.1 幾何角度看奇異值分解 15.2 四種SVD 分解 15.3 幾何角度看截斷型SVD 15.4 最佳化角度看截斷型SVD 15.5 分析鳶尾花照片 第 16 章 主成分分析進階 16.1 從「六條技術路線」說起 16.2 協方差矩陣:中心化資料 16.3 格拉姆矩陣:原始資料 16.4 相關性係數矩陣:標準化資料 第 17 章 主成分分析與迴歸 17.1 正交迴歸 17.2 一元正交迴歸 17.3 幾何角度看正交迴歸 17.4 二元正交迴歸 17.5 多元正交迴歸 17.6 主元迴歸 17.7 偏最小平方迴歸 第 18 章 核心主成分分析 18.1 核心主成分分析 18.2 從主成分分析說起 18.3 用核心技巧完成核心主成分分析 第 19 章 典型相關分析 19.1 典型相關分析原理 19.2 從一個協方差矩陣考慮 19.3 以鳶尾花資料為例 第 5 篇 聚類 第 20 章 K 平均值聚類 20.1 K 平均值聚類 20.2 最佳化問題 20.3 迭代過程 20.4 肘部法則:選定聚類叢集值 20.5 輪廓圖:選定聚類叢集值 20.6 沃羅諾伊圖 第 21 章 高斯混合模型 21.1 高斯混合模型 21.2 四類協方差矩陣 21.3 分量數量 21.4 硬聚類和軟聚類 第 22 章 最大期望演算法 22.1 最大期望 22.2 E 步:最大化期望 22.3 M 步:最大化似然機率 22.4 迭代過程 22.5 多元GMM 迭代 第 23 章 層次聚類 23.1 層次聚類 23.2 樹狀圖 23.3 叢集間距離 23.4 親近度層次聚類 第 24 章 密度聚類 24.1 DBSCAN 聚類 24.2 調節參數 第 25 章 譜聚類 25.1 譜聚類 25.2 距離矩陣 25.3 相似度 25.4 無向圖 25.5 拉普拉斯矩陣 25.6 特徵值分解
類似書籍推薦給您
【簡介】 ✦✧✦ 圖解思維 + 零基礎 ✦✧✦ ►►►打破數學間不同單元的壁壘,融會完整的知識體系!◄◄◄ 全書分為以下幾個部分: 基礎:從加減乘除四則運算開始,並在第1和2章深入介紹向量和矩陣的基本運算,以及在不同章節穿插線性代數基礎知識。 座標系:第5和6章介紹笛卡爾座標系,將幾何和代數相結合,強調代數式的視覺化和幾何體的參數化。 解析幾何:第7、8、9章介紹解析幾何內容,重點在於距離度量和橢圓。強調使用等距線和其他視覺化工具,以及橢圓在多個領域的應用。 函式:第10至14章圍繞函式展開。強調在學習函式時繪製函式線圖、使用視覺化工具觀察二元函式,以及不同函式的特性與應用。第14章解釋數列,強調累加、極限等是微積分的基礎。 微積分:第15至19章介紹微積分和最佳化問題。導數、偏導數、微分和積分提供了研究函式性質的量化工具。強調使用幾何圖解理解這些概念,以及微積分在最佳化問題中的應用。 機率統計:第20、21章為機率統計入門。強調代數部分與機率統計的關聯,介紹了二項樹和隨機過程,以及通過影像展示機率統計定義。 線性代數:最後四章介紹線性代數。第22章視覺化向量和向量運算。第23、24、25章以「雞兔同籠三部曲」為核心,通過虛構故事展示了線性方程組、向量空間、投影、最小二乘線性回歸、馬可夫過程和特徵值分解等內容。 本書特色 ✪ 將一生中從小學到研究所的數學總整理! ✪ 機器學習基礎全部完整打好 ✪ 將數學視為思想、工具、語言、體系、基石、藝術的角度進行學習 ✪ 分為基礎、座標系、解析幾何、函式、微積分、機率統計、線性代數七大部分 ✪ 不再應付考試,重新愛上數學 ✪ 不再亂猜,寫機器學習程式碼時,每一行指令背後代表的數學基礎都清清楚楚 ✪ 學數學本身,也學數學歷史,介紹史上幾個最偉大的數學家 ※ 本書資源可至深智官網下載:deepwisdom.com.tw 【目錄】 第 1 篇 基礎 1 萬物皆數 1.1 數字和運算:人類思想的偉大飛躍 1.2 數字分類:從複數到自然數 1.3 加減:最基本的數學運算 1.4 向量:數字排成行、列 1.5 矩陣:數字排列成長方形 1.6 矩陣: 一組列向量,或一組行向量 1.7 矩陣形狀:每種形狀都有特殊性質和用途 1.8 矩陣加減:形狀相同,對應位置,批次加減 2 乘除 2.1 算術乘除:先乘除,後加減,括號內先算 2.2 向量乘法:純量乘法、向量內積、逐項積 2.3 矩陣乘法:最重要的線性代數運算規則 2.4 矩陣乘法第一角度 2.5 矩陣乘法第二角度 2.6 矩陣除法:計算反矩陣 3 幾何 3.1 幾何緣起:根植大地,求索星空 3.2 點動成線,線動成面,面動成體 3.3 角度和弧度 3.4 畢氏定理到三角函式 3.5 圓周率估算初賽:割圓術 4 代數 4.1 代數的前世今生:薪火相傳 4.2 集合:確定的一堆東西 4.3 從代數式到函式 4.4 巴斯卡三角:代數和幾何的完美合體 4.5 排列組合讓二項式係數更具意義 4.6 巴斯卡三角隱藏的數字規律 4.7 方程式組:求解雞兔同籠問題 第 2 篇 座標系 5 笛卡兒座標系 5.1 笛卡兒:我思故我在 5.2 座標系:代數視覺化,幾何參數化 5.3 圖解「雞兔同籠」問題 5.4 極座標:距離和夾角 5.5 參數方程式:引入一個參數 5.6 座標系必須是「橫平垂直的方格」? 6 三維座標系 6.1 三維直角座標系 6.2 空間平面:三元一次方程 6.3 空間直線:三元一次方程組 6.4 不等式:劃定區域 6.5 三大類不等式:約束條件 6.6 三維極座標 第 3 篇 解析幾何 7 距離 7.1 距離:未必是兩點間最短線段 7.2 歐氏距離:兩點間最短線段 7.3 點到直線的距離 7.4 等距線:換個角度看距離 7.5 距離間的量化關係 8 圓錐曲線 8.1 圓錐曲線外傳 8.2 圓錐曲線:對頂圓錐和截面相交 8.3 正圓:特殊的橢圓 8.4 橢圓:機器學習的多面手 8.5 旋轉橢圓:幾何變換的結果 8.6 拋物線:不止是函式 8.7 雙曲線:引力彈弓的軌跡 9 深入圓錐曲線 9.1 圓錐曲線:探索星辰大海 9.2 離心率:聯繫不同類型圓錐曲線 9.3 一組有趣的圓錐曲線 9.4 特殊橢圓:和給定矩形相切 9.5 超橢圓:和範數有關 9.6 雙曲函式:基於單位雙曲線 9.7 圓錐曲線的一般形式 第 4 篇 函式 10 函式 10.1 當代數式遇到座標系 10.2 一元函式: 一個引數 10.3 一元函式性質 10.4 二元函式:兩個引數 10.5 降維:二元函式切一刀得到一元函式 10.6 等高線:由函式值相等點連成 11 代數函式 11.1 初等函式:數學模型的基礎 11.2 一次函式: 一條斜線 11.3 二次函式: 一條拋物線 11.4 多項式函式:從疊加角度來看 11.5 冪函式:底數為引數 11.6 分段函式:不連續函式 12 超越函式 12.1 指數函式:指數為引數 12.2 對數函式:把連乘變成連加 12.3 高斯函式:高斯分佈之基礎 12.4 邏輯函式:在0 和1 之間設定值 12.5 三角函式:週期函式的代表 12.6 函式變換:平移、縮放、對稱 13 二元函式 13.1 二元一次函式:平面 13.2 正圓拋物面:等高線為正圓 13.3 橢圓拋物面:等高線為橢圓 13.4 雙曲拋物面:馬鞍面 13.5 山谷和山脊:無數極值點 13.6 錐面:正圓拋物面開方 13.7 絕對值函式:與超橢圓有關 13.8 邏輯函式:從一元到二元 13.9 高斯函式:機器學習的多面手 14 數列 14.1 芝諾悖論:阿基里斯追不上烏龜 14.2 數列分類 14.3 等差數列:相鄰兩項差相等 14.4 等比數列:相鄰兩項比值相等 14.5 費氏數列 14.6 累加:大寫西格瑪 14.7 數列極限:微積分的一塊基石 14.8 數列極限估算圓周率 第 5 篇 微積分 15 極限和導數 15.1 牛頓小傳 15.2 極限:研究微積分的重要數學工具 15.3 左極限、右極限 15.4 幾何角度看導數:切線斜率 15.5 導數也是函式 16 偏導數 16.1 幾何角度看偏導數 16.2 偏導也是函式 16.3 二階偏導:一階偏導函式的一階偏導 16.4 二元曲面的駐點: 一階偏導為0 17 微分 17.1 幾何角度看微分:線性近似 17.2 泰勒級數:多項式函式近似 17.3 多項式近似和誤差 17.4 二元泰勒展開:用多項式曲面近似 17.5 數值微分:估算一階導數 18 積分 18.1 萊布尼茲:既生瑜,何生亮 18.2 從小車等加速直線運動說起 18.3 一元函式積分 18.4 高斯函式積分 18.5 誤差函式:S 型函式的一種 18.6 二重積分:類似二重求和 18.7 「偏積分」:類似偏求和 18.8 估算圓周率:牛頓法 18.9 數值積分:黎曼求積 19 最佳化入門 19.1 最佳化問題:尋找山峰、山谷 19.2 建構最佳化問題 19.3 約束條件:限定搜尋區域 19.4 一元函式的極值點判定 19.5 二元函式的極值點判定 第 6 篇 機率統計 20 機率入門 20.1 機率簡史:出身賭場 20.2 二元樹:一生二、二生三 20.3 拋硬幣:正反面機率 20.4 聊聊機率:向上還是向下 20.5 一枚質地不均勻的硬幣 20.6 隨機中有規律 21 統計入門 21.1 統計的前世今生:強國知十三數 21.2 散點圖:當資料遇到座標系 21.3 平均值:集中程度 21.4 標準差:離散程度 21.5 協方差:聯合變化程度 21.6 線性相關係數:線性關係強弱 第 7 篇 線性代數 22 向量 22.1 向量:有大小、有方向 22.2 幾何角度看向量運算 22.3 向量簡化距離運算 22.4 向量內積與向量夾角 22.5 二維到三維 22.6 投影:影子的長度 23 雞兔同籠1 23.1 從雞兔同籠說起 23.2 「雞」向量與「兔」向量 23.3 那幾隻毛絨耳朵 23.4 「雞兔」套餐 23.5 套餐轉換:基底轉換 23.6 豬引發的投影問題 23.7 黃鼠狼驚魂夜:「雞飛兔脫」與超定方程式組 24 雞兔同籠2 24.1 雞兔數量的有趣關係 24.2 試試比例函式: y = ax 24.3 最小平方法 24.4 再試試一次函式: y = ax +b 24.5 再探黃鼠狼驚魂夜:超定方程式組 24.6 統計方法求解回歸參數 25 雞兔同籠3 25.1 雞兔互變奇妙夜 25.2 第一角度:「雞/ 兔→雞」和「雞/ 兔→兔」 25.3 第二角度:「雞→雞/ 兔」和「兔→雞/ 兔」 25.4 連續幾夜雞兔轉換 25.5 有向量的地方,就有幾何 25.6 彩蛋
類似書籍推薦給您
【簡介】 全書分為以下幾個部分: 統計學:機率、高斯、隨機、頻率派開始談起,包括統計描述、古典機率模型、離散隨機變數、離散分佈、連續隨機變數及連續分佈一直到高斯部分,包括了一元、二元、多元、條件高斯分佈,中間也提到最重要的斜方差矩陣。 再來的部分說明了隨機,包括了隨機變數,蒙地卡羅、頻率派統計、機率密度。 接下來說明了貝氏定理部分,包括貝氏分類、進階貝氏分類、貝氏推斷入門及進階以及馬可夫鏈蒙地卡羅。 最後一部分則以橢圓為主,包括了馬氏距離、線性迴歸及主成分分析,搭配本書系其它書籍,相信AI的數學,對你來說只會是開心而不是阻礙。 ● 宇宙的語言是數學,數學的精華是機率,機率的表達是統計! ● 機器學習、深度學習、人工智慧,控制系統都覆蓋的機率統計基礎 ● 統計描述方法:描述、推斷、圖、差、位、距、值、度、變 ● 古典機率、條件機率、全機率理論 ● 離散變數、離散分佈、連續隨機變數 ● 一元、二元、多元、條件高斯分佈、斜方差矩陣 ● 隨機變數函式、蒙地卡羅模擬 ● 頻率派統計、機率密度、機率質量 ● 貝氏定理、貝氏分類、貝氏推斷、馬可夫鏈 ● 馬氏距離、線性迴歸、主成分分析 本書資源可至深智官網下載:deepwisdom.com.tw 【目錄】 第1篇 統計 1 機率統計全景 1.1 必備數學工具:一個線性代數小測驗 1.2 統計描述 1.3 機率 1.4 高斯 1.5 隨機 1.6 頻率派 1.7 貝氏派 1.8 橢圓三部曲 2 統計描述 2.1 統計兩大工具:描述、推斷 2.2 長條圖:單特徵資料分佈 2.3 散點圖:兩特徵資料分佈 2.4 有標籤資料的統計視覺化 2.5 集中度:平均值、質心 2.6 分散度:極差、方差、標準差 2.7 分位:四分位、百分位等 2.8 箱型圖:小提琴圖、分佈散點圖 2.9 中心距:平均值、方差、偏度、峰度 2.10 多元隨機變數關係:協方差矩陣、相關性係數矩陣 第 2 篇 機率 3 古典機率模型 3.1 無處不在的機率 3.2 古典機率:離散均勻機率律 3.3 回顧:巴斯卡三角和機率 3.4 事件之間的關係:集合運算 3.5 條件機率:給定部分資訊做推斷 3.6 貝氏定理:條件機率、邊緣機率、聯合機率關係 3.7 全機率定理:窮舉法 3.8 獨立、互斥、條件獨立 4 離散隨機變數 4.1 隨機:天地不仁,以萬物為芻狗 4.2 期望值:隨機變數的可能設定值加權平均 4.3 方差:隨機變數離期望距離平方的平均值 4.4 累積分佈函數(CDF):累加 4.5 二元離散隨機變數 4.6 協方差、相關性係數 4.7 邊緣機率:偏求和,相當於降維 4.8 條件機率:引入貝氏定理 4.9 獨立性:條件機率等於邊緣獨立 4.10 以鳶尾花資料為例:不考慮分類標籤 4.11 以鳶尾花資料為例:考慮分類標籤 4.12 再談機率1:展開、折疊 5 離散分佈 5.1 機率分佈:高度理想化的數學模型 5.2 離散均勻分佈:不分厚薄 5.3 伯努利分佈:非黑即白 5.4 二項分佈:巴斯卡三角 5.5 多項分佈:二項分佈推廣 5.6 卜松分佈:建模隨機事件的發生次數 5.7 幾何分佈:滴水穿石 5.8 超幾何分佈:不放回 6 連續隨機變數 6.1 一元連續隨機變數 6.2 期望、方差和標準差 6.3 二元連續隨機變數 6.4 邊緣機率:二元PDF 偏積分 6.5 條件機率:引入貝氏定理 6.6 獨立性:比較條件機率和邊緣機率 6.7 以鳶尾花資料為例:不考慮分類標籤 6.8 以鳶尾花資料為例:考慮分類標籤 7 連續分佈 7.1 連續均勻分佈:離散均勻分佈的連續版 7.2 高斯分佈:最重要的機率分佈,沒有之一 7.3 邏輯分佈:類似高斯分佈 7.4 學生t- 分佈:厚尾分佈 7.5 對數正態分佈:源自正態分佈 7.6 指數分佈:卜松分佈的連續隨機變數版 7.7 卡方分佈:若干IID 標準正態分佈平方和 7.8 F- 分佈:和兩個服從卡方分佈的獨立隨機變數有關 7.9 Beta 分佈:機率的機率 7.10 Dirichlet 分佈:多元Beta 分佈 8 條件機率 8.1 離散隨機變數:條件期望 8.2 離散隨機變數:條件方差 8.3 離散隨機變數的條件期望和條件方差:以鳶尾花為例 8.4 連續隨機變數:條件期望 8.5 連續隨機變數:條件方差 8.6 連續隨機變數:以鳶尾花為例 8.7 再談如何分割「1」 第 3 篇 高斯 9 一元高斯分佈 9.1 一元高斯分佈:期望值決定位置,標準差決定形狀 9.2 累積機率密度:對應機率值 9.3 標準高斯分佈:期望為0,標準差為1 9.4 68-95-99.7 法則 9.5 用一元高斯分佈估計機率密度 9.6 經驗累積分佈函數 9.7 QQ 圖:分位- 分點陣圖 9.8 從距離到一元高斯分佈 10 二元高斯分佈 10.1 二元高斯分佈:看見橢圓 10.2 邊緣分佈:一元高斯分佈 10.3 累積分佈函數:機率值 10.4 用橢圓解剖二元高斯分佈 10.5 聊聊線性相關性係數 10.6 以鳶尾花資料為例:不考慮分類標籤 10.7 以鳶尾花資料為例:考慮分類標籤 11 多元高斯分佈 11.1 矩陣角度:一元、二元、三元到多元 11.2 高斯分佈:橢圓、橢球、超橢球 11.3 解剖多元高斯分佈PDF 11.4 平移→旋轉 11.5 平移→旋轉→縮放 12 條件高斯分佈 12.1 聯合機率和條件機率關係 12.2 給定X 條件下,Y 的條件機率:以二元高斯分佈為例 12.3 給定Y 條件下,X 的條件機率:以二元高斯分佈為例 12.4 多元常態條件分佈:引入矩陣運算 13 協方差矩陣 13.1 計算協方差矩陣:描述資料分佈 13.2 相關性係數矩陣:描述Z 分數分佈 13.3 特徵值分解:找到旋轉、縮放 13.4 SVD 分解:分解資料矩陣 13.5 Cholesky 分解:列向量座標 13.6 距離:歐氏距離vs 馬氏距離 13.7 幾何角度:超橢球、橢球、橢圓 13.8 合併協方差矩陣 第 4 篇 隨機 14 隨機變數的函數 14.1 隨機變數的函數:以鳶尾花為例 14.2 線性變換:投影角度 14.3 單方向投影:以鳶尾花兩特徵為例 14.4 正交系投影:以鳶尾花兩特徵為例 14.5 以橢圓投影為角度看線性變換 14.6 主成分分析:換個角度看資料 15 蒙地卡羅模擬 15.1 蒙地卡羅模擬:基於虛擬亂數發生器 15.2 估算平方根 15.3 估算積分 15.4 估算體積 15.5 估算圓周率 15.6 布豐投針估算圓周率 15.7 接受- 拒絕抽樣法 15.8 二項分佈隨機漫步 15.9 兩個服從高斯分佈的隨機變數相加 15.10 產生滿足特定相關性的隨機數 第 5 篇 頻率派 16 頻率派統計推斷 16.1 統計推斷:兩大學派 16.2 頻率學派的工具 16.3 中心極限定理:漸近於正態分佈 16.4 最大似然:雞兔比例 16.5 最大似然:以估算平均值、方差為例 16.6 區間估計:整體方差已知,平均值估計 16.7 區間估計:整體方差未知,平均值估計 16.8 區間估計:整體平均值未知,方差估計 17 機率密度估計 17.1 機率密度估計:從長條圖說起 17.2 核心密度估計:若干核心函數加權疊合 17.3 頻寬:決定核心函數的高矮胖瘦 17.4 核心函數:八種常見核心函數 17.5 二元KDE:機率密度曲面 第 6 篇 貝氏派 18 貝氏分類 18.1 貝氏定理:分類鳶尾花 18.2 似然機率:給定分類條件下的機率密度 18.3 先驗機率:鳶尾花分類佔比 18.4 聯合機率:可以作為分類標準 18.5 證據因數:和分類無關 18.6 後驗機率:也是分類的依據 18.7 單一特徵分類:基於KDE 18.8 單一特徵分類:基於高斯 19 貝氏分類進階 19.1 似然機率:給定分類條件下的機率密度 19.2 聯合機率:可以作為分類標準 19.3 證據因數:和分類無關 19.4 後驗機率:也是分類的依據 19.5 獨立:不代表條件獨立 19.6 條件獨立:不代表獨立 20 貝氏推斷入門 20.1 貝氏推斷:更貼合人腦思維 20.2 從一元貝氏公式說起 20.3 走地雞兔:比例完全不確定 20.4 走地雞兔:很可能一半一半 20.5 走地雞兔:更一般的情況 21 貝氏推斷進階 21.1 除了雞兔,農場發現了豬 21.2 走地雞兔豬:比例完全不確定 21.3 走地雞兔豬:很可能各1/3 21.4 走地雞兔豬:更一般的情況 22 馬可夫鏈蒙地卡羅 22.1 歸一化因數沒有閉式解? 22.2 雞兔比例:使用PyMC3 22.3 雞兔豬比例:使用PyMC3 第 7 篇 橢圓 23 馬氏距離 23.1 馬氏距離:考慮資料分佈的距離度量 23.2 歐氏距離:最基本的距離 23.3 標準化歐氏距離:兩個角度 23.4 馬氏距離:兩個角度 23.5 馬氏距離和卡方分佈 24 線性迴歸 24.1 再聊線性迴歸 24.2 最小平方法 24.3 最佳化問題 24.4 投影角度 24.5 線性方程組:代數角度 24.6 條件機率 24.7 最大似然估計(MLE) 25 主成分分析 25.1 再聊主成分分析 25.2 原始資料 25.3 特徵值分解協方差矩陣 25.4 投影 25.5 幾何角度看PCA 25.6 奇異值分解 25.7 最佳化問題 25.8 資料還原和誤差