書名: 深度學習的數學:用數學開啟深度學習的大門
作者: 涌井良幸、涌井貞美
ISBN: 9789864344802
出版社: 博碩
書籍開數、尺寸: 17x23x1.2
頁數: 240
內文印刷顏色: 雙色
#資訊
#AI人工智慧與機器學習
定價: 500
售價: 425
庫存: 已售完
LINE US! 詢問這本書 團購優惠、書籍資訊 等
此書籍已售完,調書籍需2-5工作日。建議與有庫存書籍分開下單

付款方式: 超商取貨付款 line pay
信用卡 全支付
線上轉帳 Apple pay
物流方式: 超商取貨
宅配
門市自取

為您推薦

人工智慧:智慧型系統導論3/e (3版)

人工智慧:智慧型系統導論3/e (3版)

相關熱銷的書籍推薦給您

書名:人工智慧:智慧型系統導論(第三版) 作者:李聯旺 出版社:全華 ISBN:9789862800959

原價: 590 售價: 519 現省: 71元
立即查看
ChatGPT來襲,未來人人都需具備的運算思維!應用詠唱工程來釋放程式生產力. 程式學習/開發篇 (1版)

ChatGPT來襲,未來人人都需具備的運算思維!應用詠唱工程來釋放程式生產力. 程式學習/開發篇 (1版)

類似書籍推薦給您

原價: 650 售價: 585 現省: 65元
立即查看
深度學習的數學地圖: 用Python實作神經網路的數學模型 (1版)

深度學習的數學地圖: 用Python實作神經網路的數學模型 (1版)

類似書籍推薦給您

【簡介】 『數學 ╳ 深度學習 ╳ Python 三效合一』 深度學習用一句話就可以講完:『用訓練的方式找出一個數學函數,將輸入的資料映射到正確的答案』。重點就在於你如何找出那個對的數學函數!本書將深度學習的數學模型與運算式推導出來之後,還能實際執行 Python 程式幫助瞭解整個運算的過程。 『打開機器學習的黑箱,才發現裏面全都是數學!』 我們常在機器學習 / 深度學習的文章或書中看到線性迴歸、二元分類、多類別分類、和深度學習等名詞,好像要學很多東西!當然,對不懂數學的人確實如此。不過,一旦您理解深度學習底層的數學原理,就會發現原來架構稍微變一下,函數換一下,其實都是系出同門,一通百通啊。 要具備這種能力,你必須會微積分、向量/矩陣運算、多變數函數偏微分、指數/對數函數、以及機率/統計。這些在學校都要花很長的時間學習,然而本書考量到您並非想成為數學家或統計學家,因此從中摘取對深度學習最重要的部分濃縮在前半部,幫助您用最短的時間快速掌握數學能力。 本書是由施威銘研究室監修,適時加上「編註」補充內容幫助理解。如果您行有餘力,還可以繼續閱讀《機器學習的數學基礎:AI、深度學習打底必讀》一書,裏面有更詳細的數學公式推導。 『真正循序漸進,不會一下跳太快』 本書的一大特色就是每一步只增加一點差異,不會跳得太快。從線性迴歸模型開始,加入 Sigmoid 激活函數 (啟動函數) 就變成二元分類模型,然後將 Sigmoid 換成 Softmax 函數就擴展到多類別分類模型。然後在深度學習,先從一層隱藏層開始推導與實作,並因應需要調整學習率、改用 ReLU 函數等方法改善準確率。並進而擴展到兩層隱藏層,讓模型更加準確。小編真心認為,這樣的編排方式,讓讀者從既有的基礎逐步墊高實力,相當有利於學習,等您跟著本書走過一遍,自然就能心領神會。 本書隨附『數學快查學習地圖』彩色拉頁,將書中用到的各項數學基礎之間的關係整理成表,幫助您用一張圖看懂本書架構,甚至可裁剪下來隨時參考。作者在 Github 提供 Jupyter Notebook 格式的範例程式,另外您也可以從旗標官網下載 Python 範例程式。 【目錄】 [導入篇 機器學習快速指引] 第 1 章 機器學習入門 1.1 何謂機器學習 1.1.1 何謂機器學習模型 1.1.2 機器學習的訓練方法 1.1.3 監督式學習的迴歸、分類模型 1.1.4 訓練階段與預測階段 1.1.5 損失函數與梯度下降法 1.2 第一個機器學習模型:簡單線性迴歸模型 1.3 本書討論的機器學習模型 1.4 數學是深度學習的核心 1.5 本書架構 [理論篇 數學速學課程] 第 2 章 微分、積分 2.1 函數 2.1.1 函數運作行為 2.1.2 函數的圖形 2.2 合成函數與反函數 2.2.1 合成函數 專欄 合成函數的表示法 2.2.2 反函數 2.3 微分與極限 2.3.1 微分的定義 2.3.2 函數值增量與微分的關係 2.3.3 切線方程式 專欄 切線方程式與訓練階段、預測階段的關係 2.4 極大值與極小值 2.5 多項式的微分 2.5.1 x^n 的微分(n 是正整數) 2.5.2 微分計算的線性關係與多項式的微分 2.5.3 x^r 的微分(r 是實數) 專欄 組合(Combination)與二項式定理 2.6 兩個函數相乘的微分 2.7 合成函數的微分 2.7.1 用鏈鎖法則做合成函數微分 2.7.2 反函數的微分 2.8 兩個函數相除的微分 2.9 積分 專欄 積分符號的意思 第 3 章 向量、矩陣 3.1 向量入門 3.1.1 何謂向量 3.1.2 向量的標記法 3.1.3 向量的分量 3.1.4 往多維擴展 3.1.5 分量的符號 3.2 向量和、向量差、純量乘積 3.2.1 向量和 3.2.2 向量差 3.2.3 向量與純量的乘積 3.3 向量的長度(絕對值)與距離 3.3.1 向量的長度(絕對值) 3.3.2 Σ 可整合冗長的加法算式 3.3.3 向量間的距離 3.4 三角函數 3.4.1 三角比 : 三角函數的基本定義 3.4.2 單位圓上的座標 3.4.3 三角函數的圖形 3.4.4 用三角函數表示直角三角形的邊長 3.5 向量內積 3.5.1 向量內積的幾何定義 3.5.2 用分量來表示內積公式 3.6 餘弦相似性 3.6.1 兩個二維向量的夾角 3.6.2 n 維向量的餘弦相似性 專欄 餘弦相似性的應用範例 3.7 矩陣運算 3.7.1 一個輸出節點的內積表示法 3.7.2 三個輸出節點的矩陣相乘 第 4 章 多變數函數的微分 4.1 多變數函數 4.2 偏微分 4.3 全微分 4.4 全微分與合成函數 4.5 梯度下降法(GD) 專欄 梯度下降法與局部最佳解 第 5 章 指數函數、對數函數 5.1 指數函數 5.1.1 連乘的定義與公式 5.1.2 連乘觀念的推廣 5.1.3 將連乘寫成指數函數形式 5.2 對數函數 專欄 對數函數的意義 5.3 對數函數的微分 專欄 用 Python 來計算尤拉數 e 5.4 指數函數的微分 專欄 以 e 為底的指數函數也可用 exp 表示 5.5 Sigmoid 函數 5.6 Softmax 函數 專欄 Sigmoid 和 Softmax 函數的關係 第 6 章 機率、統計 6.1 隨機變數與機率分佈 6.2 機率密度函數與累積分佈函數 專欄 Sigmoid 函數的機率密度函數 6.3 概似函數與最大概似估計法 專欄 為何概似函數的極值是求最大值,而不是最小值? [實踐篇 機器學習、深度學習實作] 第 7 章 線性迴歸模型(迴歸) 7.1 損失函數的偏微分與梯度下降法 7.2 範例問題設定 7.3 訓練資料與預測值的數學符號標示法 7.4 梯度下降法的概念 7.5 建立預測模型 7.6 建立損失函數 7.7 損失函數的微分 7.8 梯度下降法之運用 7.9 程式實作 專欄 使用 NumPy 7.10 推廣到多元線性迴歸模型 專欄 學習率與迭代運算次數的調整方法 第 8 章 邏輯斯迴歸模型(二元分類) 8.1 範例問題設定 8.2 線性迴歸模型與分類模型的差異 8.3 針對預測模型之討論 專欄 將預測值轉換成機率的意義 8.4 損失函數(交叉熵 Cross entropy) 8.5 損失函數的微分計算 8.6 梯度下降法的運用 8.7 程式實作 專欄 scikit-learn 三種模型的比較 專欄 交叉熵以及熱愛足球的國王們的煩惱 第 9 章 邏輯斯迴歸模型(多類別分類) 9.1 範例問題設定 9.2 建立模型的基本概念 9.3 權重矩陣 9.4 Softmax 函數 9.5 損失函數 9.6 損失函數的微分計算 9.7 梯度下降法的運用 9.8 程式實作 專欄 聚合函數 axis 參數的作用 第 10 章 深度學習 10.1 範例問題設定 10.2 模型的架構與預測函數 10.3 損失函數 10.4 損失函數的微分 10.5 反向傳播 10.6 梯度下降法的運用 10.7 程式實作一:原始版本 10.8 程式實作二:調整權重矩陣初始值的版本 10.9 程式實作三:更換激活函數為 ReLU 的版本 10.10 程式實作四:隱藏層增加為 2 層的版本 [發展篇 實務上的解決方法] 第11 章 以實用的深度學習為目標 11.1 善用開發框架 11.2 卷積神經網路(CNN) 11.3 循環神經網路(RNN)與長短期記憶(LSTM) 11.4 數值微分 11.5 優化的學習法 11.6 過度配適解決方法 11.7 每次訓練的資料量(批量) 11.8 權重矩陣的初始化 11.9 目標下一座山頭 附錄 Jupyter Notebook 開發工具 A.1 啟動 Jupyter Notebook A.2 試寫一個程式 A.3 將檔案輸出成單純的 Python 檔

原價: 580 售價: 522 現省: 58元
立即查看
用最簡潔的Python上手:深度學習從精通再成大神 (1版)

用最簡潔的Python上手:深度學習從精通再成大神 (1版)

類似書籍推薦給您

原價: 780 售價: 702 現省: 78元
立即查看
可解釋的機器學習: 用因果推斷來學習箇中奧秘 (1版)

可解釋的機器學習: 用因果推斷來學習箇中奧秘 (1版)

類似書籍推薦給您

原價: 680 售價: 612 現省: 68元
立即查看
從統計思維出發:用Python實作的機器學習範例 (1版)

從統計思維出發:用Python實作的機器學習範例 (1版)

類似書籍推薦給您

【簡介】  ●機器學習的靈魂:以統計數學為核心說明   ●全書圖解及歷史來龍去脈完整說明   ●從步入監督學習之旅開始   ●最精要的線性迴歸模型   ●完整講解K近鄰及貝氏推論   ●邏輯迴歸模型及最大熵模型   ●決策樹,感知機及支援向量機   ●EM演算法及Boosting提升方法   統計機器學習之旅,從監督學習開始,透過分析已標記的資料集訓練模型,使預測未知資料。最基礎的就是線性迴歸。進一步深入,K近鄰(K-NN)演算法和貝氏推論是統計機器學習中的兩大核心技術。   之後則說明邏輯迴歸模型和最大熵模型,兩者專注於分類問題。決策樹、感知機和支援向量機(SVM)則代表了更進階的機器學習模型。決策樹通過構建樹狀結構來進行決策,其直觀性和易於理解的特點使其在解釋性要求較高的場景中非常受歡迎。感知機是一種二分類線性分類器,支援向量機則是一種強大的分類器,透過在特徵空間中找到一個最優分割平面來分離不同類別的數據。   最後,EM(期望最大化)演算法和Boosting方法是提升模型性能的高級技術。EM算法通過迭代最佳化來處理。 【目錄】 緒論 0.1本書講什麼,初衷是什麼 0.2貫穿本書的兩大思維模式 0.3這本書決定它還想要這樣 0.4如何使用本書 第 1 章 步入監督學習之旅 1.1機器學習從資料開始 1.2監督學習是什麼 1.3如何評價模型的好壞 1.4損失最小化思想 1.5怎樣理解模型的性能:方差 偏差折中思想 1.6如何選擇最佳模型 1.7本章小結 1.8 習題 第 2 章 線性迴歸模型 2.1探尋線性迴歸模型 2.2最小平方法 2.3線性迴歸模型的預測 2.4擴充部分:嶺迴歸與套索迴歸 2.5案例分析——共用單車資料集 2.6本章小結 2.7 習題 第 3 章 K 近鄰模型 3.1鄰友思想 3.2K 近鄰演算法 3.3最近鄰分類器的誤差率 3.4k 維樹 3.5擴充部分:距離度量學習的 K 近鄰分類器 3.6案例分析——鶯尾花資料集 3.7本章小結 3.8 習題 第 4 章 貝氏推斷 4.1貝氏思想 4.2貝氏分類器 4.3如何訓練貝氏分類器 4.4常用的單純貝氏分類器 4.5擴充部分 4.6案例分析——蘑菇資料集 4.7本章小結 4.8 習題 4.9 閱讀時間:貝氏思想的起源 第 5 章 邏輯迴歸模型 5.1一切始於邏輯函式 5.2邏輯迴歸模型的學習 5.3邏輯迴歸模型的學習演算法 5.4擴充部分 5.5案例分析——離職資料集 5.6本章小結 5.7 習題 5.8 閱讀時間:牛頓法是牛頓提出的嗎 第 6 章 最大熵模型 6.1問世間熵為何物 6.2最大熵思想 6.3最大熵模型的學習問題 6.4模型學習的最最佳化演算法 6.5案例分析——湯圓小例子 6.6本章小結 6.7 習題 6.8 閱讀時間:奇妙的對數 第 7 章 決策樹模型 7.1決策樹中蘊含的基本思想 7.2決策樹的特徵選擇 7.3決策樹的生成演算法 7.4決策樹的剪枝過程 7.5擴充部分:隨機森林 7.6案例分析——帕爾默企鵝資料集 7.7本章小結 7.8 習題 7.9 閱讀時間:經濟學中的基尼指數 第 8 章 感知機模型 8.1感知機制——從邏輯迴歸到感知機 8.2感知機的學習 8.3感知機的最佳化演算法 8.4案例分析——鶯尾花資料集 8.5本章小結 8.6 習題 第 9 章 支援向量機 9.1從感知機到支援向量機 9.2線性可分支援向量機 9.3線性支援向量機 9.4非線性支援向量機 9.5SMO 最佳化方法 9.6案例分析——電離層資料集 9.7本章小結 9.8 習題 第 10 章 EM 演算法 10.1極大似然法與 EM 演算法 10.2EM 演算法的迭代過程 10.3EM 演算法的應用 10.4本章小結 10.5 習題 第 11 章 提升方法 11.1提升方法(Boosting)是一種整合學習方法 11.2起步於 AdaBoost 演算法 11.3提升樹和 GBDT 演算法 11.4擴充部分:XGBoost 演算法 11.5案例分析——波士頓房價資料集 11.6本章小結 11.7 習題 參考文獻 附錄-小冊子 第 1 章 微積分小工具 1.1 凸函式與凹函式 1.2 幾個重要的不等式 1.3 常見的求導公式與求導法則 1.4 泰勒公式 1.5 費馬原理 第 2 章 線性代數小工具 2.1 幾類特殊的矩陣 2.2 矩陣的基本運算 2.3 二次型的矩陣表示 第 3 章 機率統計小工具 3.1 隨機變數 3.2 機率分佈 3.3 數學期望和方差 3.4 常用的幾種分佈 3.5 小技巧—從二項分佈到正態分佈的連續修正 第 4 章 最佳化小工具 4.1 梯度下降法 4.2 牛頓法 4.3 擬牛頓法 4.4 座標下降法 4.5 拉格朗日對偶思想

原價: 880 售價: 792 現省: 88元
立即查看