書名: Python深度學習實作:Keras快速上手
作者: 勞虹嵐
ISBN: 9789864343133
出版社: 博碩
定價: 500
售價: 425
庫存: 已售完
LINE US! 詢問這本書 團購優惠、書籍資訊 等
此書籍已售完,調書籍需2-5工作日。建議與有庫存書籍分開下單

付款方式: 超商取貨付款 line pay
信用卡 全支付
線上轉帳 Apple pay
物流方式: 超商取貨
宅配
門市自取

為您推薦

Deep Learning 3:用 Python 進行深度學習框架的開發實作 (1版)

Deep Learning 3:用 Python 進行深度學習框架的開發實作 (1版)

類似書籍推薦給您

Deep Learning 3:用Python進行深度學習框架的開發實作 系列名:電腦通訊 ISBN13:9789865027346 出版社:美商歐萊禮 作者:齊藤康毅 譯者:吳嘉芳 裝訂/頁數:平裝/488頁 規格:23cm*18.5cm*2.1cm (高/寬/厚) 出版日:2021/04/06 中國圖書分類:特殊電腦方法 內容簡介   從無到有的實作,在動手做的過程中強化對於深度學習的理解   或許您也曾經用過Tensorflow、PyTorch這類深度學習的框架(Framework),相信您也曾經對裡頭那些神奇的技術與有趣的結構嘆服不已。這本書就是為了解開這些疑問,正確瞭解這些技術而撰寫的。希望你可以從中體會這種技術性的「樂趣」。基於這個目的,本書將秉持著「從零開始製作」的方針,從無到有,一邊操作,一邊思考,透過實作加深理解,獲得審視現代深度學習框架的「新視野」。再藉由這個「新視野」,更廣泛、深入地理解深度學習。   高人氣、高評價的「Deep Learning基礎理論實作」系列第三部   《Deep Learning:用Python進行深度學習的基礎理論實作》、《Deep Learning 2|用Python進行自然語言處理的基礎理論實作》是從零開始進行深度學習,藉此瞭解相關結構。當時以單純性為優先,而「手動」設定了運算的「連結」。真正的框架是將這個部分自動化,Define-by-Run就是其中的一種手法,本書將利用從零開始製作DeZero的方式來學習這個機制。請別擔心,閱讀這本書不需要具備前作《Deep Learning:用Python進行深度學習的基礎理論實作》系列的知識。 目錄 第一階段 自動計算微分 STEP 1 把變數當成箱子 STEP 2 產生變數的函數 STEP 3 連結函數 STEP 4 數值微分 STEP 5 誤差反向傳播法的理論 STEP 6 手動執行誤差反向傳播法 STEP 7 誤差反向傳播法的自動化 STEP 8 從遞迴到迴圈 STEP 9 讓函數更方便 STEP 10 測試 第二階段 用自然的程式碼呈現 STEP 11 可變長度引數(正向傳播篇) STEP 12 可變長度引數(改善篇) STEP 13 可變長度引數(反向傳播篇) STEP 14 重複使用相同變數 STEP 15 複雜的計算圖(理論篇) STEP 16 複雜的計算圖(執行篇) STEP 17 記憶體管理與循環參照 STEP 18 減少記憶體用量的模式 STEP 19 輕鬆使用變數 STEP 20 運算子多載(1) STEP 21 運算子多載(2) STEP 22 運算子多載(3) STEP 23 整合成套件 STEP 24 複雜函數的微分 第三階段 計算高階微分 STEP 25 計算圖視覺化(1) STEP 26 計算圖視覺化(2) STEP 27 泰勒展開式的微分 STEP 28 函數最佳化 STEP 29 使用牛頓法最佳化(手動計算) STEP 30 高階微分(準備篇) STEP 31 高階微分(理論篇) STEP 32 高階微分(執行篇) STEP 33 使用牛頓法最佳化(自動計算) STEP 34 sin 函數的高階微分 STEP 35 高階微分的計算圖 STEP 36 高階微分以外的用途 第四階段 建立類神經網路 STEP 37 處理張量 STEP 38 改變形狀的函數 STEP 39 加總函數 STEP 40 進行廣播的函數 STEP 41 矩陣乘積 STEP 42 線性迴歸 STEP 43 類神經網路 STEP 44 整合參數層 STEP 45 整合各層的整合層 STEP 46 用 Optimizer 更新參數 STEP 47 Softmax 函數與交叉熵誤差 STEP 48 多值分類 STEP 49 Dataset 類別與事前處理 STEP 50 取出小批次的 DataLoader STEP 51 MNIST 的學習 第五階段 使用DeZero 進行挑戰 STEP 52 支援 GPU STEP 53 儲存與載入模型 STEP 54 Dropout 與測試模式 STEP 55 CNN 的機制(1) STEP 56 CNN 的機制(2) STEP 57 conv2d 函數與 pooling 函數 STEP 58 具代表性的 CNN(VGG16) STEP 59 用 RNN 處理時間序列資料 STEP 60 LSTM 與 DataLoader APP A 原地演算法(STEP 14 的補充說明) APP B 執行get_item 函數(STEP 47 的補充說明) APP C 在 Google Colaboratory 執行

原價: 780 售價: 663 現省: 117元
立即查看
Deep Learning: 用Python進行深度學習的基礎理論實作

Deep Learning: 用Python進行深度學習的基礎理論實作

類似書籍推薦給您

書名:DEEP LEARNING|用PYTHON進行深度學習的基礎理論實作 出版社:歐萊禮 出版年月:201708 條碼:9789864764846 內容簡介 不走捷徑,幫助您真正搞懂「深度學習」的真義 這是一本與「深度學習」有關的書籍。從入門開始說明,一步一步帶領你瞭解深度學習必須具備的知識。本書可以幫助您了解:深度學習究竟是什麼?有何特色?根據何種原理來運作? 從零開始,由實做中學習 本書的目標是,盡量避免使用不瞭解內容的「黑盒子」,以基礎的知識為起點,以容易上手的Python撰寫程式,從動手實作的過程中,一步步深入瞭解深度學習。若以車用書籍來比喻這本書的話,這本書並不屬於汽車駕訓教材,而是希望能夠幫助您瞭解車子的原理,而非教您開車的方法。為了瞭解汽車的結構,必須試著打開車子的引擎蓋,將每個零件都拿起來觀察、操作看看。然後盡量用簡單的形狀,篩選出車子的核心部分,就像組合迷你模型般,製作出這台車子。本書的目標,就是透過製作車子的過程,讓你感受到自己實際可以製作出車子,進而熟悉與車子的相關技術。 本書特色: .利用最少的外部函式庫,使用Python,從零開始實際執行深度學習的程式。 .說明Python 的用法,讓Python 的初學者也能理解。 .實際執行Python 的原始碼,同時提供讀者手邊可以進行實驗的學習環境。 .從簡單的機器學習問題開始,到最後執行精密辨識影像的系統。 .以淺顯易懂的方式說明深度學習與神經網路理論。 .針對看似複雜的技術,如誤差反向傳播與卷積運算等,利用實際操作方式說明,幫助理解。 .介紹在執行深度學習時,有幫助且實用的技巧,包括決定學習率的方法、權重的預設值等。 .說明Batch Normalization、Dropout、Adam 等最近的趨勢與操作。 .為什麼深度學習很優秀,為什麼加深層數,就能提高辨識準確度,為什麼隱藏層很重要,仔細說明這些「為什麼」。 .介紹自動運作、產生影像、強化學習等深度學習的應用範例。 作者介紹 作者簡介 斎藤康毅 1984年生於長崎縣對馬,畢業於東京工業大學工學院,東京大學研究所學際情報學府學士課程修畢。現在於企業內從事與電腦視覺、機器學習有關的研究開發工作。1984年生於長崎縣對馬,畢業於東京工業大學工學院,東京大學研究所學際情報學府學士課程修畢。現在於企業內從事與電腦視覺、機器學習有關的研究開發工作。 目錄 第一章 Python入門 第二章 感知器 第三章 神經網路 第四章 神經網路的學習 第五章 誤差反向傳播法 第六章 與學習有關的技巧 第七章 卷積神經網路 第八章 深度學習 附錄A Softmax-with-Loss層的計算圖 參考文獻

原價: 580 售價: 493 現省: 87元
立即查看
深度學習的數學地圖: 用Python實作神經網路的數學模型 (1版)

深度學習的數學地圖: 用Python實作神經網路的數學模型 (1版)

類似書籍推薦給您

【簡介】 『數學 ╳ 深度學習 ╳ Python 三效合一』 深度學習用一句話就可以講完:『用訓練的方式找出一個數學函數,將輸入的資料映射到正確的答案』。重點就在於你如何找出那個對的數學函數!本書將深度學習的數學模型與運算式推導出來之後,還能實際執行 Python 程式幫助瞭解整個運算的過程。 『打開機器學習的黑箱,才發現裏面全都是數學!』 我們常在機器學習 / 深度學習的文章或書中看到線性迴歸、二元分類、多類別分類、和深度學習等名詞,好像要學很多東西!當然,對不懂數學的人確實如此。不過,一旦您理解深度學習底層的數學原理,就會發現原來架構稍微變一下,函數換一下,其實都是系出同門,一通百通啊。 要具備這種能力,你必須會微積分、向量/矩陣運算、多變數函數偏微分、指數/對數函數、以及機率/統計。這些在學校都要花很長的時間學習,然而本書考量到您並非想成為數學家或統計學家,因此從中摘取對深度學習最重要的部分濃縮在前半部,幫助您用最短的時間快速掌握數學能力。 本書是由施威銘研究室監修,適時加上「編註」補充內容幫助理解。如果您行有餘力,還可以繼續閱讀《機器學習的數學基礎:AI、深度學習打底必讀》一書,裏面有更詳細的數學公式推導。 『真正循序漸進,不會一下跳太快』 本書的一大特色就是每一步只增加一點差異,不會跳得太快。從線性迴歸模型開始,加入 Sigmoid 激活函數 (啟動函數) 就變成二元分類模型,然後將 Sigmoid 換成 Softmax 函數就擴展到多類別分類模型。然後在深度學習,先從一層隱藏層開始推導與實作,並因應需要調整學習率、改用 ReLU 函數等方法改善準確率。並進而擴展到兩層隱藏層,讓模型更加準確。小編真心認為,這樣的編排方式,讓讀者從既有的基礎逐步墊高實力,相當有利於學習,等您跟著本書走過一遍,自然就能心領神會。 本書隨附『數學快查學習地圖』彩色拉頁,將書中用到的各項數學基礎之間的關係整理成表,幫助您用一張圖看懂本書架構,甚至可裁剪下來隨時參考。作者在 Github 提供 Jupyter Notebook 格式的範例程式,另外您也可以從旗標官網下載 Python 範例程式。 【目錄】 [導入篇 機器學習快速指引] 第 1 章 機器學習入門 1.1 何謂機器學習 1.1.1 何謂機器學習模型 1.1.2 機器學習的訓練方法 1.1.3 監督式學習的迴歸、分類模型 1.1.4 訓練階段與預測階段 1.1.5 損失函數與梯度下降法 1.2 第一個機器學習模型:簡單線性迴歸模型 1.3 本書討論的機器學習模型 1.4 數學是深度學習的核心 1.5 本書架構 [理論篇 數學速學課程] 第 2 章 微分、積分 2.1 函數 2.1.1 函數運作行為 2.1.2 函數的圖形 2.2 合成函數與反函數 2.2.1 合成函數 專欄 合成函數的表示法 2.2.2 反函數 2.3 微分與極限 2.3.1 微分的定義 2.3.2 函數值增量與微分的關係 2.3.3 切線方程式 專欄 切線方程式與訓練階段、預測階段的關係 2.4 極大值與極小值 2.5 多項式的微分 2.5.1 x^n 的微分(n 是正整數) 2.5.2 微分計算的線性關係與多項式的微分 2.5.3 x^r 的微分(r 是實數) 專欄 組合(Combination)與二項式定理 2.6 兩個函數相乘的微分 2.7 合成函數的微分 2.7.1 用鏈鎖法則做合成函數微分 2.7.2 反函數的微分 2.8 兩個函數相除的微分 2.9 積分 專欄 積分符號的意思 第 3 章 向量、矩陣 3.1 向量入門 3.1.1 何謂向量 3.1.2 向量的標記法 3.1.3 向量的分量 3.1.4 往多維擴展 3.1.5 分量的符號 3.2 向量和、向量差、純量乘積 3.2.1 向量和 3.2.2 向量差 3.2.3 向量與純量的乘積 3.3 向量的長度(絕對值)與距離 3.3.1 向量的長度(絕對值) 3.3.2 Σ 可整合冗長的加法算式 3.3.3 向量間的距離 3.4 三角函數 3.4.1 三角比 : 三角函數的基本定義 3.4.2 單位圓上的座標 3.4.3 三角函數的圖形 3.4.4 用三角函數表示直角三角形的邊長 3.5 向量內積 3.5.1 向量內積的幾何定義 3.5.2 用分量來表示內積公式 3.6 餘弦相似性 3.6.1 兩個二維向量的夾角 3.6.2 n 維向量的餘弦相似性 專欄 餘弦相似性的應用範例 3.7 矩陣運算 3.7.1 一個輸出節點的內積表示法 3.7.2 三個輸出節點的矩陣相乘 第 4 章 多變數函數的微分 4.1 多變數函數 4.2 偏微分 4.3 全微分 4.4 全微分與合成函數 4.5 梯度下降法(GD) 專欄 梯度下降法與局部最佳解 第 5 章 指數函數、對數函數 5.1 指數函數 5.1.1 連乘的定義與公式 5.1.2 連乘觀念的推廣 5.1.3 將連乘寫成指數函數形式 5.2 對數函數 專欄 對數函數的意義 5.3 對數函數的微分 專欄 用 Python 來計算尤拉數 e 5.4 指數函數的微分 專欄 以 e 為底的指數函數也可用 exp 表示 5.5 Sigmoid 函數 5.6 Softmax 函數 專欄 Sigmoid 和 Softmax 函數的關係 第 6 章 機率、統計 6.1 隨機變數與機率分佈 6.2 機率密度函數與累積分佈函數 專欄 Sigmoid 函數的機率密度函數 6.3 概似函數與最大概似估計法 專欄 為何概似函數的極值是求最大值,而不是最小值? [實踐篇 機器學習、深度學習實作] 第 7 章 線性迴歸模型(迴歸) 7.1 損失函數的偏微分與梯度下降法 7.2 範例問題設定 7.3 訓練資料與預測值的數學符號標示法 7.4 梯度下降法的概念 7.5 建立預測模型 7.6 建立損失函數 7.7 損失函數的微分 7.8 梯度下降法之運用 7.9 程式實作 專欄 使用 NumPy 7.10 推廣到多元線性迴歸模型 專欄 學習率與迭代運算次數的調整方法 第 8 章 邏輯斯迴歸模型(二元分類) 8.1 範例問題設定 8.2 線性迴歸模型與分類模型的差異 8.3 針對預測模型之討論 專欄 將預測值轉換成機率的意義 8.4 損失函數(交叉熵 Cross entropy) 8.5 損失函數的微分計算 8.6 梯度下降法的運用 8.7 程式實作 專欄 scikit-learn 三種模型的比較 專欄 交叉熵以及熱愛足球的國王們的煩惱 第 9 章 邏輯斯迴歸模型(多類別分類) 9.1 範例問題設定 9.2 建立模型的基本概念 9.3 權重矩陣 9.4 Softmax 函數 9.5 損失函數 9.6 損失函數的微分計算 9.7 梯度下降法的運用 9.8 程式實作 專欄 聚合函數 axis 參數的作用 第 10 章 深度學習 10.1 範例問題設定 10.2 模型的架構與預測函數 10.3 損失函數 10.4 損失函數的微分 10.5 反向傳播 10.6 梯度下降法的運用 10.7 程式實作一:原始版本 10.8 程式實作二:調整權重矩陣初始值的版本 10.9 程式實作三:更換激活函數為 ReLU 的版本 10.10 程式實作四:隱藏層增加為 2 層的版本 [發展篇 實務上的解決方法] 第11 章 以實用的深度學習為目標 11.1 善用開發框架 11.2 卷積神經網路(CNN) 11.3 循環神經網路(RNN)與長短期記憶(LSTM) 11.4 數值微分 11.5 優化的學習法 11.6 過度配適解決方法 11.7 每次訓練的資料量(批量) 11.8 權重矩陣的初始化 11.9 目標下一座山頭 附錄 Jupyter Notebook 開發工具 A.1 啟動 Jupyter Notebook A.2 試寫一個程式 A.3 將檔案輸出成單純的 Python 檔

原價: 580 售價: 522 現省: 58元
立即查看
從統計思維出發:用Python實作的機器學習範例 (1版)

從統計思維出發:用Python實作的機器學習範例 (1版)

類似書籍推薦給您

【簡介】  ●機器學習的靈魂:以統計數學為核心說明   ●全書圖解及歷史來龍去脈完整說明   ●從步入監督學習之旅開始   ●最精要的線性迴歸模型   ●完整講解K近鄰及貝氏推論   ●邏輯迴歸模型及最大熵模型   ●決策樹,感知機及支援向量機   ●EM演算法及Boosting提升方法   統計機器學習之旅,從監督學習開始,透過分析已標記的資料集訓練模型,使預測未知資料。最基礎的就是線性迴歸。進一步深入,K近鄰(K-NN)演算法和貝氏推論是統計機器學習中的兩大核心技術。   之後則說明邏輯迴歸模型和最大熵模型,兩者專注於分類問題。決策樹、感知機和支援向量機(SVM)則代表了更進階的機器學習模型。決策樹通過構建樹狀結構來進行決策,其直觀性和易於理解的特點使其在解釋性要求較高的場景中非常受歡迎。感知機是一種二分類線性分類器,支援向量機則是一種強大的分類器,透過在特徵空間中找到一個最優分割平面來分離不同類別的數據。   最後,EM(期望最大化)演算法和Boosting方法是提升模型性能的高級技術。EM算法通過迭代最佳化來處理。 【目錄】 緒論 0.1本書講什麼,初衷是什麼 0.2貫穿本書的兩大思維模式 0.3這本書決定它還想要這樣 0.4如何使用本書 第 1 章 步入監督學習之旅 1.1機器學習從資料開始 1.2監督學習是什麼 1.3如何評價模型的好壞 1.4損失最小化思想 1.5怎樣理解模型的性能:方差 偏差折中思想 1.6如何選擇最佳模型 1.7本章小結 1.8 習題 第 2 章 線性迴歸模型 2.1探尋線性迴歸模型 2.2最小平方法 2.3線性迴歸模型的預測 2.4擴充部分:嶺迴歸與套索迴歸 2.5案例分析——共用單車資料集 2.6本章小結 2.7 習題 第 3 章 K 近鄰模型 3.1鄰友思想 3.2K 近鄰演算法 3.3最近鄰分類器的誤差率 3.4k 維樹 3.5擴充部分:距離度量學習的 K 近鄰分類器 3.6案例分析——鶯尾花資料集 3.7本章小結 3.8 習題 第 4 章 貝氏推斷 4.1貝氏思想 4.2貝氏分類器 4.3如何訓練貝氏分類器 4.4常用的單純貝氏分類器 4.5擴充部分 4.6案例分析——蘑菇資料集 4.7本章小結 4.8 習題 4.9 閱讀時間:貝氏思想的起源 第 5 章 邏輯迴歸模型 5.1一切始於邏輯函式 5.2邏輯迴歸模型的學習 5.3邏輯迴歸模型的學習演算法 5.4擴充部分 5.5案例分析——離職資料集 5.6本章小結 5.7 習題 5.8 閱讀時間:牛頓法是牛頓提出的嗎 第 6 章 最大熵模型 6.1問世間熵為何物 6.2最大熵思想 6.3最大熵模型的學習問題 6.4模型學習的最最佳化演算法 6.5案例分析——湯圓小例子 6.6本章小結 6.7 習題 6.8 閱讀時間:奇妙的對數 第 7 章 決策樹模型 7.1決策樹中蘊含的基本思想 7.2決策樹的特徵選擇 7.3決策樹的生成演算法 7.4決策樹的剪枝過程 7.5擴充部分:隨機森林 7.6案例分析——帕爾默企鵝資料集 7.7本章小結 7.8 習題 7.9 閱讀時間:經濟學中的基尼指數 第 8 章 感知機模型 8.1感知機制——從邏輯迴歸到感知機 8.2感知機的學習 8.3感知機的最佳化演算法 8.4案例分析——鶯尾花資料集 8.5本章小結 8.6 習題 第 9 章 支援向量機 9.1從感知機到支援向量機 9.2線性可分支援向量機 9.3線性支援向量機 9.4非線性支援向量機 9.5SMO 最佳化方法 9.6案例分析——電離層資料集 9.7本章小結 9.8 習題 第 10 章 EM 演算法 10.1極大似然法與 EM 演算法 10.2EM 演算法的迭代過程 10.3EM 演算法的應用 10.4本章小結 10.5 習題 第 11 章 提升方法 11.1提升方法(Boosting)是一種整合學習方法 11.2起步於 AdaBoost 演算法 11.3提升樹和 GBDT 演算法 11.4擴充部分:XGBoost 演算法 11.5案例分析——波士頓房價資料集 11.6本章小結 11.7 習題 參考文獻 附錄-小冊子 第 1 章 微積分小工具 1.1 凸函式與凹函式 1.2 幾個重要的不等式 1.3 常見的求導公式與求導法則 1.4 泰勒公式 1.5 費馬原理 第 2 章 線性代數小工具 2.1 幾類特殊的矩陣 2.2 矩陣的基本運算 2.3 二次型的矩陣表示 第 3 章 機率統計小工具 3.1 隨機變數 3.2 機率分佈 3.3 數學期望和方差 3.4 常用的幾種分佈 3.5 小技巧—從二項分佈到正態分佈的連續修正 第 4 章 最佳化小工具 4.1 梯度下降法 4.2 牛頓法 4.3 擬牛頓法 4.4 座標下降法 4.5 拉格朗日對偶思想

原價: 880 售價: 792 現省: 88元
立即查看
機器學習:彩色圖解 + 基礎數學篇 + Python實作 王者歸來 (2版)

機器學習:彩色圖解 + 基礎數學篇 + Python實作 王者歸來 (2版)

類似書籍推薦給您

機器學習:彩色圖解+基礎數學篇+Python實作王者歸來 ISBN13:9789865501969 出版社:深智數位 作者:洪錦魁 裝訂/頁數:平裝/440頁 規格:23cm*17cm*2cm (高/寬/厚) 版次:2 出版日:2021/05/13 中國圖書分類:特殊電腦方法 內容簡介   這幾年心中總想寫一本可以讓擁有高中數學程度的讀者即可看懂人工智慧、機器學習或深度學習的書籍,或是說看了不會想睡覺的機器學習書籍,這個理念成為我撰寫這本書籍很重要的動力。為了卸除數學心房,筆者撰寫此書依循原則如下:   ★:數學原理彩色圖解。   ★:手工計算基礎數學。   ★:Python程式高效實作。   這本數撰寫的幾個特色如下:   ☆:全數共用約205個Python實例,講解機器學習的基礎數學   ☆:極詳細、超清楚、帶領讀者從畏懼數學到喜歡數學   ☆:複雜的數學符號重新拆解,原來可以很容易   ☆:了解機器學習的數學原理,讓機器學習程式充滿智慧靈魂   在徹底研究機器學習後,筆者體會許多基礎數學不是不會與艱難而是生疏了,如果機器學習的書籍可以將複雜公式從基礎開始一步一步推導,其實可以很容易帶領讀者進入這個領域,同時感受數學不再如此艱澀,這也是我撰寫本書時時提醒自己要留意的事項。   研究機器學習雖然有很多模組可以使用,但是如果不懂相關數學原理,坦白說筆者不會相信未來你在這個領域會有所成就,這本書講解了下列相關數學的基本知識。   ■ 資料視覺化使用matplotlib、Seaborn   ■ 基礎數學模組Math   ■ 基礎數學模組Sympy   ■ 數學應用模組Numpy   ■ 將LaTeX應用在圖表   ■ 機器學習基本觀念   ■ 從方程式到函數   ■ 方程式與機器學習   ■ 從畢氏定理看機器學習   ■ 聯立方程式與聯立不等式與機器學習   ■ 機器學習需要知道的二次函數與三次函數   ■ 數據擬合、決定係數與迴歸曲線製作   ■ 數據預測   ■ 機器學習的最小平方法   ■ 機器學習必須知道的集合與機率   ■ 機率觀念與貝式定理的運用-COVID-19的全民普篩準確性推估   ■ 筆者講解指數與對數的運算規則,同時驗證這些規則   ■ 除了講解機器學習很重要的歐拉數(Euler’s Number),更說明歐拉數的由來   ■ 認識邏輯(logistic)函數與logit函數   ■ 三角函數   ■ 大型運算子運算   ■ 向量、矩陣與線性迴歸   ■ 統計知識   ■ 機器學習模組scikit-learn,監督學習與無監督學習。   相關書籍   這本書是筆者所著機器學習系列書的起點,讀者還可以閱讀下列書籍:   機器學習   彩色圖解 + 微積分篇 + Python實作 目錄 第1 章 資料視覺化 1-1 認識mapplotlib.pyplot 模組的主要函數 1-2 繪製簡單的折線圖plot( ) 1-3 繪製散點圖scatter( ) 1-4 Numpy 模組 1-5 圖表顯示中文 1-6 長條圖與直方圖 1-7 Numpy 的指數與對數函數 第2 章 數學模組Math 和Sympy 2-1 數學模組的變數 2-2 一般函數 2-3 log( ) 函數 2-4 三角函數 2-5 Sympy 模組 第3 章 機器學習基本觀念 3-1 人工智慧、機器學習、深度學習 3-2 認識機器學習 3-3 機器學習的種類 3-4 機器學習的應用範圍 第4 章 機器學習的基礎數學 4-1 用數字描繪事物 4-2 變數觀念 4-3 從變數到函數 4-4 等式運算的規則 4-5 代數運算的基本規則 4-6 用數學抽象化開餐廳的生存條件 4-7 基礎數學的結論 第5 章 認識方程式/ 函數/ 座標圖形 5-1 認識方程式 5-2 方程式文字描述方法 5-3 一元一次方程式 5-4 函數 5-5 座標圖形分析 5-6 將線性函數應用在機器學習 第6 章 從聯立方程式看機器學習的數學模型 6-1 數學觀念建立連接兩點的直線 6-2 機器學習使用聯立方程式推估數據 6-3 從2 條直線的交叉點推估科學數據 6-4 兩條直線垂直交叉 第7 章 從畢氏定理看機器學習 7-1 驗證畢氏定理 7-2 將畢氏定理應用在性向測試 7-3 將畢氏定理應用在三維空間 7-4 將畢氏定理應用在更高維的空間 7-5 電影分類 第8 章 聯立不等式與機器學習 8-1 聯立不等式的基本觀念 8-2 聯立不等式的線性規劃 8-3 Python 計算 第9 章 機器學習需要知道的二次函數 9-1 二次函數的基礎數學 9-2 從一次到二次函數的實務 9-3 認識二次函數的係數 9-4 使用3 個點求解二次函數 9-5 二次函數的配方法 9-6 二次函數與解答區間 第10 章 機器學習的最小平方法 10-1 最小平方法基本觀念 10-2 簡單的企業實例 10-3 機器學習建立含誤差值的線性方程式 10-4 Numpy 實作最小平方法 10-5 線性迴歸 10-6 實務應用 第11 章 機器學習必須懂的集合 11-1 使用Python 建立集合 11-2 集合的操作 11-3 子集、宇集與補集 11-4 加入與刪除集合元素 11-5 冪集與Sympy 模組 11-6 笛卡兒積 第12 章 機器學習必須懂的排列與組合 12-1 排列基本觀念 12-2 有多少條回家路 12-3 排列組合 12-4 階乘的觀念 12-5 重複排列 12-6 組合 第13 章 機器學習需要認識的機率 13-1 機率基本觀念 13-2 數學機率與統計機率 13-3 事件機率名稱 13-4 事件機率規則 13-5 抽獎的機率 – 加法與乘法綜合應用 13-6 餘事件與乘法的綜合應用 13-7 條件機率 13-8 貝氏定理 13-9 蒙地卡羅模擬 13-10 Numpy 的隨機模組random 第14 章 二項式定理 14-1 二項式的定義 14-2 二項式的幾何意義 14-3 二項式展開與規律性分析 14-4 找出xn-kyk 項的係數 14-5 二項式的通式 14-6 二項式到多項式 14-7 二項分佈實驗 14-8 將二項式觀念應用在業務數據分析 14-9 二項式機率分佈Python 實作 14-10 Numpy 隨機數模組的binomial( ) 函數 第15 章 指數觀念與指數函數 15-1 認識指數函數 15-2 指數運算的規則 15-3 指數函數的圖形 第16 章 對數(logarithm) 16-1 認識對數函數 16-2 對數表的功能 16-3 對數運算可以解決指數運算的問題 16-4 認識對數的特性 16-5 對數的運算規則與驗證 第17 章 歐拉數與邏輯函數 17-1 歐拉數 17-2 邏輯函數 17-3 logit 函數 17-4 邏輯函數的應用 第18 章 三角函數 18-1 直角三角形的邊長與夾角 18-2 三角函數的定義 18-3 計算三角形的面積 18-4 角度與弧度 18-5 程式處理三角函數 18-6 從單位圓看三角函數 第19 章 基礎統計與大型

原價: 680 售價: 612 現省: 68元
立即查看