定價: | ||||
售價: | 336元 | |||
庫存: | 已售完 | |||
LINE US! | 詢問這本書 團購優惠、書籍資訊 等 | |||
此書籍已售完,調書籍需2-5工作日。建議與有庫存書籍分開下單 | ||||
付款方式: | 超商取貨付款 |
![]() |
|
信用卡 |
![]() |
||
線上轉帳 |
![]() |
||
物流方式: | 超商取貨 | ||
宅配 | |||
門市自取 |
為您推薦
類似書籍推薦給您
內容簡介 Ⓞ 16 堂課引領入門,學得會、做得順的絕佳教材! Ⓞ最詳盡的深度學習基石書,CNN + RNN + GAN + DQN + DRL 各種模型學好學滿 初學者想要自學深度學習 (Deep Learning),可以在市面上找到一大堆「用 Python 學深度學習」、「用 xxx 框架快速上手深度學習」的書;也有不少書說「請從數學複習起!」,捲起袖子好好探究底層那些數學原理......但過早切入工具的學習、理論的探究,勢必對連深度學習的概念都還一知半解的初學者形成極大的學習門檻: 「我連什麼是深度學習?它是如何呈現、被使用的?都還模模糊糊,怎麼一下子就叫我 K Python、K 建模技術、K 數學......了?」 「程式號稱再怎麼短,始終還是讓人無感,模型跑出來準確率 95.7% → 96.3%...那就是深度學習的重點?」 【精心設計循序漸進 16 堂課,帶你無痛起步!】 為了徹底解決入門學習時的混亂感,本書精心設計循序漸進的 16 堂課,將帶你「無痛起步」,迅速掌握深度學習的重點。 本書共分成 4 大篇、16 堂課。第 1 篇會利用 4 堂課 (零程式!零數學!) 帶你從深度學習在【機器視覺】、【自然語言處理】、【藝術生成】和【遊戲對局】 4 大領域的應用面看起,這 4 堂課不光是介紹,內容會安插豐富的線上互動網站,讓讀者可以實際上網操作,立刻體驗深度學習各種技術是如何呈現的。不用懂程式、啃理論,本篇適合任何人閱讀,絕對看得懂、做得順,可以對深度學習瞬間有感! 有了第 1 篇這些知識做為基礎,你就可以抱著踏實的心情跟著第 2~4 篇這 12 堂課一一學習 4 大領域背後所用的技術,包括卷積神經網路 (CNN)、循環神經網路 (RNN)、對抗式生成網路 (GAN)、深度強化式學習 (DRL)...等等。學習時我們選擇了馬上就可以動手的 Google Colab 線上開發環境搭配 tf.Keras 框架來實作,閱讀內文時請務必搭配書中提供的範例程式動手演練。期盼透過這 16 堂課的學習,能夠讓學習曲線平滑、順暢,不用迂迴曲折地浪費時間。 最後要說明的是,本書所有範例都是最精簡的版本,以方便引領讀者理解 AI 的原理。"師父領進門,修行在個人,AI 才在萌芽階段,以後海闊天空,鼓勵大家不斷精進、勇往直前!" 目錄 Part01 深度學習簡介-從應用面看起 Ch01 生物視覺與機器視覺 (Biological and Machine Vision) 1.1 生物視覺 (Biological Vision) 1.2 機器視覺 (Machine Vision) 1.3 上 TensorFlow Playground 網站體驗深度學習 1.4 上限時塗鴉 (Quick Draw!) 網站體驗即時的深度學習運算能力 1.5 總結 Ch02 用機器處理自然語言 (Natural Language Processing) 2.1 深度學習 + 自然語言處理 2.2 將語言量化 2.3 Google Duplex 的自然語言功力 2.4 總結 Ch03 機器藝術 (Machine Arts):對抗式生成網路 (Generative Adversarial Network) 概述 3.1 對抗式生成網路的源起 3.2 經由「計算」生成假的人臉 3.3 風格轉移 (Style transfer) – CycleGAN 3.4 將自己手繪的塗鴉轉換成照片 – cGAN 3.5 憑文字敘述就生成擬真圖片 – StackGAN 3.6 使用深度學習進行影像處理 3.7 總結 Ch04 遊戲對局 (Game-Playing Machines):Alpha Go、DQN (Deep Q Network)、RL (Reinforcement Learning) 概述 4.1 強化式學習 (Reinforcement Learning) 4.2 深度強化式學習 (Deep Reinforcement Learning) 4.3 深度強化式學習的應用 (一):電子遊戲 4.4 深度強化式學習的應用 (二):棋盤類遊戲 4.5 深度強化式學習在真實世界的應用:操控物體 4.6 常用的深度強化式學習模擬環境 4.7 總結 Part02 深度學習的核心概念 - 神經網路 (Neural Network) Ch05 先動手實作!5 行程式體驗神經網路模型 5.1 熟悉 Google Colab 執行環境 5.2 用 tf.Keras 套件建立淺層神經網路 5.3 總結 Ch06 神經網路的基礎:人工神經元和激活函數 6.1 認識生物神經網路 6.2 最早期的神經元:感知器 (Perceptron) 6.3 神經元的激活函數 (Activation Function) 6.4 激活函數的選擇 6.5 總結 Ch07 多神經元組成的神經網路 7.1 輸入層 (Input Layer) 7.2 密集層 (Dense Layer) 7.3 用密集神經網路辨識熱狗堡 7.4 用密集神經網路做多個速食的分類 7.5 回顧第 5 章的範例程式 7.6 總結 Ch08 訓練深度神經網路 8.1 損失函數 (Loss Function) 8.2 藉由訓練讓誤差值最小化 8.2.1 梯度下降法 (Gradient Descent) 8.2.2 學習率 (Learning rate) 8.2.3 批次量 (Batch-Size) 與隨機梯度下降法 (SGD) 8.2.4 從局部最小值 (Local Minimum) 脫離 8.3 反向傳播 (Back Propagation) 8.4 規劃隱藏層與各層神經元的數量 8.5 範例:建構多層神經網路 8.6 總結 Ch09 改善神經網路的訓練成效 9.1 權重初始化 (Weight Initialization) 9.2 解決梯度不穩定的問題 9.3 避免過度配適 (Overfitting) 的技巧 9.4 使用各種優化器 (Optimizer) 9.5 實作:用 tf.Keras 建構深度神經網路 9.6 改試試迴歸 (Regression) 範例 9.7 用 TensorBoard 視覺化判讀訓練結果 9.8 總結 Part03 深度學習的進階技術 Ch10 機器視覺實戰演練 - CNN (Convolutional Neural Network) 10.1 卷積神經網路 (CNN) 10.2 池化層 (Pooling Layer) 10.3 CNN 實作範例 (用 tf.Keras 重現 LeNet-5 經典架構) 10.4 進階的 CNN 技術 (用 tf.Keras 重現 AlexNet 與 VGGNet 架構) 10.5 殘差神經網路 (Residual Network) 10.6 機器視覺的各種應用 10.7 總結 Ch11 自然語言處理實戰演練 (一):資料預處理、建立詞向量空間 11.1 自然語言資料的預處理 11.2 用 word2vec 建立詞向量空間 11.3 總結 Ch12 自然語言處理實戰演練 (二):用密集神經網路、CNN 建立 NLP 模型 12.1 前置作業 12.2 進行簡單的資料預處理 12.3 用密集神經網路區分正評、負評 12.4 用 CNN 模型區分正評、負評 12.5 總結 Ch13 自然語言處理實戰演練 (三):RNN 循環神經網路 13.1 RNN 循環神經網路 13.2 LSTM (長短期記憶神經網路) 13.3 雙向 LSTM (Bi-LSTMs) 13.4 以「函數式 API」建構非序列式 NLP 模型 13.5 總結 Ch14 藝術生成實戰演練 - GAN (Generative Adversarial Network) 14.1 GAN 的基本概念 14.2 《限時塗鴉!》資料集 14.3 建構鑑別器 (Discriminator) 神經網路 14.4 建構生成器 (Generator) 神經網路 14.5 結合生成器與鑑別器, 建構對抗式生成網路 14.6 訓練 GAN 14.7 總結 Ch15 遊戲對局實戰演練 - DRL (Deep Reinforcement Learning)、DQN (Deep Q Network) 15.1 強化式學習 (Reinforcement Learning) 的基本概念 15.2 DQN 的基本概念 15.3 建構 DQN 代理人 15.4 與 OpenAI Gym 環境互動 15.5 DQN 以外的代理人訓練方式 15.6 總結 Part04 AI 與你 Ch16 打造自己的深度學習專案 16.1 探索方向 16.2 晉升更高階的專案 16.3 模型建構流程建議 16.4 軟體 2.0 (Software 2.0) 16.5 通用人工智慧 (AGI) 的進展 16.6 總結 附錄 A 使用 Google 的 Colab 雲端開發環境
類似書籍推薦給您
機器學習的統計基礎:深度學習背後的核心技術 ISBN13:9789863126744 出版社:旗標出版社 作者:黃志勝 裝訂/頁數:平裝/432頁 規格:23cm*17cm*2.5cm (高/寬/厚) 版次:1 出版日:2021/11/15 中國圖書分類:特殊電腦方法 內容簡介 「作者在上市 IC 公司上班,每天面對 real world problems。探索如何建立輕量深度學習網路以及發展更有效率的學習方式是他每天的工作。這是一本學理及實務兼具的好工具書。」 - 中央研究院資訊科學研究所所長 廖弘源博士 推薦 [搭起 AI 與統計的橋樑] 原本統計學與人工智慧是兩個完全不同的領域,然而兩者在近代都有了新的發展進而產生連結。在人工智慧中導入機率與統計的觀念,讓電腦具有自己找出數據之間的關聯性並試圖解決問題的能力,因而出現機器學習 (machine learning) ,再加上電腦計算能力的大幅提升,解決多層類神經網路和大數據之間聯繫性的可能,進而衍生出現今最熱門的深度學習 (deep learning)。 不過,大部分電腦相關科系出身的人並不熟悉統計學,因此在更上一層樓的時候容易遇到障礙。有鑒於此,小編在推出《機器學習的數學基礎》(天瓏專業書店年度暢銷第一名) 一書之後,就積極開發 AI 與統計學相關的書籍。在尋尋覓覓之後請到擅長統計與機器學習的黃志勝博士出馬撰寫《機器學習的統計基礎》,首要之務就是讓讀者不要視統計為畏途,因此在書中設計大量範例以降低學習難度,務求讀得懂、做得出來才容易吸收,進而搭好統計與機器學習的橋樑。如果自覺數學已經還給老師了也不用擔心,可以將本書搭配《機器學習的數學基礎》一併完整學習。 [學會統計,由混亂到清晰] 本書從讀者在高中就學過的集合與機率論開始,帶您快速複習一遍,並將容易混淆之處多多舉例說明,並將以前似懂非懂的隨機變數、機率分布等觀念再解釋得更清楚。接下來就進入專有名詞特別多的統計學,這也是造成許多人暈頭轉向之處。特別是樣本估計、信賴區間、顯著水準、信心水準、t-分布、假設檢定...等讓人一個頭兩個大的主題,更是務求清楚明瞭。當然本書不可能把完整的統計學全都搬進來,此處只介紹機器學習、深度學習需要用到的統計基礎知識,縮短您的學習時間。 然後就進入機器學習的重頭戲,從資料前處理到迴歸、分類模型的建立,以及當數據的特徵數過多時的 PCA、LDA 統計降維法。從類神經網路開始進入深度學習的範疇,包括前向傳遞、梯度下降法與倒傳遞學習法的手算實作,幫助讀者一步步建立深度學習的演算邏輯,並利用參數常規化解決模型過擬合 (over-fitting) 的問題。最後,導入模型評估,例如二元、多元分類模型評估指標、迴歸模型評估指標、4 種交叉驗證的方法,做為判斷模型好壞的參考依據。 相信讀者認真看完本書後,一定能建立起機器學習結合統計學的硬底子。當然這只是開端,期望讀者以本書為基石繼續前行。 本書特色 1. 打好機率與統計的基礎,快速釐清讓人容易暈頭轉向的統計理論。 2. 藉由大量範例說明,務求讀得懂、做得出來,才容易吸收。 3. 作者提供專屬讀者天地,以及機器學習方面的文章供後續學習。 目錄 第 1 章 機器與深度學習常用的數學基礎 1.1 數值資料表示方式 1.1.1 純量 (scalar) 1.1.2 向量 (vector) 1.1.3 矩陣 (matrix) 1.1.4 張量 (tensor) 1.2 向量與矩陣運算 1.2.1 向量和純量相乘 1.2.2 向量相乘 1.2.3 矩陣相乘 1.2.4 Hadamard 乘積 1.2.5 逆矩陣 (反矩陣) 1.3 矩陣分解 1.3.1 特徵分解 (Eigenvalue decomposition) 1.3.2 奇異值分解 (SVD) 第 2 章 機器學習相關機率論 2.1 集合 2.2 隨機試驗與樣本空間 2.2.1 隨機試驗範例 2.2.2 隨機試驗與公正與否 2.3 事件 2.3.1 基本事件與複合事件 2.3.2 事件空間 2.4 事件的機率 2.4.1 事件機率三大公理 2.4.2 事件機率相同的例子 2.4.3 事件機率不同的例子 2.4.4 事件機率運算規則 2.5 條件機率與貝氏定理 2.5.1 條件機率 2.5.2 貝氏定理 2.5.3 統計獨立 2.6 隨機變數 2.6.1 隨機變數的類型 2.6.2 多維隨機變數 2.7 機率分布與機率密度函數 2.7.1 機率分布 2.7.2 數位化都是離散型的隨機變數 2.7.3 一維機率密度函數 2.7.4 多維機率密度函數 (聯合機率密度函數) 2.7.5 邊際機率密度函數 2.8 機器學習常用到的統計機率模型 2.8.1 伯努利分布 (Bernoulli Distribution) 2.8.2 二項分布 (Binomial Distribution) 2.8.3 均勻分布 (Uniform Distribution) 2.8.4 常態分布 (Normal Distribution) 第 3 章 機器學習常用的統計學 (一) 3.1 資料結構分類 3.1.1 「正確的資料」與「好品質的資料」 3.1.2 結構化資料 3.1.3 非結構化資料 3.1.4 半結構化資料 3.2 將統計量作為資料的特徵表徵 3.2.1 期望值 3.2.2 各階中心動差 3.2.3 相關係數與共變異數 3.2.4 共變異數矩陣 第 4 章 機器學習常用的統計學 (二) 4.1 母體與樣本估計 4.1.1 樣本統計量與抽樣分布 4.1.2 樣本平均數的期望值等於母體平均數 4.1.3 樣本變異數的期望值等於母體變異數 4.1.4 小結 4.2 信賴區間 4.2.1 信賴區間與顯著水準、信心水準的關係 4.3 母體為常態分布的區間估計 4.31 常態分布的特性 4.3.2 將常態分布標準化:z-score 4.3.3 標準常態分布平均值的區間估計 4.3.4 每次抽樣都有不同的信賴區間 4.3.5 信賴區間的用途 4.4 自由度 (Degree of Freedom) 4.5 t-分布 (t-distribution) 4.5.1 t 值 (t-score):母體為常態,但標準差未知的情況 4.5.2 t 值與 z 值的關係 4.5.3 t-分布:隨機變數 t 的機率分布 4.6 抽樣數的選擇 4.6.1 母體數有無限個的情況 4.6.2 有限母體數的修正 4.7 假設檢定 4.7.1 假設檢定的預備知識 4.7.2 虛無假設、對立假設 4.7.3 檢定虛無假設成立的機率 4.7.4 計算橫軸上的 t 值 4.7.5 計算 p 值 第 5 章 機器學習常用的資料處理方式 5.1 資料標準化 5.1.1 Z 值標準化 5.1.2 Min-max 正規化 5.2 資料縮放 5.3 非線性轉換 5.3.1 對數函數能將數值範圍縮小 5.3.2 指數函數將數值轉換到特定範圍 5.3.3 非線性轉換較少用於資料前處理的原因 5.4 類別變數編碼 5.4.1 One-hot encoding ...
類似書籍推薦給您
【簡介】 『數學 ╳ 深度學習 ╳ Python 三效合一』 深度學習用一句話就可以講完:『用訓練的方式找出一個數學函數,將輸入的資料映射到正確的答案』。重點就在於你如何找出那個對的數學函數!本書將深度學習的數學模型與運算式推導出來之後,還能實際執行 Python 程式幫助瞭解整個運算的過程。 『打開機器學習的黑箱,才發現裏面全都是數學!』 我們常在機器學習 / 深度學習的文章或書中看到線性迴歸、二元分類、多類別分類、和深度學習等名詞,好像要學很多東西!當然,對不懂數學的人確實如此。不過,一旦您理解深度學習底層的數學原理,就會發現原來架構稍微變一下,函數換一下,其實都是系出同門,一通百通啊。 要具備這種能力,你必須會微積分、向量/矩陣運算、多變數函數偏微分、指數/對數函數、以及機率/統計。這些在學校都要花很長的時間學習,然而本書考量到您並非想成為數學家或統計學家,因此從中摘取對深度學習最重要的部分濃縮在前半部,幫助您用最短的時間快速掌握數學能力。 本書是由施威銘研究室監修,適時加上「編註」補充內容幫助理解。如果您行有餘力,還可以繼續閱讀《機器學習的數學基礎:AI、深度學習打底必讀》一書,裏面有更詳細的數學公式推導。 『真正循序漸進,不會一下跳太快』 本書的一大特色就是每一步只增加一點差異,不會跳得太快。從線性迴歸模型開始,加入 Sigmoid 激活函數 (啟動函數) 就變成二元分類模型,然後將 Sigmoid 換成 Softmax 函數就擴展到多類別分類模型。然後在深度學習,先從一層隱藏層開始推導與實作,並因應需要調整學習率、改用 ReLU 函數等方法改善準確率。並進而擴展到兩層隱藏層,讓模型更加準確。小編真心認為,這樣的編排方式,讓讀者從既有的基礎逐步墊高實力,相當有利於學習,等您跟著本書走過一遍,自然就能心領神會。 本書隨附『數學快查學習地圖』彩色拉頁,將書中用到的各項數學基礎之間的關係整理成表,幫助您用一張圖看懂本書架構,甚至可裁剪下來隨時參考。作者在 Github 提供 Jupyter Notebook 格式的範例程式,另外您也可以從旗標官網下載 Python 範例程式。 【目錄】 [導入篇 機器學習快速指引] 第 1 章 機器學習入門 1.1 何謂機器學習 1.1.1 何謂機器學習模型 1.1.2 機器學習的訓練方法 1.1.3 監督式學習的迴歸、分類模型 1.1.4 訓練階段與預測階段 1.1.5 損失函數與梯度下降法 1.2 第一個機器學習模型:簡單線性迴歸模型 1.3 本書討論的機器學習模型 1.4 數學是深度學習的核心 1.5 本書架構 [理論篇 數學速學課程] 第 2 章 微分、積分 2.1 函數 2.1.1 函數運作行為 2.1.2 函數的圖形 2.2 合成函數與反函數 2.2.1 合成函數 專欄 合成函數的表示法 2.2.2 反函數 2.3 微分與極限 2.3.1 微分的定義 2.3.2 函數值增量與微分的關係 2.3.3 切線方程式 專欄 切線方程式與訓練階段、預測階段的關係 2.4 極大值與極小值 2.5 多項式的微分 2.5.1 x^n 的微分(n 是正整數) 2.5.2 微分計算的線性關係與多項式的微分 2.5.3 x^r 的微分(r 是實數) 專欄 組合(Combination)與二項式定理 2.6 兩個函數相乘的微分 2.7 合成函數的微分 2.7.1 用鏈鎖法則做合成函數微分 2.7.2 反函數的微分 2.8 兩個函數相除的微分 2.9 積分 專欄 積分符號的意思 第 3 章 向量、矩陣 3.1 向量入門 3.1.1 何謂向量 3.1.2 向量的標記法 3.1.3 向量的分量 3.1.4 往多維擴展 3.1.5 分量的符號 3.2 向量和、向量差、純量乘積 3.2.1 向量和 3.2.2 向量差 3.2.3 向量與純量的乘積 3.3 向量的長度(絕對值)與距離 3.3.1 向量的長度(絕對值) 3.3.2 Σ 可整合冗長的加法算式 3.3.3 向量間的距離 3.4 三角函數 3.4.1 三角比 : 三角函數的基本定義 3.4.2 單位圓上的座標 3.4.3 三角函數的圖形 3.4.4 用三角函數表示直角三角形的邊長 3.5 向量內積 3.5.1 向量內積的幾何定義 3.5.2 用分量來表示內積公式 3.6 餘弦相似性 3.6.1 兩個二維向量的夾角 3.6.2 n 維向量的餘弦相似性 專欄 餘弦相似性的應用範例 3.7 矩陣運算 3.7.1 一個輸出節點的內積表示法 3.7.2 三個輸出節點的矩陣相乘 第 4 章 多變數函數的微分 4.1 多變數函數 4.2 偏微分 4.3 全微分 4.4 全微分與合成函數 4.5 梯度下降法(GD) 專欄 梯度下降法與局部最佳解 第 5 章 指數函數、對數函數 5.1 指數函數 5.1.1 連乘的定義與公式 5.1.2 連乘觀念的推廣 5.1.3 將連乘寫成指數函數形式 5.2 對數函數 專欄 對數函數的意義 5.3 對數函數的微分 專欄 用 Python 來計算尤拉數 e 5.4 指數函數的微分 專欄 以 e 為底的指數函數也可用 exp 表示 5.5 Sigmoid 函數 5.6 Softmax 函數 專欄 Sigmoid 和 Softmax 函數的關係 第 6 章 機率、統計 6.1 隨機變數與機率分佈 6.2 機率密度函數與累積分佈函數 專欄 Sigmoid 函數的機率密度函數 6.3 概似函數與最大概似估計法 專欄 為何概似函數的極值是求最大值,而不是最小值? [實踐篇 機器學習、深度學習實作] 第 7 章 線性迴歸模型(迴歸) 7.1 損失函數的偏微分與梯度下降法 7.2 範例問題設定 7.3 訓練資料與預測值的數學符號標示法 7.4 梯度下降法的概念 7.5 建立預測模型 7.6 建立損失函數 7.7 損失函數的微分 7.8 梯度下降法之運用 7.9 程式實作 專欄 使用 NumPy 7.10 推廣到多元線性迴歸模型 專欄 學習率與迭代運算次數的調整方法 第 8 章 邏輯斯迴歸模型(二元分類) 8.1 範例問題設定 8.2 線性迴歸模型與分類模型的差異 8.3 針對預測模型之討論 專欄 將預測值轉換成機率的意義 8.4 損失函數(交叉熵 Cross entropy) 8.5 損失函數的微分計算 8.6 梯度下降法的運用 8.7 程式實作 專欄 scikit-learn 三種模型的比較 專欄 交叉熵以及熱愛足球的國王們的煩惱 第 9 章 邏輯斯迴歸模型(多類別分類) 9.1 範例問題設定 9.2 建立模型的基本概念 9.3 權重矩陣 9.4 Softmax 函數 9.5 損失函數 9.6 損失函數的微分計算 9.7 梯度下降法的運用 9.8 程式實作 專欄 聚合函數 axis 參數的作用 第 10 章 深度學習 10.1 範例問題設定 10.2 模型的架構與預測函數 10.3 損失函數 10.4 損失函數的微分 10.5 反向傳播 10.6 梯度下降法的運用 10.7 程式實作一:原始版本 10.8 程式實作二:調整權重矩陣初始值的版本 10.9 程式實作三:更換激活函數為 ReLU 的版本 10.10 程式實作四:隱藏層增加為 2 層的版本 [發展篇 實務上的解決方法] 第11 章 以實用的深度學習為目標 11.1 善用開發框架 11.2 卷積神經網路(CNN) 11.3 循環神經網路(RNN)與長短期記憶(LSTM) 11.4 數值微分 11.5 優化的學習法 11.6 過度配適解決方法 11.7 每次訓練的資料量(批量) 11.8 權重矩陣的初始化 11.9 目標下一座山頭 附錄 Jupyter Notebook 開發工具 A.1 啟動 Jupyter Notebook A.2 試寫一個程式 A.3 將檔案輸出成單純的 Python 檔