書名: CNN:A PARADIGM FOR COMPLEXITY 1998
作者: L.O.CHUA
ISBN: 9789810234836
出版社: World Scientific (WS)
書籍開數、尺寸: 25.7x17.5x2
頁數: 332
定價: 3590
售價: 3590
庫存: 已售完
LINE US!
此書為本公司代理,目前已售完,有需要可以向line客服詢問進口動向

付款方式: 超商取貨付款 line pay
信用卡 全支付
線上轉帳 Apple pay
物流方式: 超商取貨
宅配
門市自取

為您推薦

我們改變世界─CNN全球化之路 (We Changed the World- Memoirs of a Satellite Pioneer )

我們改變世界─CNN全球化之路 (We Changed the World- Memoirs of a Satellite Pioneer )

類似書籍推薦給您

原價: 500 售價: 450 現省: 50元
立即查看
新一代 Keras 3.x 重磅回歸:跨 TensorFlow 與 PyTorch 建構 Transformer、CNN、RNN、LSTM 深度學習模型 (1版)

新一代 Keras 3.x 重磅回歸:跨 TensorFlow 與 PyTorch 建構 Transformer、CNN、RNN、LSTM 深度學習模型 (1版)

類似書籍推薦給您

【簡介】 ✧✦第一本 Keras 3 深度學習入門書✦✧ ✧✦一本搞定影像辨識與自然語言處理✦✧ ✧✦先圖解、再實作、而後實務應用✦✧ 本書以淺顯易懂的方式與大量圖例介紹深度學習的理論基礎,並使用 Keras 3 來建構 MLP、CNN、RNN、LSTM、GRU、Transformer 模型,實作多種熱門分類、迴歸問題,最後再介紹資料預處理、超參數調整、預訓練模型的遷移學習等,讓讀者能夠應對未來的實務應用。 深度學習是一種實現機器學習的技術,能夠使用模仿人類大腦功能的「類神經網路」,訓練模型從大量資料中學習,進而處理如視覺、聽覺等感知問題。 而 Keras 3 是 Keras 的重磅回歸,這是架構在 TensorFlow 和 PyTorch 等後台框架上的高階前端函式庫,可以讓使用者輕鬆取得不同後台框架的優點,來打造出最佳的神經網路模型。 書中內容包含:普遍應用於影像辨識的 CNN、善於處理序列資料的 LSTM,還有近幾年爆紅、多被應用於自然語言、語音或音樂資料的 Transformer 模型,以及基於 Transformer 的 BERT 和 GPT 等大型語言模型的應用,還有結合文字與圖像的 StableDiffusion 文字生圖等豐富內容。 除了講述深度學習理論基礎之外,還提供大量實作範例: ☛ MLP 多層感知器 - 疾病預測、房價預測的迴歸問題 ☛ CNN 卷積神經網路 - 手寫辨識、彩色圖片辨識 ☛ RNN 循環神經網路、GRU 閘門循環單元神經網路 - 影評的情緒分析 ☛ LSTM 長短期記憶神經網路 - 股價預測、新聞主題分類 ☛ Transformer 模型 - 文字的情感分析、語言翻譯 以及預訓練模型與遷移學習: ☛ CV 電腦視覺 - ResNet50 圖片分類、YOLO 物體偵測、StableDiffusion 文字生圖 ☛ NLP 自然語言處理 - BERT 情感分析、GPT-2 唐詩生成 還有 AE 自編碼器、Functional API 客製化神經網路、AutoML 自動調校模型超參數等多種主題等著你來學習! 本書特色: ✓ 跨 TensorFlow 和 PyTorch 的 Keras 開發環境 ✓ 人工智慧、機器學習、深度學習的理論基礎 ✓ 從最根本的感知器、到當紅的 Transformer 模型 ✓ 逐步建構並調校自己的神經網路模型 ✓ 影像、文字資料的預處理與模型視覺化 ✓ YOLO、StableDiffusion 等電腦視覺模型的應用 ✓ BERT、GPT 等大型預訓練模型的遷移學習 ✓ 打造支援 GPU 的 Keras 開發環境 【目錄】 目錄: ▍第一篇 人工智慧與深度學習的基礎 第 1 章 認識人工智慧與機器學習 1-1 人工智慧概論 1-2 認識機器學習 1-3 機器學習的種類 第 2 章 建構跨 TensorFlow 和 PyTorch 的 Keras 開發環境 2-1 認識 TensorFlow、PyTorch 與 Keras 2-2 建立與管理 Python 虛擬環境 2-3 建構 Python 深度學習的開發環境 2-4 使用 Spyder 整合開發環境 2-5 Jupyter Notebook 基本使用 2-6 使用 Google Colaboratory 雲端服務 第 3 章 深度學習的基礎 3-1 認識深度學習 3-2 深度學習的基礎知識 3-3 深度學習的神經網路 – 建構你的計算圖 3-4 深度學習的資料 – 張量 ▍第二篇 多層感知器 – 迴歸與分類問題 第 4 章 圖解神經網路 – 多層感知器 (MLP) 4-1 線性不可分問題 4-2 認識多層感知器 (MLP) 4-3 神經網路的學習過程 – 正向與反向傳播 4-4 啟動函數與損失函數 4-5 反向傳播演算法與梯度下降法 4-6 神經網路的樣本和標籤資料 第 5 章 打造你的神經網路 – 多層感知器 5-1 如何使用 Keras 打造神經網路 5-2 打造分類問題的神經網路:糖尿病預測 5-3 認識線性迴歸 5-4 打造迴歸問題的神經網路:波士頓房價預測 5-5 儲存與載入神經網路模型 第 6 章 多層感知器的實作案例 6-1 實作案例:鳶尾花資料集的多元分類 6-2 實作案例:鐵達尼號資料集的生存分析 6-3 實作案例:加州房價預測的迴歸問題 ▍第三篇 卷積神經網路 – 電腦視覺 第 7 章 圖解卷積神經網路 (CNN) 7-1 影像資料的穩定性問題 7-2 卷積運算與池化運算 7-3 認識卷積神經網路 CNN 7-4 卷積層 7-5 池化層與 Dropout 層 7-6 打造你的卷積神經網路 第 8 章 打造你的卷積神經網路 8-1 認識 MNIST 手寫數字資料集 8-2 使用 MLP 打造 MNIST 手寫辨識 8-3 使用 CNN 打造 MNIST 手寫辨識 8-4 MNIST 手寫辨識的預測結果 第 9 章 卷積神經網路的實作案例 9-1 實作案例:辨識 CIFAR-10 資料集的彩色圖片 9-2 實作案例:使用 MLP 或 CNN 實作自編碼器 9-3 實作案例:使用 CNN 自編碼器去除圖片的雜訊 ▍第四篇 循環神經網路 – 自然語言處理 第 10 章 圖解 RNN、LSTM 和 GRU 神經網路 10-1 認識序列資料 10-2 自然語言處理的基礎 10-3 循環神經網路 (RNN) 10-4 長短期記憶神經網路 (LSTM) 10-5 閘門循環單元神經網路 (GRU) 10-6 文字資料向量化 Text Data Vectorization 第 11 章 打造你的循環神經網路 11-1 認識 IMDb 網路電影資料集 11-2 資料預處理與 Embedding 層 11-3 使用 MLP 和 CNN 打造 IMDb 情緒分析 11-4 如何使用 Keras 打造循環神經網路 11-5 使用 RNN、LSTM 和 GRU 打造 IMDb 情緒分析 11-6 堆疊 CNN 和 LSTM 打造 IMDb 情緒分析 第 12 章 循環神經網路的實作案例 12-1 實作案例:使用 LSTM 打造 MNIST 手寫辨識 12-2 實作案例:使用 LSTM 模型預測 Google 股價 12-3 實作案例:Reuters 路透社資料集的新聞主題分類 ▍第五篇 建構出你自己的深度學習模型 第 13 章 訓練資料、預處理層與神經層資訊 13-1 多種資料來源的訓練資料 13-2 取得神經層資訊與中間層視覺化 13-3 載入文字檔資料集與文字預處理層 13-4 載入圖檔資料集與圖片預處理層 13-5 資料增強的圖片增強層 13-6 實作案例:在 Keras 模型使用圖片預處理層與增強層 第 14 章 調校你的深度學習模型 14-1 識別出模型的過度擬合問題 14-2 避免低度擬合與過度擬合 14-3 加速神經網路的訓練:選擇優化器 14-4 加速神經網路的訓練:批次正規化 14-5 在正確的時間點停止模型訓練 14-6 在模型訓練時自動儲存最佳權重 14-7 自動調校神經網路模型的超參數:KerasTuner 第 15 章 預訓練模型與遷移學習 15-1 Keras 預訓練模型的圖片分類 15-2 KerasCV 的 YOLO 物體偵測與 StableDiffusion 文生圖 15-3 KerasNLP 的 GPT-2 生成文字與 BERT 情感分析 15-4 認識遷移學習 15-5 實作案例:MNIST 手寫辨識的遷移學習 15-6 實作案例:Keras 預訓練模型的遷移學習 第 16 章 Functional API、客製化神經網路與 Transformer 模型 16-1 深度學習模型視覺化 16-2 再談 Functional API 16-3 共享層模型與多輸入 / 多輸出模型 16-4 客製化 Keras 神經網路 16-5 認識 Seq2Seq 模型與 Transformer 模型 16-6 實作案例:Transformer 情感分析與英譯中 16-7 實作案例:微調 KerasNLP 的 GPT-2 生成唐詩 ▍電子書 附錄 A Python 程式語言與開發環境建立 A-1 Python 開發環境的建立 A-2 變數、資料型別與運算子 A-3 流程控制 A-4 函式、模組與套件 A-5 容器型別 A-6 類別與物件 附錄 B 使用 WSL 2 安裝支援 GPU 的 Keras 與 KerasNLP 開發環境 B-1 安裝 WSL 2、終端機與 Linux 子系統 B-2 在 Linux 子系統安裝 Anaconda B-3 建立支援 GPU 的 Keras 與 KerasNLP 開發環境 B-4 使用 Jupyter Notebook 測試 GPU 開發環境

原價: 750 售價: 675 現省: 75元
立即查看
跟 NVIDIA 學深度學習!從基本神經網路到 CNN‧RNN‧LSTM‧seq2seq‧Transformer‧GPT‧BERT...,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎 (1版)

跟 NVIDIA 學深度學習!從基本神經網路到 CNN‧RNN‧LSTM‧seq2seq‧Transformer‧GPT‧BERT...,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎 (1版)

類似書籍推薦給您

內容介紹 ▍AI 界扛霸子 NVIDIA 的深度學習 (Deep Learning) 指定教材! ▍GPT、Transformer、seq2seq、self-attention 機制...大型語言模型 (LLM) 背後的先進技術「硬派」揭密! 近年來,在 NVIDIA (輝達) GPU、CUDA 技術的推波助瀾下,深度學習 (Deep Learning) 領域有著爆炸性的成長,例如最為人知的 ChatGPT 正是運用深度學習技術開發出來的當紅應用。 【★學深度學習,跟 AI 重要推手 - NVIDIA 學最到位!】 除了硬體上的助益外,為了幫助眾多初學者快速上手深度學習,任職於 NVIDIA 的本書作者 Magnus Ekman 凝聚了他多年來在 NVIDIA 所積累的 AI 知識撰寫了本書。除了介紹深度學習基礎知識外,也包括此領域的最新重要進展。本書同時也是 NVIDIA 的教育和培訓部門 -【深度學習機構 (Deep Learning Institute, DLI)】 指定的培訓教材 (https://www.nvidia.com/zh-tw/training/books/)。 要學深度學習,跟深度學習的重要推手 NVIDIA 學就對了!眾多紮實的內容保證讓你受益滿滿! 【★機器視覺、生成式 AI 語言模型 100% 從零開始打造!】 在深度學習的教學上,本書將從神經網路的底層知識 (梯度下降、反向傳播...) 介紹起,帶你打好深度學習的底子。接著會介紹用 Colab 雲端開發環境 + tf.Keras 建構、調校多層神經網路,以及經典的 CNN (卷積神經網路) 圖形辨識模型建構...等機器視覺主題。最後則邁入自然語言處理 (NLP) 領域,在介紹完基本的 RNN / LSTM 知識後,以先進的 Transformer、GPT...語言模型架構做結。 尤其自從 ChatGPT 爆紅之後,自然語言處理 (NLP) 一直是深度學習的熱門研究話題,而這部分正是本書最精彩之處! RNN / LSTM 神經網路雖然問世已有一段時間,現今一些先進的 NLP 模型或許不會用它們來建構,但由它們衍生出來的 hidden state (隱藏狀態) 概念可說是重中之重,我們會帶你好好熟悉,以便能跟後續章節順利銜接上。 之後則會利用各種神經網路技術帶你實作【多國語言翻譯模型】、【Auto-Complete 文字自動完成模型】...等範例。從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎。 令小編最印象深刻的是,本書所設計的 NLP 章節內容可說是「環環相扣」,從 RNN / LSTM 章節初次觸及 NLP 模型開始,次一章的模型架構幾乎都是為了解決前一章模型的特定問題而生的。這種層層舖墊的獨到方式能讓你深刻理解 RNN / LSTM / seq2seq / encoder-decoder / attention / self-attention 機制...等技術的發展脈絡,對於看懂 Transformer、GPT 等最先進的神經網路技術有莫大的幫助,這絕對是其他書看不到的精彩內容! 本書特色 □【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】 GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (positional encoding)、預訓練 (pre-train)、微調 (fine-tune)...各種建模技術輕鬆搞懂! □【生成式 AI 語言模型 100% 從零開始打造!】 ‧用 Colab + tf.Keras 實作多國語言翻譯模型、Auto-Complete 文字自動完成模型 ‧從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎 □【深度學習基礎知識學好學滿】 ‧紮穩根基!不被損失函數 / 梯度下降 / 反向傳播 / 正規化 / 常規化…一拖拉庫技術名詞搞的暈頭轉向! ‧深度神經網路基礎 / CNN / RNN / LSTM...概念詳解。 ‧多模態學習 (multimodal learning)、多任務學習 (multitask learning)、自動化模型架構搜尋...熱門主題介紹。 □詳細解說, 流暢翻譯 本書由【施威銘研究室】監修, 書中針對原書進行大量補充, 並適當添加註解, 幫助讀者更加理解內容! 書籍目錄 Ch01 從感知器看神經網路的底層知識 1-1 最早的人工神經元 - Rosenblatt 感知器 1-2 增加感知器模型的能力 1-3 用線性代數實現神經網路模型 Ch02 梯度下降法與反向傳播 2-1 導數的基礎概念 2-2 以梯度下降法 (gradient descent) 對模型訓練問題求解 2-3 反向傳播 (back propagation) Ch03 多層神經網路的建立與調校 3-1 動手實作:建立辨識手寫數字的多層神經網路 3-2 改善神經網路的訓練成效 3-3 實驗:調整神經網路與學習參數 Ch04 用卷積神經網路 (CNN) 進行圖片辨識 4-1 卷積神經網路 (CNN) 4-2 實作:以卷積神經網路做圖片分類 4-3 更深層的 CNN 與預訓練模型 Ch05 用循環神經網路 (RNN、LSTM...) 處理序列資料 5-1 RNN 的基本概念 5-2 RNN 範例:預測書店銷售額 5-3 LSTM (長短期記憶神經網路) 5-4 LSTM 範例:文字的 Auto-Complete 機制 Ch06 自然語言處理的重要前置工作:建立詞向量空間 6-1 詞向量空間的基本知識 6-2 做法(一):在神經網路建模過程中「順便」生成詞向量空間 6-3 做法(二):以 word2vec、GloVe 專用演算法生成詞向量空間 Ch07 用機器翻譯模型熟悉 seq2seq 架構 7-1 機器翻譯模型的基本知識 7-2 機器翻譯的範例實作 7-2-1 tf.Keras 函數式 API 簡介 7-2-2 建構模型前的工作 7-2-3 建構模型 7-2-4 訓練及測試模型 7-2-5 實驗結果 Ch08 認識 attention 與 self-attention 機制 8-1 熟悉 attention 機制 8-2 認識 self-attention 機制 8-2-1 self-attention 的基本概念 8-2-2 self-attention 機制的算法 8-2-3 multi-head (多頭) 的 self-attention 機制 Ch09 Transformer、GPT 及其他衍生模型架構 9-1 Transformer 架構 9-1-1 編碼器端的架構 9-1-2 解碼器端的架構 9-1-3 Transformer 內的其他設計 9-1-4 小編補充:觀摩 keras 官網上的 Transformer 範例 9-2 Transformer 架構的衍生模型:GPT、BERT 9-2-1 認識 GPT 模型 9-2-2 認識 BERT 模型 9-2-3 其他從 Transformer 衍生出的模型 附錄 A 延伸學習 (一):多模態、多任務...等模型建構相關主題 附錄 B 延伸學習 (二):自動化模型架構搜尋 附錄 C 延伸學習 (三):後續學習方向建議 附錄 D 使用 Google 的 Colab 雲端開發環境

原價: 880 售價: 792 現省: 88元
立即查看
深度學習的16堂課:CNN + RNN + GAN + DQN + DRL,看得懂、學得會、做得出!

深度學習的16堂課:CNN + RNN + GAN + DQN + DRL,看得懂、學得會、做得出!

類似書籍推薦給您

內容簡介 Ⓞ 16 堂課引領入門,學得會、做得順的絕佳教材! Ⓞ最詳盡的深度學習基石書,CNN + RNN + GAN + DQN + DRL 各種模型學好學滿   初學者想要自學深度學習 (Deep Learning),可以在市面上找到一大堆「用 Python 學深度學習」、「用 xxx 框架快速上手深度學習」的書;也有不少書說「請從數學複習起!」,捲起袖子好好探究底層那些數學原理......但過早切入工具的學習、理論的探究,勢必對連深度學習的概念都還一知半解的初學者形成極大的學習門檻:   「我連什麼是深度學習?它是如何呈現、被使用的?都還模模糊糊,怎麼一下子就叫我 K Python、K 建模技術、K 數學......了?」   「程式號稱再怎麼短,始終還是讓人無感,模型跑出來準確率 95.7% → 96.3%...那就是深度學習的重點?」   【精心設計循序漸進 16 堂課,帶你無痛起步!】   為了徹底解決入門學習時的混亂感,本書精心設計循序漸進的 16 堂課,將帶你「無痛起步」,迅速掌握深度學習的重點。   本書共分成 4 大篇、16 堂課。第 1 篇會利用 4 堂課 (零程式!零數學!) 帶你從深度學習在【機器視覺】、【自然語言處理】、【藝術生成】和【遊戲對局】 4 大領域的應用面看起,這 4 堂課不光是介紹,內容會安插豐富的線上互動網站,讓讀者可以實際上網操作,立刻體驗深度學習各種技術是如何呈現的。不用懂程式、啃理論,本篇適合任何人閱讀,絕對看得懂、做得順,可以對深度學習瞬間有感!   有了第 1 篇這些知識做為基礎,你就可以抱著踏實的心情跟著第 2~4 篇這 12 堂課一一學習 4 大領域背後所用的技術,包括卷積神經網路 (CNN)、循環神經網路 (RNN)、對抗式生成網路 (GAN)、深度強化式學習 (DRL)...等等。學習時我們選擇了馬上就可以動手的 Google Colab 線上開發環境搭配 tf.Keras 框架來實作,閱讀內文時請務必搭配書中提供的範例程式動手演練。期盼透過這 16 堂課的學習,能夠讓學習曲線平滑、順暢,不用迂迴曲折地浪費時間。   最後要說明的是,本書所有範例都是最精簡的版本,以方便引領讀者理解 AI 的原理。"師父領進門,修行在個人,AI 才在萌芽階段,以後海闊天空,鼓勵大家不斷精進、勇往直前!"  目錄 Part01 深度學習簡介-從應用面看起 Ch01 生物視覺與機器視覺 (Biological and Machine Vision) 1.1 生物視覺 (Biological Vision) 1.2 機器視覺 (Machine Vision) 1.3 上 TensorFlow Playground 網站體驗深度學習 1.4 上限時塗鴉 (Quick Draw!) 網站體驗即時的深度學習運算能力 1.5 總結 Ch02 用機器處理自然語言 (Natural Language Processing) 2.1 深度學習 + 自然語言處理 2.2 將語言量化 2.3 Google Duplex 的自然語言功力 2.4 總結 Ch03 機器藝術 (Machine Arts):對抗式生成網路 (Generative Adversarial Network) 概述 3.1 對抗式生成網路的源起 3.2 經由「計算」生成假的人臉 3.3 風格轉移 (Style transfer) – CycleGAN 3.4 將自己手繪的塗鴉轉換成照片 – cGAN 3.5 憑文字敘述就生成擬真圖片 – StackGAN 3.6 使用深度學習進行影像處理 3.7 總結 Ch04 遊戲對局 (Game-Playing Machines):Alpha Go、DQN (Deep Q Network)、RL (Reinforcement Learning) 概述 4.1 強化式學習 (Reinforcement Learning) 4.2 深度強化式學習 (Deep Reinforcement Learning) 4.3 深度強化式學習的應用 (一):電子遊戲 4.4 深度強化式學習的應用 (二):棋盤類遊戲 4.5 深度強化式學習在真實世界的應用:操控物體 4.6 常用的深度強化式學習模擬環境 4.7 總結 Part02 深度學習的核心概念 - 神經網路 (Neural Network) Ch05 先動手實作!5 行程式體驗神經網路模型 5.1 熟悉 Google Colab 執行環境 5.2 用 tf.Keras 套件建立淺層神經網路 5.3 總結 Ch06 神經網路的基礎:人工神經元和激活函數 6.1 認識生物神經網路 6.2 最早期的神經元:感知器 (Perceptron) 6.3 神經元的激活函數 (Activation Function) 6.4 激活函數的選擇 6.5 總結 Ch07 多神經元組成的神經網路 7.1 輸入層 (Input Layer) 7.2 密集層 (Dense Layer) 7.3 用密集神經網路辨識熱狗堡 7.4 用密集神經網路做多個速食的分類 7.5 回顧第 5 章的範例程式 7.6 總結 Ch08 訓練深度神經網路 8.1 損失函數 (Loss Function) 8.2 藉由訓練讓誤差值最小化 8.2.1 梯度下降法 (Gradient Descent) 8.2.2 學習率 (Learning rate) 8.2.3 批次量 (Batch-Size) 與隨機梯度下降法 (SGD) 8.2.4 從局部最小值 (Local Minimum) 脫離 8.3 反向傳播 (Back Propagation) 8.4 規劃隱藏層與各層神經元的數量 8.5 範例:建構多層神經網路 8.6 總結 Ch09 改善神經網路的訓練成效 9.1 權重初始化 (Weight Initialization) 9.2 解決梯度不穩定的問題 9.3 避免過度配適 (Overfitting) 的技巧 9.4 使用各種優化器 (Optimizer) 9.5 實作:用 tf.Keras 建構深度神經網路 9.6 改試試迴歸 (Regression) 範例 9.7 用 TensorBoard 視覺化判讀訓練結果 9.8 總結 Part03 深度學習的進階技術 Ch10 機器視覺實戰演練 - CNN (Convolutional Neural Network) 10.1 卷積神經網路 (CNN) 10.2 池化層 (Pooling Layer) 10.3 CNN 實作範例 (用 tf.Keras 重現 LeNet-5 經典架構) 10.4 進階的 CNN 技術 (用 tf.Keras 重現 AlexNet 與 VGGNet 架構) 10.5 殘差神經網路 (Residual Network) 10.6 機器視覺的各種應用 10.7 總結 Ch11 自然語言處理實戰演練 (一):資料預處理、建立詞向量空間 11.1 自然語言資料的預處理 11.2 用 word2vec 建立詞向量空間 11.3 總結 Ch12 自然語言處理實戰演練 (二):用密集神經網路、CNN 建立 NLP 模型 12.1 前置作業 12.2 進行簡單的資料預處理 12.3 用密集神經網路區分正評、負評 12.4 用 CNN 模型區分正評、負評 12.5 總結 Ch13 自然語言處理實戰演練 (三):RNN 循環神經網路 13.1 RNN 循環神經網路 13.2 LSTM (長短期記憶神經網路) 13.3 雙向 LSTM (Bi-LSTMs) 13.4 以「函數式 API」建構非序列式 NLP 模型 13.5 總結 Ch14 藝術生成實戰演練 - GAN (Generative Adversarial Network) 14.1 GAN 的基本概念 14.2 《限時塗鴉!》資料集 14.3 建構鑑別器 (Discriminator) 神經網路 14.4 建構生成器 (Generator) 神經網路 14.5 結合生成器與鑑別器, 建構對抗式生成網路 14.6 訓練 GAN 14.7 總結 Ch15 遊戲對局實戰演練 - DRL (Deep Reinforcement Learning)、DQN (Deep Q Network) 15.1 強化式學習 (Reinforcement Learning) 的基本概念 15.2 DQN 的基本概念 15.3 建構 DQN 代理人 15.4 與 OpenAI Gym 環境互動 15.5 DQN 以外的代理人訓練方式 15.6 總結 Part04 AI 與你 Ch16 打造自己的深度學習專案 16.1 探索方向 16.2 晉升更高階的專案 16.3 模型建構流程建議 16.4 軟體 2.0 (Software 2.0) 16.5 通用人工智慧 (AGI) 的進展 16.6 總結 附錄 A 使用 Google 的 Colab 雲端開發環境

原價: 620 售價: 558 現省: 62元
立即查看