全面掌握生成式AI與LLM開發實務:NLP×PyTorch×GPT輕鬆打造專屬的大型語言模型 (1版)
類似書籍推薦給您
立即查看
跟 NVIDIA 學深度學習!從基本神經網路到 CNN‧RNN‧LSTM‧seq2seq‧Transformer‧GPT‧BERT...,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎 (1版)
類似書籍推薦給您
內容介紹
▍AI 界扛霸子 NVIDIA 的深度學習 (Deep Learning) 指定教材!
▍GPT、Transformer、seq2seq、self-attention 機制...大型語言模型 (LLM) 背後的先進技術「硬派」揭密!
近年來,在 NVIDIA (輝達) GPU、CUDA 技術的推波助瀾下,深度學習 (Deep Learning) 領域有著爆炸性的成長,例如最為人知的 ChatGPT 正是運用深度學習技術開發出來的當紅應用。
【★學深度學習,跟 AI 重要推手 - NVIDIA 學最到位!】
除了硬體上的助益外,為了幫助眾多初學者快速上手深度學習,任職於 NVIDIA 的本書作者 Magnus Ekman 凝聚了他多年來在 NVIDIA 所積累的 AI 知識撰寫了本書。除了介紹深度學習基礎知識外,也包括此領域的最新重要進展。本書同時也是 NVIDIA 的教育和培訓部門 -【深度學習機構 (Deep Learning Institute, DLI)】 指定的培訓教材 (https://www.nvidia.com/zh-tw/training/books/)。
要學深度學習,跟深度學習的重要推手 NVIDIA 學就對了!眾多紮實的內容保證讓你受益滿滿!
【★機器視覺、生成式 AI 語言模型 100% 從零開始打造!】
在深度學習的教學上,本書將從神經網路的底層知識 (梯度下降、反向傳播...) 介紹起,帶你打好深度學習的底子。接著會介紹用 Colab 雲端開發環境 + tf.Keras 建構、調校多層神經網路,以及經典的 CNN (卷積神經網路) 圖形辨識模型建構...等機器視覺主題。最後則邁入自然語言處理 (NLP) 領域,在介紹完基本的 RNN / LSTM 知識後,以先進的 Transformer、GPT...語言模型架構做結。
尤其自從 ChatGPT 爆紅之後,自然語言處理 (NLP) 一直是深度學習的熱門研究話題,而這部分正是本書最精彩之處!
RNN / LSTM 神經網路雖然問世已有一段時間,現今一些先進的 NLP 模型或許不會用它們來建構,但由它們衍生出來的 hidden state (隱藏狀態) 概念可說是重中之重,我們會帶你好好熟悉,以便能跟後續章節順利銜接上。
之後則會利用各種神經網路技術帶你實作【多國語言翻譯模型】、【Auto-Complete 文字自動完成模型】...等範例。從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎。
令小編最印象深刻的是,本書所設計的 NLP 章節內容可說是「環環相扣」,從 RNN / LSTM 章節初次觸及 NLP 模型開始,次一章的模型架構幾乎都是為了解決前一章模型的特定問題而生的。這種層層舖墊的獨到方式能讓你深刻理解 RNN / LSTM / seq2seq / encoder-decoder / attention / self-attention 機制...等技術的發展脈絡,對於看懂 Transformer、GPT 等最先進的神經網路技術有莫大的幫助,這絕對是其他書看不到的精彩內容!
本書特色
□【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】
GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (positional encoding)、預訓練 (pre-train)、微調 (fine-tune)...各種建模技術輕鬆搞懂!
□【生成式 AI 語言模型 100% 從零開始打造!】
‧用 Colab + tf.Keras 實作多國語言翻譯模型、Auto-Complete 文字自動完成模型
‧從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎
□【深度學習基礎知識學好學滿】
‧紮穩根基!不被損失函數 / 梯度下降 / 反向傳播 / 正規化 / 常規化…一拖拉庫技術名詞搞的暈頭轉向!
‧深度神經網路基礎 / CNN / RNN / LSTM...概念詳解。
‧多模態學習 (multimodal learning)、多任務學習 (multitask learning)、自動化模型架構搜尋...熱門主題介紹。
□詳細解說, 流暢翻譯
本書由【施威銘研究室】監修, 書中針對原書進行大量補充, 並適當添加註解, 幫助讀者更加理解內容!
書籍目錄
Ch01 從感知器看神經網路的底層知識
1-1 最早的人工神經元 - Rosenblatt 感知器
1-2 增加感知器模型的能力
1-3 用線性代數實現神經網路模型
Ch02 梯度下降法與反向傳播
2-1 導數的基礎概念
2-2 以梯度下降法 (gradient descent) 對模型訓練問題求解
2-3 反向傳播 (back propagation)
Ch03 多層神經網路的建立與調校
3-1 動手實作:建立辨識手寫數字的多層神經網路
3-2 改善神經網路的訓練成效
3-3 實驗:調整神經網路與學習參數
Ch04 用卷積神經網路 (CNN) 進行圖片辨識
4-1 卷積神經網路 (CNN)
4-2 實作:以卷積神經網路做圖片分類
4-3 更深層的 CNN 與預訓練模型
Ch05 用循環神經網路 (RNN、LSTM...) 處理序列資料
5-1 RNN 的基本概念
5-2 RNN 範例:預測書店銷售額
5-3 LSTM (長短期記憶神經網路)
5-4 LSTM 範例:文字的 Auto-Complete 機制
Ch06 自然語言處理的重要前置工作:建立詞向量空間
6-1 詞向量空間的基本知識
6-2 做法(一):在神經網路建模過程中「順便」生成詞向量空間
6-3 做法(二):以 word2vec、GloVe 專用演算法生成詞向量空間
Ch07 用機器翻譯模型熟悉 seq2seq 架構
7-1 機器翻譯模型的基本知識
7-2 機器翻譯的範例實作
7-2-1 tf.Keras 函數式 API 簡介
7-2-2 建構模型前的工作
7-2-3 建構模型
7-2-4 訓練及測試模型
7-2-5 實驗結果
Ch08 認識 attention 與 self-attention 機制
8-1 熟悉 attention 機制
8-2 認識 self-attention 機制
8-2-1 self-attention 的基本概念
8-2-2 self-attention 機制的算法
8-2-3 multi-head (多頭) 的 self-attention 機制
Ch09 Transformer、GPT 及其他衍生模型架構
9-1 Transformer 架構
9-1-1 編碼器端的架構
9-1-2 解碼器端的架構
9-1-3 Transformer 內的其他設計
9-1-4 小編補充:觀摩 keras 官網上的 Transformer 範例
9-2 Transformer 架構的衍生模型:GPT、BERT
9-2-1 認識 GPT 模型
9-2-2 認識 BERT 模型
9-2-3 其他從 Transformer 衍生出的模型
附錄 A 延伸學習 (一):多模態、多任務...等模型建構相關主題
附錄 B 延伸學習 (二):自動化模型架構搜尋
附錄 C 延伸學習 (三):後續學習方向建議
附錄 D 使用 Google 的 Colab 雲端開發環境
立即查看
GPT就是這麼來的:最新自然語言處理技術詳解 (1版)
類似書籍推薦給您
內容簡介
● NLP專用Python開發環境架設
● 自然語言處理的發展歷程
● 無監督學習的原理與應用及實作
● Pretraing的完整實作
● 文字分類、機器閱讀理解、命名實體辨識
● ChatGPT的原理 - 文字生成
● 損失函式與模型瘦身
大型語言模型已經成為現代AI的範式,不管是ChatGPT或是llama、Falcon等,這個新興學科是人工智慧時代最熱門的話題,沒有一個有志於AI的人可以忽略這個趨勢。而大型語言模型的基礎,當然就是自然語言處理(Natural Language Processing,簡稱NLP)。自然語言處理主要工作包括了語言理解、語言生成、機器翻譯、語音識別等。目前見的應用非常多,包括了自動化客服、垃圾郵件檢測、社交媒體情感分析、醫療記錄分析、金融預測和新聞摘要等。
總結來說,自然語言處理是一個動態且充滿潛力的領域,它正在不斷改變我們與計算機和數字訊息互動的方式。隨著技術的不斷發展,我們可以期待在更多領域看到 NLP 的創新應用,同時也需要持續關注與其發展相關的倫理和社會問題。本書最重要目的就是將你帶入這個行業,如果你是程式設計師,網頁設計師,又或者是App的開發者,如果不想被人工智慧搶掉工作,加入是最好的選擇。
目錄
第1 章 導論
1.1 基於深度學習的自然語言處理
1.2 本書章節脈絡
1.3 自然語言處理演算法流程
1.4 小結
第2 章 Python 開發環境配置
2.1 Linux 伺服器
2.2 Python 虛擬環境
2.3 PyCharm 遠端連接伺服器
2.4 screen 任務管理
2.5 Docker 技術
2.6 小結
第3 章 自然語言處理的發展處理程序
3.1 人工規則與自然語言處理
3.2 機器學習與自熱語言處理
3.3 深度學習與自然語言處理
3.4 小結
第4 章 無監督學習的原理與應用
4.1 淺層無監督預訓練模型
4.2 深層無監督預訓練模型
4.3 其他預訓練模型
4.4 自然語言處理四大下游任務
4.5 小結
第5 章 無監督學習進階
5.1 生成式對抗網路
5.2 元學習
5.3 小結
第6 章 預訓練
6.1 賽題任務
6.2 環境架設
6.3 程式框架
6.4 資料分析實踐
6.5 小結
第7 章 文字分類
7.1 資料分析
7.2 環境架設
7.3 程式框架
7.4 文字分類實踐
7.5 小結
第8 章 機器閱讀理解
8.1 機器閱讀理解的定義
8.2 評測方法
8.3 研究方法
8.4 經典結構
8.5 多文件機器閱讀理解實踐
8.6 小結
第9 章 命名實體辨識
9.1 NER 技術的發展現狀
9.2 命名實體辨識的定義
9.3 命名實體辨識模型
9.4 命名實體辨識實驗
9.5 小結
第10 章 文字生成
10.1 文字生成的發展現狀
10.2 基於預訓練模型的文字生成模型
10.3 文字生成任務實踐
10.4 小結
第11 章 損失函式與模型瘦身
11.1 損失函式
11.2 常用的損失函式
11.3 損失函式的進階
11.4 模型瘦身
11.5 小結
立即查看
AI啟蒙時代:傳奇創投家霍夫曼與GPT-4的AI探索對話,放大人類潛力,看見新機會 (1版)
類似書籍推薦給您
【簡介】
未來十年,AI會像今日的手機,
以想像不到的方式擴增人類能力,成為不可或缺的存在
在新時代的起點,我們如何開始探索AI的各種可能性?
矽谷傳奇創投霍夫曼親身示範,當人類智慧與人工智慧展開對話
會開啟什麼樣的未來?
•《華爾街日報》暢銷書
•台灣大哥大總經理 / AppWorks 董事長暨合夥人 林之晨 重磅力推
突破性科技的出現,一開始總是充滿未知,在我們亟需方向感的此刻,這本書就是探索AI的最佳嚮導,透過與GPT-4的對話,帶我們理解AI是什麼、能做到哪些事、又會如何改變我們的生活。對於還不熟悉AI的人,這本書是開始認識的起點;害怕工作受衝擊的人,可以找到提升能力的下手處;關心趨勢的人,則可以透過科技先驅的解讀,開啟全新的思考。
第一本與GPT對話互動、共同創作的未來指南
即使是在矽谷,霍夫曼都是走在趨勢尖端、企業家搶著求教的關鍵人物,他不只共同創辦LinkedIn,更協助多家新創公司從車庫成長到十億美元級企業。身為OpenAI初始創辦人之一、Inflection AI共同創辦人,霍夫曼擁有最前線視角,得以最快接觸到最新AI發展。在與大型語言模型的互動過程中,霍夫曼意識到AI技術已來到關鍵引爆點,他決定與GPT-4一起寫書,針對知識學習、商業轉型、藝術創作、公平正義、新聞媒體等重要領域,討論AI將如何形塑人類的未來。在與GPT-4的一問一答之間,霍夫曼描繪出一個人人都能靠AI大幅擴增知識與能力的新世界。
清楚了解潛在威脅,但把眼光放在可能創造的正向影響
隨著AI不斷進化,我們熟悉的做事方法、無數產業的獲利模式,都在一一被顛覆。陌生科技總會引發焦慮與抗拒,也的確會帶來許多問題,但霍夫曼認為,輕忽AI,就像在1990年代錯過網路,在2007年小看智慧手機。科技會帶來破壞,也會創造機會。AI將成為創造新工作與新商機的主要驅動力,而愈早開始使用AI的人,會得到愈豐厚的回報。不管你身處哪些領域,現在就開始在專業上使用AI,幫自己從「離終點更近」的地方開始努力。
人類不會被AI取代,反而會掌握這項工具,讓自己更強大
霍夫曼認為,人類最與眾不同之處,就在使用工具的能力,我們不只是擅長思考的「智人」,更是善於開發工具提升效能的「技人」,而AI正是能協助人類升級的新工具。你將在本書中學到:
-把AI當大學助理,不是先知。AI強在即時協助,但它的回答需要你的最終判斷。
-你是導演,不是木匠。使用AI沒有既定流程,更像在導一場戲,需要嘗試各種版本。
-去試就對了!用AI的犯錯成本很低,不喜歡答案,再換個問題就行。
-未來世代最實用的能力,是提出更好問題、學AI無法訓練的見解,以及執行力。
-「問一題,就會想再問十題」,AI的延伸性可以助企業提供更個人化的服務。
-AI的「幻覺」,其實也是一種「想像力」。除了事實性資訊,AI也可以助你發想靈感。
【目錄】
前 言 啟蒙時刻
第一章 教育改革
第二章 創意與想像力
第三章 公平與正義
第四章 新聞的未來
第五章 社群媒體
第六章 職涯轉型
第七章 更聰明地工作
第八章 會產生幻覺的機器
第九章 穿越時空的對談
第十章 從智人到技人
結 語 在21世紀的十字路口
謝辭
參考來源
立即查看
運用GPT-4與ChatGPT開發App: 智慧聊天機器人與內容生成工具開發指南 (1版)
類似書籍推薦給您
【簡介】
AI正在改變開發世界,準備好加入這場革新了嗎?
本書帶你掌握ChatGPT與LLM的強大功能,從文字生成、智慧問答到提示工程、模型微調。
用Python就能讓AI成為你最棒的開發夥伴!
本書提供:
從零開始:快速理解 LLM 原理,掌握 ChatGPT 應用開發核心技術
實戰導向:使用 OpenAI API,打造各種 AI 功能,包括智能助理與問答系統
進階技巧:提示工程、RAG、LangChain、LlamaIndex,優化AI效能
完整範例:GitHub 程式碼+逐步指引,動手實作 AI 應用
不論你是開發者、數據工程師,還是 AI 愛好者,本書都是你進入AI應用開發領域的最佳幫手!
這本書是Python開發者的理想指南,可為學習如何使用大型語言模型來開發應用程式提供協助。作者Olivier Caelen和Marie-Alice Blete詳細介紹了GPT-4和GPT-3.5模型的主要功能與優勢,並深入解釋這些模型的運作原理。此外,書中還提供了使用OpenAI的Python函式庫進行應用程式開發的步驟指南,包括文本生成、問答系統和智慧助裡等應用。
本書以清晰易懂的敘述方式撰寫,搭配簡單易學的範例,幫助讀者理解概念並將其應用於實際專案。書中提供的Python程式碼範例皆可在GitHub上取得,並附有關鍵術語的詞彙表。準備好在應用程式中釋放大型語言模型的威力了嗎?這本書是您的必備之選!
您將於本書中學習到:
.GPT-4與GPT-3.5模型的基本概念、核心特性與運作方式。
.如何將這些模型整合至基於Python的應用程式中,並充分發揮自然語言處理能力,解決LLM相關的挑戰。
.在Python中使用OpenAI API進行文本生成、問答、內容摘要、分類等實作應用。
.進階的LLM主題,如提示工程、特定任務的模型微調、檢索強化生成(RAG)、插件、LangChain、LlamaIndex、GPTs和智慧助理。
好評推薦
來自Amazon讀者的好評
「這本書是LLM新手的理想入門書,簡單易懂的 Python範例,幫助我輕鬆學會在應用程式中運用GPT技術。」
「書中提供很多實用的OpenAI API使用建議,並包含清晰的範例和經驗分享。讓我節省了大量搜尋和試錯的時間,是學習GPT開發的絕佳資源。」
來自業界專家的推薦
「透過實用範例與逐步指南,作者為前沿應用開發鋪設了清晰的道路。」 ——Tom Taulli,《Generative AI》(Apress)作者
「完美結合理論與實作,讓GPT-4和ChatGPT的技術細節變得易於理解。」 ——Lucas Soares,Biometrid機器學習工程師
【目錄】
第一章 GPT-4 與 ChatGPT 的基礎知識
LLM(大語言模型)簡介
簡史:從 GPT-1 到 GPT-4
LLM 的使用情境和產品範例
謹防 AI 幻覺:限制和考量
透過進階功能釋放 GPT 潛力
第二章 深入探討 OpenAI API
基本概念
用 OpenAI Playground 來試玩 GPT 模型
入門:OpenAI Python 函式庫
使用聊天補全模型
使用其他文字補全模型
各方面的考量
其他的 OpenAI API 和功能
第三章 可支援 LLM 的應用程式:能力和挑戰
App 開發概要說明
軟體架構設計原則
把 LLM 的各種能力整合到你的專案中
範例專案
成本管理
支援 LLM 的 App 各種可能的漏洞
使用外部 API
第四章 OpenAI 的進階 LLM 整合策略
提示工程
微調
RAG(檢索增強生成)
在不同策略之間進行選擇
從標準的應用程式,到支援 LLM 的解決方案
第五章 利用框架、外掛等方式來提升 LLM 的能力
LangChain 框架
LlamaIndex 框架
GPT-4 外掛
GPT
Assistant API
第六章 全部整合起來
重點回顧
全部整合起來:AI 助理的使用情境
所學習到的經驗教訓
關鍵術語詞彙表
附錄A 工具、函式庫與框架
索引
立即查看