LLM核心攻略制霸生成式AI:ChatGPT、嵌入技術、微調與多模態AI最佳實踐 (1版)
類似書籍推薦給您
【簡介】
🏆 Amazone 讀者5星好評 ⭐⭐⭐⭐⭐
🏆 微軟前總經理Shelia Gulati、Hugging Face首席倫理長 Giada Pistilli等業界領袖一致推薦!
「本書平衡了開源模型和閉源模型的潛力,鉅細靡遺地帶你瞭解和使用LLM,縮短理論概念和實際應用之間的距離。」—— Giada Pistilli ,Hugging Face 首席倫理長
「Ozdemir 的這本書為讀者破除重重迷霧,說明LLM 革命的起源,以及未來的發展方向。他將複雜主題拆解為實用的說明,和容易理解的範例程式。」
--Shelia Gulati, 微軟前總經理,Tola Capital現任常務董事
「本書是令人耳目一新並引發靈感的學習資源,充滿了實用的指導和清楚的講解,幫助你更瞭解這個奇妙的新領域。」
—PETE HUANG, author of The Neuron
🎯 想深入掌握LLM核心技術
🎯 想成為生成式AI應用的開發者
🎯 想在真實場景運用LLM解決問題
那你絕對不能錯過本書!
大型語言模型正以驚人的速度改變我們的工作與生活。無論是開發者、企業領袖,還是對AI有興趣的學習者,本書將引領你踏入這個革命性的領域。
🚩 完整拆解LLM核心技術— 從預訓練到微調,帶你輕鬆掌握關鍵概念原理。
🚩 實例操作直擊應用— 透過真實案例場景,運用最新工具和技術,快速上手專案開發。
🚩 開源與商用模型全解析— 精選LLM工具與資源,選擇最適切的解決方案。
這本實用的指南將逐步指導你在專案和產品中大規模地使用LLM。
Llama 3、Claude 3與GPT等大型語言模型(LLM)已展示驚人的實力,但它們的規模和複雜度,卻讓很多從業者望而卻步。創新的資料科學家暨AI企業家Sinan Ozdemir在本書第二版為你排除這些障礙,教你如何使用、整合和部署LLM來解決實際的問題。
Ozdemir把入門所需的知識整合起來,即使是沒有直接用過LLM的讀者也能輕鬆上手,本書內容包括逐步引導、最佳做法、真實案例研究、動手練習…等。在過程中,他也會分享關於LLM內部動作的見解,以協助你優化模型的選擇、資料格式、提示工程、微調效能…等。本書的網站提供許多資源,包括範例資料集,以及使用各種開源和閉源LLM的最新程式碼,那些LLM來自OpenAI(GPT-4與GPT-3.5)、Google(BERT、T5與Gemini)、X(Grok)、Anthropic(Claude家族)、Cohere(Command 家族),以及Meta(BART與LLaMA家族)。
SINAN OZDEMIR目前是LoopGenius的創辦人與CTO,同時擔任幾家AI公司的顧問。他曾在約翰·霍普金斯大學教導資料科學,並寫了多本關於資料科學和機器學習的教科書。
此外,他也創辦了最近被收購的Kylie.ai,這是一個具備RPA能力的企業級對話AI平台。他擁有約翰·霍普金斯大學的純數學碩士學位,現居於加州舊金山。
•學習關鍵的概念:預先訓練、遷移學習、微調、注意力機制、embedding、詞元化…等等。
•使用API和Python來微調及打造LLM,以滿足需求。
•建構完整的神經/語義資訊檢索系統,並附加至對話型LLM,以進行檢索增強生成(retrieval-augmented generation,RAG)機器人及AI Agents。
•掌握進階的提示工程技術,例如輸出結構化、思維鏈提示,及少量語義範例提示。
•使用自訂的LLM embedding,從零開始建立完整的推薦引擎,並透過用戶資料來讓效能超越 OpenAI的現成embedding。
•使用開源的LLM和大型視覺資料集,從零開始建構並微調多模態Transformer架構。
•使用Reinforcement Learning from Human and AI Feedback(RLHF/RLAIF)來調校LLM,並基於Llama 3和FLAN-T5等開源模型來建立對話agent。
•將提示詞和微調過的自訂LLM部署至雲端,同時預先考慮擴展和演進流水線。
•透過量化、探測、效能評測與評估框架,來診斷與優化LLM的速度、記憶體用量及整體效能。
【目錄】
序
前言
致謝
關於作者
PART I 大型語言模型簡介
1 大型語言模型概述
大型語言模型是什麼?
流行的現代LLM
LLM的應用
結論
2 使用LLM來進行語意搜尋
前言
任務
解決方案概要
組件
整合一切
使用閉源組件的成本
結論
3 踏出提示工程的第一步
前言
提示工程
在不同模型之間使用提示
結論
4 AI生態系統:整合所有組件
前言
閉源AI的效能不斷變動
AI推理vs.思考
案例研究1:檢索增強生成
案例研究2:自動AIagent
結論
PART II 榨出LLM的所有潛力
5 使用自訂的微調來優化LLM
前言
遷移學習和微調:入門指南
OpenAI微調API概要
使用OpenAICLI來準備自訂範例
設定OpenAICLI
我們微調的第一個LLM
結論
6 進階提示工程
前言
提示注入攻擊
輸入/輸出驗證
批次提示
提示鏈
案例研究:AI的數學能力有多強?
結論
7 自訂embedding與模型架構
前言
案例研究:建立推薦系統
結論
8 AI對齊:第一原則
前言
對齊的對象是誰?為了什麼目的?
對齊可以降低偏見的嚴重性
對齊的支柱
憲法AI:邁向自我對齊的一步
結論
PART III LLM進階用法
9 超越基礎模型
前言
案例研究:視覺問答
案例研究:透過回饋來進行強化學習
結論
10 微調進階的開源LLM
前言
範例:使用BERT來做動畫類型多標籤分類
範例:使用GPT2來生成LaTeX
Sinan’sAttemptatWiseYetEngagingResponses:SAWYER
結論
11 將LLM投入生產
前言
將閉源LLM部署至生產環境
將開源LLM部署至生產環境
結論
12 評估LLM
前言
評估生成任務
評估理解任務
結論
繼續前進!
PART IV 附錄
A LLM FAQ
B LLM詞彙表
C LLM應用程式原型
索引
立即查看
一本搞定DeepSeek:擺脫付費束縛,看DeepSeek AI如何徹底顛覆 ChatGPT 霸權 (1版)
類似書籍推薦給您
【簡介】
了解生成式AI,除了ChatGPT,你不可忽視DeepSeek。
有關生成式AI,最強大的,莫過於ChatGPT。而市場上稍稍可與之抗衡的,則非DeepSeek莫屬。它也許沒有那麼強大,但是便宜,物美價廉,最重要的是,它走開源的路線。你可以把它的模型下戴到自己的筆電中,或是透過應用程式介面(API)和自己公司開發的軟體結合,更有效率的運用人工智能。
本書除了說明DeepSeek在職場及學習方面的運用方法外,也對創作運用的技術進行簡單的說明,方便你跟進人工智能的發展。
例如,為何DeepSeek可以利用較低的成本完成訓練,主要是以下三方面技術的突破:多頭注意力(Multi-head Latent Attention, MLA)、混合專家(Mixture of Experts, MoE)架構、FP8高效能記憶體技術。
最後本書也針對DeepSeek引發的爭議及解決之道進行說明。
本書特色
最具代表性的開源AI軟體簡介
開源AI軟體不少,Meta也是,但只有DeepSeek最接近ChatGPT 4付費版。因此如果你要了解生成式AI,ChatCPT和DeepSeek是避不開的選項。而許多資訊大廠如微軟、輝達和FB皆已經導入。
模型下載至本地端的說明
本書以附錄說明如何將模型下載至本地端。除了讓你進一步了解生成式AI,也提升客制化的效能,同時也減低安全性的風險。
圖文對照,快速上手
【目錄】
第1部分:從零認識DeepSeek與開源 AI
1-1 DeepSeek是什麼?
1-2 DeepSeek採用的核心技術:讓AI更快、更省、更強!
1-3 DeepSeek vs. ChatGPT:誰更強?獨家對比!
1-4 企業使用DeepSeek API要花多少錢?
1-5 DeepSeek 的各種爭議:技術革新與爭議並存
1-6 DeepSeek要怎麼使用?
1-7 Deepseek如何精準提問?
第2部分:DeepSeek校園活用篇
2-1 撰寫一份學校報告
2-2 PPT簡報製作
2-3 英文學習好幫手
2-4 教案與考題設計
第3部分:DeepSeek職場與企業篇
3-1 履歷與面試
3-2 DeepSeek處理各種合約條文
3-3 AI寫出SEO的好文章
3-4 摘錄文件重點—長文、網頁、檔案,提示詞總整理
第4部分:創作者與內容生產的AI進化
4-1 DeekSeek 生成文學作品
4-2 如何使用 DeepSeek 產生圖片
4-3 DeepSeek創作歌曲
4-4 用DeepSeek寫韓劇劇本
第5部分:未來AI的挑戰與趨勢
5-1 AI與倫理:技術的界限在哪裡?
5-2 未來AI趨勢與DeepSeek的潛力
附錄:安裝開源DeepSeek AI擁有完整掌控力、無所不問、可斷網、無審查系統
立即查看