書名: LLM核心攻略制霸生成式AI:ChatGPT、嵌入技術、微調與多模態AI最佳實踐 (1版)
作者: Sinan Ozdemir
譯者: 賴屹民
版次: 1
ISBN: 9786264250061
出版社: 碁峰
出版日期: 2025/02
書籍開數、尺寸: 26*18
頁數: 430
#資訊
#AI人工智慧與機器學習
定價: 680
售價: 578
庫存: 庫存: 2
LINE US! 詢問這本書 團購優惠、書籍資訊 等

付款方式: 超商取貨付款 line pay
信用卡 全支付
線上轉帳 Apple pay
物流方式: 超商取貨
宅配
門市自取

詳細資訊

【簡介】 🏆 Amazone 讀者5星好評 ⭐⭐⭐⭐⭐ 🏆 微軟前總經理Shelia Gulati、Hugging Face首席倫理長 Giada Pistilli等業界領袖一致推薦! 「本書平衡了開源模型和閉源模型的潛力,鉅細靡遺地帶你瞭解和使用LLM,縮短理論概念和實際應用之間的距離。」—— Giada Pistilli ,Hugging Face 首席倫理長 「Ozdemir 的這本書為讀者破除重重迷霧,說明LLM 革命的起源,以及未來的發展方向。他將複雜主題拆解為實用的說明,和容易理解的範例程式。」 --Shelia Gulati, 微軟前總經理,Tola Capital現任常務董事 「本書是令人耳目一新並引發靈感的學習資源,充滿了實用的指導和清楚的講解,幫助你更瞭解這個奇妙的新領域。」 —PETE HUANG, author of The Neuron 🎯 想深入掌握LLM核心技術 🎯 想成為生成式AI應用的開發者 🎯 想在真實場景運用LLM解決問題 那你絕對不能錯過本書! 大型語言模型正以驚人的速度改變我們的工作與生活。無論是開發者、企業領袖,還是對AI有興趣的學習者,本書將引領你踏入這個革命性的領域。 🚩 完整拆解LLM核心技術— 從預訓練到微調,帶你輕鬆掌握關鍵概念原理。 🚩 實例操作直擊應用— 透過真實案例場景,運用最新工具和技術,快速上手專案開發。 🚩 開源與商用模型全解析— 精選LLM工具與資源,選擇最適切的解決方案。 這本實用的指南將逐步指導你在專案和產品中大規模地使用LLM。 Llama 3、Claude 3與GPT等大型語言模型(LLM)已展示驚人的實力,但它們的規模和複雜度,卻讓很多從業者望而卻步。創新的資料科學家暨AI企業家Sinan Ozdemir在本書第二版為你排除這些障礙,教你如何使用、整合和部署LLM來解決實際的問題。 Ozdemir把入門所需的知識整合起來,即使是沒有直接用過LLM的讀者也能輕鬆上手,本書內容包括逐步引導、最佳做法、真實案例研究、動手練習…等。在過程中,他也會分享關於LLM內部動作的見解,以協助你優化模型的選擇、資料格式、提示工程、微調效能…等。本書的網站提供許多資源,包括範例資料集,以及使用各種開源和閉源LLM的最新程式碼,那些LLM來自OpenAI(GPT-4與GPT-3.5)、Google(BERT、T5與Gemini)、X(Grok)、Anthropic(Claude家族)、Cohere(Command 家族),以及Meta(BART與LLaMA家族)。 SINAN OZDEMIR目前是LoopGenius的創辦人與CTO,同時擔任幾家AI公司的顧問。他曾在約翰·霍普金斯大學教導資料科學,並寫了多本關於資料科學和機器學習的教科書。 此外,他也創辦了最近被收購的Kylie.ai,這是一個具備RPA能力的企業級對話AI平台。他擁有約翰·霍普金斯大學的純數學碩士學位,現居於加州舊金山。 •學習關鍵的概念:預先訓練、遷移學習、微調、注意力機制、embedding、詞元化…等等。 •使用API和Python來微調及打造LLM,以滿足需求。 •建構完整的神經/語義資訊檢索系統,並附加至對話型LLM,以進行檢索增強生成(retrieval-augmented generation,RAG)機器人及AI Agents。 •掌握進階的提示工程技術,例如輸出結構化、思維鏈提示,及少量語義範例提示。 •使用自訂的LLM embedding,從零開始建立完整的推薦引擎,並透過用戶資料來讓效能超越 OpenAI的現成embedding。 •使用開源的LLM和大型視覺資料集,從零開始建構並微調多模態Transformer架構。 •使用Reinforcement Learning from Human and AI Feedback(RLHF/RLAIF)來調校LLM,並基於Llama 3和FLAN-T5等開源模型來建立對話agent。 •將提示詞和微調過的自訂LLM部署至雲端,同時預先考慮擴展和演進流水線。 •透過量化、探測、效能評測與評估框架,來診斷與優化LLM的速度、記憶體用量及整體效能。 【目錄】 序 前言 致謝 關於作者 PART I 大型語言模型簡介 1 大型語言模型概述 大型語言模型是什麼? 流行的現代LLM LLM的應用 結論 2 使用LLM來進行語意搜尋 前言 任務 解決方案概要 組件 整合一切 使用閉源組件的成本 結論 3 踏出提示工程的第一步 前言 提示工程 在不同模型之間使用提示 結論 4 AI生態系統:整合所有組件 前言 閉源AI的效能不斷變動 AI推理vs.思考 案例研究1:檢索增強生成 案例研究2:自動AIagent 結論 PART II 榨出LLM的所有潛力 5 使用自訂的微調來優化LLM 前言 遷移學習和微調:入門指南 OpenAI微調API概要 使用OpenAICLI來準備自訂範例 設定OpenAICLI 我們微調的第一個LLM 結論 6 進階提示工程 前言 提示注入攻擊 輸入/輸出驗證 批次提示 提示鏈 案例研究:AI的數學能力有多強? 結論 7 自訂embedding與模型架構 前言 案例研究:建立推薦系統 結論 8 AI對齊:第一原則 前言 對齊的對象是誰?為了什麼目的? 對齊可以降低偏見的嚴重性 對齊的支柱 憲法AI:邁向自我對齊的一步 結論 PART III LLM進階用法 9 超越基礎模型 前言 案例研究:視覺問答 案例研究:透過回饋來進行強化學習 結論 10 微調進階的開源LLM 前言 範例:使用BERT來做動畫類型多標籤分類 範例:使用GPT2來生成LaTeX Sinan’sAttemptatWiseYetEngagingResponses:SAWYER 結論 11 將LLM投入生產 前言 將閉源LLM部署至生產環境 將開源LLM部署至生產環境 結論 12 評估LLM 前言 評估生成任務 評估理解任務 結論 繼續前進! PART IV 附錄 A LLM FAQ B LLM詞彙表 C LLM應用程式原型 索引

為您推薦

人工智慧:智慧型系統導論3/e (3版)

人工智慧:智慧型系統導論3/e (3版)

相關熱銷的書籍推薦給您

書名:人工智慧:智慧型系統導論(第三版) 作者:李聯旺 出版社:全華 ISBN:9789862800959

原價: 590 售價: 519 現省: 71元
立即查看
開源閉源LLM應用:從微調到RAG、Agent完整開發實作 (1版)

開源閉源LLM應用:從微調到RAG、Agent完整開發實作 (1版)

類似書籍推薦給您

【簡介】 ★人工智慧的起源與發展歷程 ☆機器學習的基本概念與分類方法 ★神經網路的基礎結構與演化歷程 ☆自然語言處理技術的發展與應用 ★大型語言模型的構建原理與應用範疇 ☆互動格式種類與ChatGPT介面詳解 ★提示工程的原理、組成與實用技巧 ☆工作記憶與長短期記憶的管理策略 ★外部工具的整合方法與應用實例 ☆ChatGPT擴充功能與Assistants API解析 ★自主Agent系統的架構設計與案例分析 ☆大型語言模型的安全技術與防護措施 【內容簡介】 本書涵蓋人工智慧的起源與發展,從達特茅斯會議探討機器思考,到現代大型語言模型的構建與應用,深入解析機器學習的概念、分類及運作,並介紹神經網路的結構與演變。自然語言處理技術部分展示NLP在科技中的應用,大型語言模型章節探討文字生成、自回歸模型與訓練過程,並指出其局限。入門部分介紹Completion、ChatML和Chat Completion等互動格式,詳解ChatGPT介面運作。提示工程章節涵蓋提示原理、組成與技巧,提升AI模型表現。工作記憶與長短期記憶管理探討減輕記憶負擔的方法及其對AI效率的影響。外部工具整合與應用實例展示如何增強AI功能,介紹基於提示和微調的工具如Self-ask、ReAct及Toolformer。ChatGPT擴充功能與Assistants API解析讓讀者了解如何定制和擴展AI應用,自主Agent系統章節通過案例展示其設計與應用潛力。進階部分探討無梯度最佳化、自主Agent系統及微調技術,提供深入研究與開發AI的知識。最後,大型語言模型的安全技術與防護措施闡述提示注入攻擊、防禦策略、越獄攻擊、資料投毒及模型浮水印方法,保障AI系統安全。 【目錄】 ▌第1 篇 基礎 第1 章 從人工智慧的起源到大型語言模型 1.1 人工智慧的起源 1.1.1 機器能思考嗎 1.1.2 達特茅斯會議 1.2 什麼是機器學習 1.2.1 演繹推理與歸納推理 1.2.2 人工程式設計與自動程式設計 1.2.3 機器學習的過程 1.2.4 機器學習的分類 1.3 什麼是神經網路 1.3.1 還原論與湧現性 1.3.2 神經網路的發展歷史 1.3.3 神經網路基礎 1.3.4 神經網路的三要素 1.4 自然語言處理的發展歷程 1.4.1 什麼是自然語言處理 1.4.2 文字的向量化 1.4.3 神經網路中的自監督學習 1.5 大型語言模型 1.5.1 什麼是大型語言模型 1.5.2 語言模型中的token 1.5.3 自回歸模型與文字生成 1.5.4 統一自然語言任務 1.5.5 大型語言模型的訓練過程 1.5.6 大型語言模型的局限性 ▌第2篇 入門 第2章 互動格式 2.1 Completion 互動格式 2.2 ChatML 互動格式 2.3 Chat Completion 互動格式 第3 章 提示工程 3.1 什麼是提示工程 3.2 提示的組成 3.3 提示的基礎技巧 3.3.1 在提示的末尾重複關鍵指令 3.3.2 使用更清晰的語法 3.3.3 儘量使用範例 3.3.4 明確要求大型語言模型回覆高品質的回應 3.4 Chat Completion 互動格式中的提示 3.5 提示範本與多輪對話 第4 章 工作記憶與長短期記憶 4.1 什麼是工作記憶 4.2 減輕工作記憶的負擔 4.2.1 Chain-of-Thought 4.2.2 Self-Consistency 4.2.3 Least-to-Most 4.2.4 Tree-of-Tought 和Graph-of-Tought 4.2.5 Algorithm-of-Tought 4.2.6 Chain-of-Density 4.3 關於大型語言模型的思考能力 4.4 長短期記憶 4.4.1 什麼是記憶 4.4.2 短期記憶 4.4.3 長期記憶 第5 章 外部工具 5.1 為什麼需要外部工具 5.2 什麼是外部工具 5.3 使用外部工具的基本原理 5.4 基於提示的工具 5.4.1 Self-ask 框架 5.4.2 ReAct 框架 5.4.3 改進ReAct 框架 5.5 基於微調的工具 5.5.1 Toolformer 5.5.2 Gorilla 5.5.3 function calling 第6 章 ChatGPT 介面與擴充功能詳解 6.1 OpenAI 大型語言模型簡介 6.2 ChatGPT 擴充功能原理 6.2.1 網頁即時瀏覽 6.2.2 執行Python 程式 6.2.3 影像生成 6.2.4 本地檔案瀏覽 6.3 Chat Completion 介面參數詳解 6.3.1 模型回應傳回的參數 6.3.2 向模型發起請求的參數 6.4 Assistants API 6.4.1 工具 6.4.2 執行緒 6.4.3 執行 6.4.4 Assistants API 整體執行過程 6.5 GPTs 與GPT 商店 6.5.1 GPTs 功能詳解 6.5.2 GPT 商店介紹 6.5.3 案例:私人郵件幫手 ▌第3 篇 進階 第7 章 無梯度最佳化 7.1 單步最佳化 7.2 強化學習入門 7.3 多步最佳化中的預測 7.4 多步最佳化中的訓練 7.5 多步最佳化中的訓練和預測 第8 章 自主Agent 系統 8.1 自主Agent 系統簡介 8.2 自主Agent 系統的基本組成 8.3 自主Agent 系統案例分析(一) 8.3.1 BabyAGI 8.3.2 AutoGPT 8.3.3 BeeBot 8.3.4 Open Interpreter 8.3.5 MemGPT 8.4 自主Agent 系統案例分析(二) 8.4.1 CAMEL 8.4.2 ChatEval 8.4.3 Generative Agents 第9 章 微調 9.1 三類微調方法 9.2 Transformer 解碼器詳解 9.2.1 Transformer 的原始輸入 9.2.2 靜態編碼和位置編碼 9.2.3 Transformer 層 9.3 高效參數微調 9.3.1 Adapter 高效微調 9.3.2 Prompt 高效微調 9.3.3 LoRA 高效微調 9.3.4 高效微調總結 9.4 微調RAG 框架 9.4.1 RAG 框架微調概述 9.4.2 資料準備和參數微調 9.4.3 效果評估 第10 章 大型語言模型的安全技術 10.1 提示注入攻擊 10.1.1 攻擊策略 10.1.2 防禦策略 10.2 越獄攻擊與資料投毒 10.2.1 衝突的目標與不匹配的泛化 10.2.2 對抗樣本 10.2.3 資料投毒 10.3 幻覺和偏見問題 10.4 為大型語言模型增加浮水印 ▌第4 篇 展望 第11 章 大型語言模型的生態與未來 11.1 多模態大型語言模型 11.1.1 什麼是多模態 11.1.2 GPT-4V 簡介 11.1.3 Gemini 簡介 11.2 大型語言模型的生態系統 11.3 大型語言模型的第一性原理:Scaling Law 11.3.1 什麼是Scaling Law 11.3.2 Scaling Law 的性質 11.3.3 Scaling Law 的未來 11.4 通向通用人工智慧:壓縮即智慧 11.4.1 編碼與無失真壓縮 11.4.2 自回歸與無失真壓縮 11.4.3 無失真壓縮的極限 11.5 圖靈機與大型語言模型:可計算性與時間複雜度 11.5.1 圖靈機與神經網路 11.5.2 智慧的可計算性 11.5.3 邏輯推理的時間複雜度 參考文獻

原價: 880 售價: 792 現省: 88元
立即查看
生成式AI入門: 大型語言模型LLM推動人機協作革新: 語言建模、訓練微調、隱私風險、合成媒體、認知作戰、社交工程、人機關係 (1版)

生成式AI入門: 大型語言模型LLM推動人機協作革新: 語言建模、訓練微調、隱私風險、合成媒體、認知作戰、社交工程、人機關係 (1版)

類似書籍推薦給您

【簡介】 【掌握生成式 AI 與 LLM 的發展與應用】近年來,AI 已經成為社會關注的焦點,幾乎所有人都在討論它的強大影響力!生成式 AI、LLM、ChatGPT、OpenAI、Copilot、Gemini、DeepSeek… 這些科技術語鋪天蓋地而來,甚至美國各大企業相繼大規模裁員,顯然大事發生了,但究竟怎麼一回事?又是如何改變我們的世界?在這場生成式 AI 熱潮與搶購 NVIDIA(輝達) GPU 的 AI 軍備競賽中,我們亟需一本能夠深入淺出解釋複雜概念的書籍,幫助讀者理性認識這場技術革命的全貌。本書不需要數學基礎,也不用具備程式設計或人工智慧的知識。只要你對生成式 AI 如何影響世界感興趣,本書就是你進入這個領域的最佳指引。我們將解析大型語言模型(LLM)的運作原理,探索 LLM 如何塑造科技產業的未來,並剖析生成式 AI 在社會、經濟、法律與政治各領域帶來的機遇與風險。【全方位認清楚生成式 AI 的問題與爭議】你將學習如何在日常生活與工作中有效應用生成式 AI,同時也會了解其安全性與倫理挑戰,例如資料安全與隱私問題、合成媒體與著作權爭議、LLM 的偏見來源、人機關係帶起的孤獨流行病等當前重要議題。此外,還會談到即將到來的 AI Agent,以及將通用人工智慧(AGI)、優生學及超人類主義連結,藉由科技將人類進化為後人類的未來議題(雖然看起來科幻,但確實是有計畫地進行中)。生成式 AI 在認知作戰與惡意應用方面,包括深偽技術濫用以及詐騙成本降低,也對社會帶來重大的影響。此外,將藝術家、設計師、漫畫家、攝影師作品,以及程式碼與書籍內容等,在未經授權之下被用於訓練生成式模型,這一連串訴訟以及 "合理使用" 的範圍到底包括哪些的爭議,我們都會依據最新發展做分析。對於 LLM 與生成式 AI,許多人往往一開始就一頭栽進技術細節。而本書希望讓你站在制高點俯視這一切,幫助你建立對生成式 AI 的全面性理解,成為宏觀的理性思考者。因為,生成式 AI 不僅是一場技術革命,更是一場深刻影響未來的變革,而我們正參與其中。 本書特色: ●解析大型語言模型 LLM 的運作原理 ●AI 軍備競賽下的大型語言模型發展 ●將生成式 AI 融入工作與日常生活中 ●在創新應用中兼顧安全性與倫理責任 ●資料安全與隱私保護的政策與法規 ●生成式媒體的應用範圍與著作權爭議 ●聊天機器人偏見、群眾外包的心理創傷 ●探索與聊天機器人良性互動之道 ●北美、歐盟、中國對 AI 的監管狀況 ●AGI、AI 的感知與意識、超人類主義、後人類 ●LLM 生命週期對環境帶來的影響以及碳權問題 ●LLM 開源或權重開源對社群帶來的影響 【目錄】 第 1 章 大型語言模型:展現 AI 實力 1.1 ChatGPT 與大型語言模型的崛起 1.2 自然語言處理的起源與演進 1.2.1 統計模型與機器學習的引入 1.2.2 神經網路與深度學習的崛起 1.3 大型語言模型(LLM)的誕生 1.3.1 注意力機制的誕生與應用 1.3.2 Transformer 架構帶來突破 1.3.3 從 Transformer 到 GPT 1.3.4 NLP 發展的重要時間點 1.4 LLMs 有哪些應用? 1.4.1 語言建模 1.4.2 程式碼生成 1.4.3 內容生成 1.4.4 邏輯推理 1.4.5 其它各種應用 1.5 LLMs 有哪些不足之處? 1.5.1 訓練資料與偏見 1.5.2 控制 LLMs 輸出正確性的困難 1.5.3 LLMs 的永續性 1.6 重要 LLM 的發展歷程 1.6.1 OpenAI 的 ChatGPT 1.6.2 Google 的 Bard / LaMDA / PaLM / Gemini 1.6.3 微軟的 Bing AI / Copilot 1.6.4 Meta 的 LLaMA 與史丹佛的 Alpaca 1.6.5 橫空出世的 DeepSeek 1.7 總結第 2 章 訓練大型語言模型(LLMs) 2.1 如何訓練 LLMs 2.1.1 從開放網路搜集資料 2.1.2 認識自迴歸模型與雙向模型 2.1.3 微調 LLMs 2.2 出人意料的 LLMs 突現特性 2.2.1 LLMs 的零樣本與少樣本學習能力 2.2.2 突現現象:是錯覺還是新能力? 2.3 大量訓練資料背後的難題 2.3.1 把偏見編碼進模型中 2.3.2 敏感資料 2.4 總結第 3 章 LLMs 的隱私風險與法規應對 3.1 改善 LLMs 生成結果安全性的方法 3.1.1 後處理偵測 3.1.2 內容過濾、條件式預訓練 3.1.3 基於人類回饋的強化式學習(RLHF) 3.1.4 基於 AI 回饋的強化式學習(RLAIF) 3.2 使用者隱私與商用風險 3.2.1 無意間造成的資訊洩漏 3.2.2 與聊天機器人互動的建議 3.3 資料保護的政策與法規 3.3.1 國際標準與資料保護法 3.3.2 聊天機器人符合 GDPR 嗎? 3.3.3 美國校園中的隱私權管制 3.3.4 企業政策 3.4 總結第 4 章 合成媒體創作與著作權爭議 4.1 深偽技術與合成媒體的崛起 4.1.1 創造合成媒體的常用技術 4.1.2 合成媒體的功與過 4.1.3 合成媒體的偵測技術與應對策略 4.2 以生成式 AI 翻轉創作過程 4.2.1 行銷上的應用 4.2.2 藝術創作 4.3 LLM 時代的著作權與訴訟案件 4.3.1 合理使用的概念與四大要素 4.3.2 LLM 企業面臨的法律訴訟 4.3.3 網路資料的使用與授權 4.4 總結第5 章 LLMs 的濫用與對抗式攻擊 5.1 資訊安全與社交工程 5.1.1 生成式 AI 的雙面性 5.1.2 魚叉式釣魚攻擊的進化 5.1.3 ChatGPT 對釣魚與惡意程式的影響 5.1.4 程式碼即服務的資安威脅 5.1.5 資料下毒:模型訓練的隱藏威脅 5.1.6 提示詞注入與越獄攻擊 5.1.7 面對生成式 AI 威脅的解決之道 5.2 資訊失序:對抗性敘事 5.2.1 認知作戰的範疇與定義 5.2.2 生成式AI 的潛在濫用 5.2.3 深偽技術與政治戰 5.2.4 對抗性敘事的監管挑戰 5.2.5 建立全球性對策機構 5.3 政治偏見與競選活動 5.3.1 聊天機器人的政治立場 5.3.2 偏見的來源與中立挑戰 5.3.3 LLMs 對選舉的潛在影響 5.3.4 馬斯克對 AI 的批評與探索 5.4 AI 幻覺的成因與改善方法 5.4.1 LLMs 的運作方法所導致 5.4.2 知識圖譜與 LLMs 內隱知識 5.4.3 改善幻覺的策略 5.5 專業領域中的濫用 5.5.1 律師濫用的案例 5.5.2 賺錢建議的魅力與濫用隱憂 5.5.3 醫療領域的成就與局限 5.5.4 投資顧問的挑戰與監管問題 5.5.5 生成式 AI 的倫理與責任 5.5.6 使用者與開發者的共同責任 5.6 總結第 6 章 善用 AI 工具提高生產力 6.1 在醫療、法律、金融等專業領域中運用 6.1.1 協助醫師處理行政作業、提高與病人互動品質 6.1.2 在法律案件研究、證據開示和文書上的應用 6.1.3 為金融投資與銀行客服加持 6.1.4 與 LLMs 共同創作 6.2 AI 程式設計輔助工具 6.2.1 自動撰寫程式碼說明 6.2.2 自動撰寫正規表達式 6.2.3 AI 程式助手 vs. 程式討論平台 6.3 工作與生活中的應用 6.3.1 學習方式的改變 6.3.2 重新定義購物體驗 6.3.3 AI 代理能與環境互動並靈活調整 6.3.4 代理化 LLMs:拓展 AI 的應用潛力 6.3.5 善用聊天機器人設計個人化計畫 6.3.6 從行政工作到未來內容生態的變革 6.4 生成式 AI 在教育中的足跡 6.4.1 教育工作者對 ChatGPT 的正反面態度 6.4.2 引入 AI 科技對學習的好處 6.5 偵測 AI 生成文本 6.5.1 離群值偵測技術 6.5.2 用 DetectGPT 檢測機率曲率 6.5.3 分類器偵測技術 6.5.4 文字浮水印技術 6.6 LLM 對工作和經濟的影響 6.6.1 正面的觀點 6.6.2 負面的觀點 6.6.3 生成式 AI 對就業的影響 6.7 總結第 7 章 與聊天機器人建立人機連結 7.1 以社交互動為目的的聊天機器人 7.1.1 從情感陪伴到倫理爭議 7.1.2 人機情感連結的商業化應用 7.2 向聊天機器人尋求陪伴的原因 7.2.1 孤獨流行病 7.2.2 情感依附理論與聊天機器人 7.3 人機關係的好與壞 7.3.1 基於規則 AI 聊天機器人的優勢 7.3.2 從社會滲透論看人機關係 7.3.3 人機關係的商業化與社會影響 7.3.4 性別觀念影響對話式 AI 技術開發 7.4 探索與聊天機器人良性互動之道 7.4.1 避免一味追求互動的榨取式科技、欺騙性設計 7.4.2 朝負責任科技方向轉型 7.4.3 Character.AI 平台的用戶行為 7.4.4 開發商的道德責任與技術手段 7.5 總結第 8 章 生成式 AI 的未來發展與監管方向 8.1 自然語言成為與電腦溝通的介面 8.2 AI Agents(代理)將解鎖更多可能性 8.3 客製化個人助理 8.4 從倫理角度看 AI 監管 8.4.1 北美的監管狀況 8.4.2 歐盟的監管狀況 8.4.3 中國的監管狀況 8.4.4 企業自律 8.5 邁向全球 AI 治理架構 8.6 總結第 9 章 拓展視野:AGI、AI 意識、環境影響、開源 LLM 9.1 通用人工智慧 AGI 9.1.1 AGI 是什麼? 9.1.2 山姆.阿特曼對 AGI 的願景 9.1.3 優生學、超人類主義、後人類 9.1.4 長期主義對 AGI 的憂慮 9.2 AI 的感知與意識 9.2.1 感知與意識是什麼? 9.2.2 意識從哪裡產生? 9.2.3 意識思考與後設認知 9.2.4 AI 意識的研究持續進行 9.3 LLM 對環境的影響 9.3.1 從硬體生產到運算需求的全面影響 9.3.2 生成式 AI 的環境成本與碳足跡報告 9.4 改變 LLM 生態的開源社群 9.4.1 LlaMA 洩漏權重,促進開源 LLM 快速發展 9.4.2 DeepSeek-R1 權重開源,打破美國技術壟斷 9.4.3 開源與封閉 LLM 的優缺點 9.4.4 如何為開源社群盡一份心力 9.5 總結

原價: 580 售價: 522 現省: 58元
立即查看
讓AI好好說話!從頭打造LLM的實戰秘笈 (1版)

讓AI好好說話!從頭打造LLM的實戰秘笈 (1版)

類似書籍推薦給您

【簡介】 用自己的電腦也能從零開始建構 LLM 模型! LLM 的參數真的非常多~ 動輒就數千億個參數,一般家用電腦是跑不動的;再加上 LLM 模型架構、注意力機制的運作都非常複雜,要深入理解也有不小的門檻。 ★ 機器學習專家 Sebastian Raschka 特別規劃了一整套的教練式教學,透過較小型的資料集,讓您能在一般電腦上跟著步驟實作,並逐步理解大型語言模型的架構與技術! - 本書涵蓋了建構 LLM 的完整過程,包括處理資料集、實作模型架構、注意力機制、使用無標籤的資料進行預訓練,以及針對特定任務的微調技術 (分類任務微調與指令微調)。 - 書中每一步驟都有清楚的文字、圖解和程式範例,帶著你從零開始撰寫一個基礎模型,並將其進化為文本分類工具,最終創建一個能夠理解並回應對話指令的聊天機器人。 ★ 經驗豐富的開發者與初學者,都可以學習到如何一步步建構一個 GPT,掌握創建 LLM 所需的基本概念與實作技巧! - 如果是具備基礎機器學習知識、中階 Python 技能的讀者,作者提供了許多額外資源,包含完整程式碼範例 (GitHub 儲存庫)、參考文獻與延伸閱讀 (像是如何應用更大規模的模型參數)、優化訓練迴圈與進階的 LoRA 微調方法,讓您可以再進一步深入學習,持續往專家邁進! - 對於初學者來說,作者在附錄中有提供 PyTorch 基礎知識與安裝解說,而小編則在內文中適當添加註解,幫助讀者能更好地理解內容。另外,旗標更準備了 Colab 線上資源,讓您理論、實作都能暢通無阻。就算是程式語言小白,初入門也能無痛學習、打好 LLM 的基礎~ 一起提前起跑,搶佔 LLM 理論知識與 GPT 模型實作的先機,為自己投資一個無限的未來! 【目錄】 ▌第 1 章 理解大型語言模型 1.1 什麼是 LLM? 1.2 LLM 的應用 1.3 建構與使用 LLM 1.4 Transformer 架構介紹 1.5 大型資料集的運用 1.6 深入探討 GPT 架構 1.7 建構大型語言模型 (LLM) 1.8 重點回饋 ▌第 2 章 處理文本資料 2.1 詞嵌入 (Word Embedding,或稱詞向量) 2.2 文本斷詞 (Tokenize) 2.3 將 token 轉換為 token ID 2.4 添加特殊 token 2.5 字節對編碼 (Byte Pair Encoding, BPE) 2.6 使用滑動視窗法 (Sliding Window) 進行資料取樣 2.7 創建 token 嵌入 (Embedding) 2.8 位置資訊的編碼 2.9 重點回顧 ▌第 3 章 實作注意力機制 3.1 長序列建模的問題 3.2 使用注意力機制捕捉資料依賴關係 3.3 利用自注意力機制,關注輸入序列中的不同位置 - 3.3.1 簡化的自注意力機制 (不使用可訓練權重) - 3.3.2 計算所有輸入 token 的注意力權重 3.4 使用「可訓練權重」實作自注意力機制 - 3.4.1 逐步計算注意力權重 - 3.4.2 實作一個精簡的自注意力 Python 類別 3.5 使用因果注意力遮蔽未來的字詞 - 3.5.1 應用因果注意力遮罩 - 3.5.2 用 dropout 遮蔽額外的注意力權重 - 3.5.3 實作一個精簡的因果注意力類別 3.6 將單頭注意力擴展至多頭注意力 - 3.6.1 堆疊多個單頭注意力層 - 3.6.2 實作具有權重切分的多頭注意力 3.7 重點回顧 ▌第 4 章 從零實作 GPT 模型以生成文本 4.1 撰寫 LLM 架構 - 4.1.1 指定模型配置 - 4.1.2 實作 GPT 佔位架構 - 4.1.3 斷詞處理 - 4.1.4 將批次資料輸入到模型 4.2 將輸出進行層歸一化 - 4.2.1 檢查指定維度的輸出平均值和方差 - 4.2.2 層歸一化處理 4.3 實作具有 GELU 激活函數的前饋神經網路 4.4 增加捷徑連接 (Shortcut Connection) 4.5 在 Transformer 模組中連結注意力與線性層 4.6 撰寫 GPT 模型 4.7 生成文本 4.8 重點回顧 ▌第 5 章 使用無標籤的資料集進行預訓練 5.1 評估文本生成品質 - 5.1.1 使用 GPT 來生成文本 - 5.1.2 計算文本生成損失 - 5.1.3 計算訓練和驗證損失 5.2 訓練 LLM - 5.2.1 預訓練 LLM 的主要函式 - 5.2.2 啟動預訓練 5.3 運用文本生成策略 (解碼策略) 來控制隨機性 - 5.3.1 溫度縮放 (Temperature Scaling) - 5.3.2 Top-k 取樣 - 5.3.3 修改文本生成函式 5.4 在 PyTorch 中載入和儲存模型權重 5.5 從 OpenAI 載入預訓練權重 5.6 重點回顧 ▌第 6 章 分類任務微調 6.1 常見的 2 種微調類型 6.2 準備資料集 - 6.2.1 下載資料集 - 6.2.2 平衡資料集 - 6.2.3 轉換為整數類別標籤 - 6.2.4 分割資料集 6.3 建立資料載入器 - 6.3.1 使用 <|endoftext|> 作為填充 token - 6.3.2 進行斷詞與填充處理 - 6.3.3 實例化資料載入器 6.4 使用預訓練權重初始化模型 6.5 將輸出層更換為分類輸出層 - 6.5.1 檢查模型架構 - 6.5.2 凍結模型 - 6.5.3 替換輸出層,並指定特定層為可訓練狀態 - 6.5.4 只需微調最後一列 token 6.6 計算分類損失與準確率 - 6.6.1 將最後一個 token 轉換為類別標籤的預測值 - 6.6.2 計算各個資料集的分類準確度 - 6.6.3 使用交叉熵損失判斷模型的準確度 6.7 使用監督資料 (Supervised Data) 來微調模型 - 6.7.1 微調模型的訓練函式 - 6.7.2 啟動訓練 - 6.7.3 透過繪製損失函數,判斷模型學習效果 - 6.7.4 計算模型分類任務的準確度 6.8 使用 LLM 做為垃圾訊息分類器 6.9 重點回顧 ▌第 7 章 指令微調 7.1 指令微調概述 7.2 準備監督式指令微調的資料集 - 7.2.1 下載資料集 - 7.2.2 將資料集套用提示詞格式 - 7.2.3 分割資料集 7.3 將資料分成多個訓練批次 - 7.3.1 斷詞處理 - 7.3.2 允許不同批次擁有不同序列長度的 collate 函式 - 7.3.3 創建能讓模型學習預測的目標 token ID - 7.3.4 將填充 token 指定為一個特殊值 7.4 為指令資料集建立資料載入器 - 7.4.1 提升模型訓練效率的 device 設置 - 7.4.2 設置資料載入器 7.5 載入預訓練的 LLM - 7.5.1 載入現有的 GPT 模型 - 7.5.2 評估預訓練好的模型性能 7.6 使用指令資料集來微調 LLM - 7.6.1 計算損失 - 7.6.2 訓練模型,將損失最小化 - 7.6.3 檢視訓練與驗證損失曲線 7.7 取得模型生成的回應 - 7.7.1 人工檢查 (肉眼判斷) 模型回應的品質 - 7.7.2 指令微調有多種模型評估方法 - 7.7.3 使用 AlpacaEval 方法前的準備步驟 7.8 評估微調後的 LLM - 7.8.1 下載 Llama3 模型並啟動 Ollama - 7.8.2 測試並確保 Ollama 正確運行 - 7.8.3 對微調模型的回應進行評分 7.9 總結 - 7.9.1 未來方向 - 7.9.2 持續學習、掌握脈動 - 7.9.3 結語 7.10 重點回顧 【附錄電子書】 ▌附錄 A PyTorch 簡介 A.1 什麼是 PyTorch? A.2 張量簡介 A.3 以運算圖 (Computation Graph) 來理解模型 A.4 自動微分功能簡介 A.5 實作多層神經網路 A.6 建立高效的資料載入器 A.7 典型的訓練迴圈 A.8 儲存與載入模型 A.9 使用 GPU 優化訓練效能 A.10 重點回顧 ▌附錄 B 參考文獻與延伸閱讀 ▌附錄 C 練習題解答 ▌附錄 D 優化訓練迴圈的方法 D.1 預熱學習率 (Learning Rate Warmup) D.2 餘弦衰減 (Cosine Decay) D.3 梯度分割 (Gradient Clipping) D.4 修改後的訓練函式 ▌附錄 E 使用 LoRA 進行參數高效微調 (Parameter-Efficient Fine-tuning) E.1 LoRA 簡介 E.2 準備資料集 E.3 初始化模型 E.4 使用 LoRA 進行參數高效微調

原價: 650 售價: 585 現省: 65元
立即查看
LLM原理完整回顧:大型語言模型整體脈絡最詳細剖析 (1版)

LLM原理完整回顧:大型語言模型整體脈絡最詳細剖析 (1版)

類似書籍推薦給您

原價: 1080 售價: 972 現省: 108元
立即查看
Raspberry Pi 樹莓派:AI × OpenCV × LLM × AIoT 創客聖經 (1版)

Raspberry Pi 樹莓派:AI × OpenCV × LLM × AIoT 創客聖經 (1版)

類似書籍推薦給您

【簡介】 ⛧⛦ 樹莓派 5 / 樹莓派 4 皆適用 ⛦⛧ ⛧⛦ 一本帶你玩翻人工智慧與物聯網 ⛦⛧ 『Raspberry Pi 樹莓派』是一款信用卡大小的單板迷你電腦,深受全球創客的喜愛。 本書將引領你踏上創客之路,利用樹莓派建立 IoT 物聯網與 AIoT 智慧物聯網,以及親手打造遙控串流視訊車、自動避障車、物體追蹤車與 AI 自駕車。甚至讓你在樹莓派上運行 LLM 大型語言模型,並透過 Python 與 LLM 技術,以自然語言進行硬體控制。 是不是已經迫不及待、躍躍欲試了呢? 或許還有點擔心沒有基礎,會難以上手? 請放心。本書將從樹莓派的購買、安裝與設定開始,逐步帶領你使用 Windows 電腦遠端操作樹莓派,並介紹 Linux 系統指令與伺服器架設,讓你不再畏懼終端機黑畫面的文字模式。 接下來,我們將探索樹莓派的 GPIO 腳位,並透過 Python,甚至結合 ChatGPT API 和 LLM 等生成式 AI 來控制硬體。同時,本書也涵蓋如何在樹莓派上使用 Pico 開發板或 Arduino 開發板進行軟硬體整合,為你提供更多面向的選擇。 更精彩的是,運用 Pi 相機模組或 Webcam 攝影機,並結合 OpenCV 電腦視覺套件與多種知名的深度學習模型,實作人臉偵測、手勢追蹤、人體姿態估計、即時物體偵測、文字偵測與車牌辨識等 AI 應用。 至此,你便能輕鬆跟著我們的腳步,透過 Node-RED 物聯網開發工具和 Teachable Machine 來建立 AIoT。此外,也能透過整合超音波感測器、OpenCV 和 TensorFlow Lite,打造出自動避障車、物體追蹤車以及 AI 自駕車。 無論你是創客新手或進階愛好者,本書將幫助你全面掌握樹莓派,發揮你的創意,輕鬆進行各種 AI 軟硬體整合專案! ➢ 無需額外設備,從 Windows 電腦遠端操作樹莓派 ➢ 從零開始學習 Linux 系統與伺服器架設 ➢ 透過 Python 結合 GPIO 腳位與 ChatGPT API 或 LLM,以文字控制硬體 ➢ 同場加映樹莓派 Pico W 與 Arduino Uno 開發板的應用 ➢ 建立 Pi 相機模組或 Webcam 攝影機的網頁串流視訊 ➢ 搭配 OpenCV 電腦視覺套件,實作人臉、手勢、姿勢、物體、文字、車牌等偵測與辨識 ➢ 活用 YOLO、MediaPipe、CVZone 和 TensorFlow Lite 等熱門 AI 套件 ➢ 透過 Node-RED 建立 IoT 儀表板,並連結 TensorFlow.js 手勢辨識打造 AIoT 應用 ➢ 藉由自駕車智慧系統,體驗深度學習模型的道路、號誌與行人偵測 ➢ 親手打造你的遙控串流視訊車、自動避障車、物體追蹤車以及 AI 自駕車 【目錄】 ▍第 1 章 認識樹莓派 1-1 認識樹莓派 1-2 樹莓派的型號 1-3 樹莓派的硬體規格 1-4 樹莓派的硬體配件 1-5 你需要知道的背景知識 ▍第 2 章 購買、 安裝與使用樹莓派 2-1 購買樹莓派與周邊裝置 2-2 安裝 Raspberry Pi OS 至 Micro-SD 卡 2-3 在 Windows 用 VNC 遠端連線使用樹莓派 2-4 設定 Raspberry Pi OS 2-5 在瀏覽器用 Raspberry Pi Connect 遠端連線使用樹莓派 ▍第 3 章 Raspberry Pi OS 基本使用 3-1 認識 Linux、終端機和桌面環境 3-2 使用 Raspberry Pi OS 桌面環境 3-3 Raspberry Pi OS 應用程式介紹 3-4 Raspberry Pi OS 偏好設定 3-5 在 Raspberry Pi OS 執行命令 3-6 在 Windows 和樹莓派之間交換檔案 ▍第 4 章 Linux 系統管理 4-1 啟動終端機使用命令列的 Linux 指令 4-2 Linux 的常用指令 4-3 Linux 的使用者與檔案權限指令 4-4 Linux 作業系統的目錄結構 4-5 使用命令列安裝和解除安裝應用程式 4-6 安裝中文輸入法 ▍第 5 章 使用樹莓派架設伺服器 5-1 架設 Web 伺服器 5-2 安裝 PHP 開發環境 5-3 安裝設定 MySQL 資料庫系統 5-4 架設 FTP 伺服器 ▍第 6 章 建立 Linux 的 Python 開發環境 6-1 在樹莓派安裝 Python 虛擬環境工具 6-2 建立與管理 Python 虛擬環境 6-3 安裝與使用 Visual Studio Code 6-4 使用 Jupyter Notebook + Gradio 建立 AI 互動介面 6-5 Python 應用範例:存取 MySQL 資料庫 6-6 Python 應用範例:使用 ChatGPT API ▍第 7 章 GPIO 硬體介面 7-1 認識樹莓派的 GPIO 接腳 7-2 使用 Python 的 GPIO Zero 模組 7-3 數位輸出與數位輸入 7-4 類比輸出 7-5 類比輸入 7-6 GPIO 應用範例:使用生成式 AI 控制 LED 燈 ▍第 8 章 Pico W 開發板與 MicroPython 語言 8-1 認識 Raspberry Pi Pico 開發板 8-2 MicroPython 語言的基礎 8-3 使用 Thonny 建立 MicroPython 程式 8-4 使用 MicroPython 控制 Raspberry Pi Pico 開發板 8-5 Pico W 的 WiFi 連線 8-6 MicroPython 應用範例:用 Python 建立序列埠通訊 ▍第 9 章 相機模組與串流視訊 9-1 認識樹莓派的相機模組 9-2 安裝與設定樹莓派的相機模組 9-3 在終端機使用相機模組 9-4 使用 Python 程式操作相機模組 9-5 在樹莓派建立串流視訊 9-6 使用外接 USB 網路攝影機 ▍第 10 章 AI 實驗範例(一):OpenCV + YOLO 10-1 在樹莓派安裝 OpenCV 10-2 OpenCV 的基本使用 10-3 AI 實驗範例:OpenCV 人臉偵測 10-4 AI 實驗範例:OpenCV + YOLO 物體偵測 10-5 AI 實驗範例:Ultralytics 的 YOLO11 ▍第 11 章 AI 實驗範例(二):MediaPipe + CVZone 3D 11-1 Google MediaPipe 機器學習框架 11-2 CVZone 電腦視覺套件 11-3 手勢與人體姿態的 3D 角度與距離 11-4 AI 實驗範例:辨識剪刀、石頭和布的手勢 ▍第 12 章 AI 實驗範例(三):TensorFlow Lite + OpenCV DNN + LLM 12-1 TensorFlow Lite 影像分類 12-2 OpenCV DNN 影像分類與文字偵測 12-3 使用 LLM 大型語言模型 12-4 AI 實驗範例:TensorFlow Lite 即時物體偵測 12-5 AI 實驗範例:EasyOCR 的 AI 車牌辨識 12-6 AI + GPIO 實驗範例:使用 LLM 語意分析控制 GPIO ▍第 13 章 IoT 實驗範例:溫溼度監控與 Node-RED 13-1 認識 IoT 物聯網 13-2 DHT11 溫溼度感測器 13-3 Node-RED 物聯網平台 13-4 MQTT 通訊協定 13-5 Node-RED 儀表板 13-6 IoT 實驗範例:溫溼度監控的 Node-RED 儀表板 ▍第 14 章 AIoT 實驗範例:Node-RED + TensorFlow.js 14-1 認識 TensorFlow.js 14-2 安裝與使用相關的 Node-RED 節點 14-3 AIoT 實驗範例:Node-RED 與 COCO-SSD 14-4 AIoT 實驗範例:Node-RED 與 Teachable Machine ▍第 15 章 硬體介面實驗範例(一):樹莓派 WiFi 遙控視訊車 15-1 認識樹莓派智慧車 15-2 樹莓派的直流馬達控制 15-3 再談 Python 的 Flask 框架 15-4 打造樹莓派 WiFi 遙控視訊車 ▍第 16 章 硬體介面實驗範例(二):樹莓派 AI 自駕車 16-1 OpenCV 色彩偵測與追蹤 16-2 打造自動避障和物體追蹤車 16-3 車道自動偵測系統 16-4 打造樹莓派 AI 自駕車 ▍附錄 A Python 程式設計基礎 A-1 認識 Python 語言 A-2 在樹莓派開發 Python 程式 A-3 Python 變數與運算子 A-4 Python 流程控制 A-5 Python 函式與模組 A-6 Python 串列與字串 ▍附錄 B 當樹莓派遇到 Arduino 開發板 B-1 認識 Arduino Uno 開發板 B-2 在樹莓派建立 Arduino 開發環境 B-3 使用 Arduino IDE 建立 Arduino 程式 B-4 在樹莓派開發 Arduino 程式 B-5 使用 Python 建立 Arduino 序列埠通訊 ▍附錄 C Raspberry Pi 樹莓派零件購買清單

原價: 880 售價: 792 現省: 88元
立即查看