此書籍沒有詳細資訊。
還沒有人留下心得,快來搶頭香!
為您推薦
類似書籍推薦給您
【簡介】 【內容特點】 大語言模型與LangChain應用架構 ★OpenAI API金鑰與開發環境建置 ★模型類別與LangChain快取機制 ★提示詞範本與多輪對話設計 ★任務鏈組件:LLM鏈、序列鏈、路由鏈 ★文件處理:Stuff鏈、Refine鏈與Map-Reduce鏈 ★記憶體模組:階段緩衝、摘要與Redis整合 ★LCEL語法與並行處理技巧 ★Agent系統與多工任務執行 ★回呼處理與任務即時監控 ★模型I/O處理與嵌入儲存系統 ★檢索系統與文字向量儲存架構 ★系統性能最佳化與查詢任務設計 ★企業級智慧問答系統建構流程 【內容簡介】 本書共分12章,第一章介紹大語言模型基本原理與LangChain架構;第二章說明API金鑰與開發工具鏈設定流程;第三章講解模型類別與快取應用;第四章涵蓋提示詞範本、多輪對話與少樣本提示技巧;第五章介紹LLM鏈、序列鏈、路由鏈與文件處理鏈的功能與差異;第六章說明聊天記憶模組、階段摘要與Redis整合方式;第七章描述LCEL語法與並行執行實作;第八章介紹Agent架構、ReAct流程與自訂LLM代理配置;第九章說明回呼處理常式設計與任務監控機制;第十章講解模型輸入輸出解譯與向量儲存結構;第十一章探討系統效能優化、任務鏈拆解與併發處理;第十二章實作企業級智慧問答系統,整合提示、檢索、記憶與回呼模組,展示從需求設計到測試部署的完整流程。 【目錄】 ▌第1 章 大語言模型與LangChain 1.1 大語言模型基本原理 1.1.1 語言模型的建構:從N-grams 到深度學習 1.1.2 Transformer 架構的崛起:自注意力機制解析 1.1.3 預訓練與微調:如何提升模型性能 1.2 LangChain 基本原理與開發流程 1.2.1 LangChain 的核心組件:理解任務鏈與記憶體模組 1.2.2 LangChain 開發流程概述 1.2.3 如何快速上手LangChain 開發 1.3 本章小結 1.4 思考題 ▌第2 章 LangChain 開發前的準備 2.1 建立OpenAI API 金鑰 2.1.1 註冊與帳戶設定 2.1.2 生成和管理API 金鑰 2.1.3 設置存取權限與安全性 2.2 建構Anaconda+PyCharm 開發工具鏈 2.2.1 安裝與設定Anaconda 環境 2.2.2 PyCharm 整合Anaconda 環境 2.2.3 套件管理與環境管理 2.3 初探LangChain 相依函式庫 2.3.1 LangChain 核心相依函式庫概覽 2.3.2 openai 函式庫的安裝與設定 2.3.3 其他輔助工具與擴充套件 2.4 本章小結 2.5 思考題 ▌第3 章 模型、模型類別與快取 3.1 關於模型 3.1.1 模型的定義與應用 3.1.2 語言模型的工作原理 3.2 Chat 類別、LLM 類模型簡介 3.2.1 Chat 類模型概述 3.2.2 LLM 類模型概述 3.3 基於OpenAI API 的初步開發 3.3.1 OpenAI API 呼叫基礎 3.3.2 完成基本文字生成任務 3.4 自訂LangChain Model 類別 3.4.1 LangChain Model 類別的建構基礎 3.4.2 模型參數的自訂與調優 3.5 LangChain 與快取 3.5.1 快取的作用與類型 3.5.2 記憶體快取的使用 3.5.3 檔案快取與持久化管理 3.5.4 Redis 快取的整合與最佳化 3.6 本章小結 3.7 思考題 ▌第4 章 提示詞工程 4.1 提示詞的定義與提示詞範本 4.1.1 理解提示詞在模型中的核心角色 4.1.2 建構提示詞範本:實現靈活多樣的提示結構 4.2 動態提示詞生成技術 4.2.1 基於使用者輸入的提示詞自我調整生成 4.2.2 動態提示詞生成 4.3 插槽填充與鏈式提示 4.3.1 插槽填充技術:快速實現變數插入的提示詞範本 4.3.2 鏈式提示詞:透過分步驟生成複雜內容 4.4 多輪對話提示詞 4.4.1 維護連續對話的提示詞設計 4.4.2 建構連貫自然的多輪互動 4.5 巢狀結構提示詞與少樣本提示詞 4.5.1 分層級處理複雜任務的多級提示詞 4.5.2 Few-shot 提示詞:透過範例提升生成效果的準確性 4.6 本章小結 4.7 思考題 ▌第5 章 核心組件1:鏈 5.1 LLM 鏈 5.1.1 LLM 鏈的基本工作流程和參數設置 5.1.2 如何在LLM 鏈中嵌入提示詞範本和前置處理邏輯 5.2 序列鏈 5.2.1 序列鏈的建構與分層呼叫 5.2.2 在序列鏈中連接多個LLM 和工具模組 5.3 路由鏈 5.3.1 根據輸入內容動態選擇鏈路徑 5.3.2 設置不同的模型和任務路徑以適應複雜需求 5.4 文件鏈 5.4.1 Stuff 鏈與Refine 鏈的應用場景和適用文件類型 5.4.2 Map-Reduce 鏈與Map-Rerank 鏈的文件處理策略 5.5 本章小結 5.6 思考題 ▌第6 章 核心組件2:記憶體模組 6.1 聊天訊息記憶 6.1.1 聊天訊息儲存機制:保障對話連續性 6.1.2 動態訊息記憶策略的設計與實現 6.2 階段緩衝區與階段緩衝視窗 6.2.1 階段緩衝區的設定與應用場景 6.2.2 階段緩衝視窗的實現 6.3 階段摘要與支援向量儲存 6.3.1 長階段摘要的生成與更新 6.3.2 使用向量儲存實現階段內容的高效檢索 6.4 使用Postgres 與Redis 儲存聊天訊息記錄 6.4.1 基於Postgres 的持久化訊息儲存方案 6.4.2 Redis 快取技術在訊息快速存取中的應用 6.5 本章小結 6.6 思考題 ▌第7 章 LangChain 與運算式語言 7.1 LCEL 初探與流式支援 7.1.1 LangChian 運算式語言初探 7.1.2 LCEL 流式處理實現 7.2 LCEL 並存執行最佳化 7.2.1 多工並存執行策略 7.2.2 LCEL 並存執行 7.3 回退機制的設計與實現 7.4 LCEL 與LangSmith 整合 7.4.1 LangSmith 入門 7.4.2 LangSmith 的初步應用 7.5 本章小結 7.6 思考題 ▌第8 章 核心組件3:Agents 8.1 何為LangChain Agent 8.1.1 Agent 的核心概念與工作原理 8.1.2 LangChain 中Agent 的應用場景分析 8.1.3 自訂LLM 代理 8.2 ReAct Agent 8.2.1 ReAct Agent 解析 8.2.2 ReAct Agent 的典型應用 8.3 Zero-shot ReAct 與結構化輸入ReAct 8.3.1 Zero-shot ReAct 的原理與實現 8.3.2 結構化輸入ReAct 的使用 8.4 ReAct 文件儲存庫 8.5 本章小結 8.6 思考題 ▌第9 章 核心組件4:回呼機制 9.1 自訂回呼處理常式 9.1.1 建立自訂回呼處理常式 9.1.2 自訂鏈的回呼函式 9.2 多個回呼處理常式 9.3 追蹤LangChains 9.3.1 鏈式任務的追蹤和偵錯方法 9.3.2 任務串流資料的即時監控與分析 9.3.3 將日誌記錄到檔案 9.3.4 Token 計數器 9.4 利用Argilla 進行資料整理 9.4.1 初步使用Argilla 9.4.2 Argilla 輔助資料整理 9.5 本章小結 9.6 思考題 ▌第10 章 模型I/O 與檢索 10.1 模型I/O 解譯器 10.1.1 輸入前置處理與輸出格式化:確保模型I/O 一致性 10.1.2 自訂輸出解析器的實現與應用 10.2 文字嵌入模型與向量儲存 10.2.1 文字嵌入模型 10.2.2 向量儲存 10.3 本章小結 10.4 思考題 ▌第11 章 LangChain 深度開發 11.1 性能最佳化與併發處理 11.1.1 模型加速、蒸餾、FP16 精度 11.1.2 併發處理多使用者請求 11.2 複雜查詢與多級任務鏈設計 11.3 本章小結 11.4 思考題 ▌第12 章 企業級智慧問答系統 12.1 專案概述與分析 12.1.1 專案概述 12.1.2 專案任務分析 12.2 模組化開發與測試 12.2.1 資料載入模組 12.2.2 嵌入生成與儲存模組 12.2.3 提示詞工程 12.2.4 任務鏈設計 12.2.5 Agent 系統 12.2.6 回呼機制與監控 12.2.7 單元測試與整合測試 12.3 系統集成、部署與最佳化 12.3.1 系統集成與部署 12.3.2 回應速度最佳化 12.4 本章小結 12.5 思考題
類似書籍推薦給您
【簡介】 你與 AI 大神的距離,只差這本「動手做」的實戰指南! 翻開本書,開始打造專屬於你的第一個 AI 應用吧! ★ AI 當你的程式助教,從零開始不怕痛! 本書專為入門者設計,帶你從 Colab 環境建置到程式碼實作,每一步都有白話說明。 ★ 掌握 LangChain、LangGraph、LangSmith核心框架,晉升 AI 開發者 不只教你用 AI,更教你打造 AI!學會業界最主流的 LLM 應用框架,讓你的作品更上一層樓。 ★ 深入 RAG 技術,徹底告別 AI 的胡說八道 本書帶你深入剖析 RAG(檢索增強生成)技術,讓你的 AI 應用能整合外部知識,提供有憑有據的精準回答。 ★ 打造兩個超酷專案,作品集馬上 +1 親手實作出「多語言 AI 翻譯系統」與「自動化新聞摘要與社群貼文產生器」,從理論到實踐,完整體驗開發流程。 ★ Gradio 讓你的成果被看見,輕鬆做出互動介面 學會用 Gradio 快速打造使用者介面,讓你的 AI 程式不只會跑,還能動手玩,輕鬆分享給朋友與全世界。 【第一部分:打好 GenAI 核心基礎】 ◆揭開 LLM 的神秘面紗:從大型語言模型的運作原理、Transformer 架構,到什麼是 Token,用最白話的方式,讓你真正搞懂 AI 如何思考。 ◆學會與 AI 高效溝通:深入「提示語工程」的核心策略,學習如何下達精準指令,讓 AI 聽懂你的心聲,產出高品質的結果。 ◆開發環境一次搞定:帶你無痛上手 Google Colab,從建立筆記本、操作介面到管理 API 金鑰,讓你擁有一個免費又強大的雲端開發實驗室。 【第二部分:掌握 LLM 開發框架與應用】 ◆LangChain 實戰入門:學習如何使用 LangChain 這套強大的開發框架,將資料載入、切割、儲存到模型串接的複雜流程,變成像堆積木一樣簡單有趣的過程。 ◆LangGraph 打造 AI 代理:學習如何用 LangGraph 設計出能夠自我修正(Reflection)、團隊協作(Hierarchical Workflow)的 AI 代理,讓你的 AI 應用變得更聰明、更自動化。 ◆LangSmith 監測系統:掌握 LLM 每一次思考與推論的過程,透過 LangSmith 關注每次 LLM 對話內容,讓除錯變得清晰、透明。 ◆深入 RAG 解決 AI 幻覺:從 RAG 的誕生背景、核心概念到完整實作,帶你一步步打造能整合外部知識庫的 AI 系統,讓回答不再天馬行空。 【第三部分:從零到一的專案實作】 ◆多語言 AI 翻譯系統:整合 LangGraph 的所有知識,打造一個能同時進行多語言翻譯、並透過自我反思機制,確保各版本語意一致的專業翻譯團隊。 ◆自動化新聞摘要與 X 貼文工廠:從千字長文自動生成百字摘要,再進一步優化為風格吸睛、標籤精準的社群貼文,打造一個高效的「一站式」內容產生器。 【本書適合】 ◎ 想踏入AI領域的學生:不論是資工、管理還是文組,這本書都能幫你建立實作能力。 ◎ 充滿好奇的 GenAI 玩家:想從單純的「使用者」晉升為「創造者」。 ◎ 產品經理與創業者:想了解如何將 LLM 技術落地,打造創新產品。 ◎ 想累積作品集的準工程師:透過本書專案,快速為你的履歷加分。 你是不是還在做AI的使用者,卻渴望能夠主導AI開發並將其運用於實際專案中? 這本書將引領你學會設計與開發AI應用,開始寫程式、設計架構,成為能獨立開發AI應用的開發者。 專家推薦 我認為這本書非常棒的地方是恆修在技術講解中融入了大量的實務考量。比如在討論文件分割時,不僅考慮技術層面的語義完整性,還顧及了不同文件類型(技術文件、公司政策、API 文件等)的特性差異,提供了針對性的優化策略。這些步驟也確實是我們在業界實務開發上會考慮到的「眉角」。這樣貼近實際應用場景的設計,才會讓讀者能夠將所學直接應用於企業級專案開發。——喬泰科技股份有限公司 - 邊緣運算電腦總監暨AI 系統架構師,侯冠宇 【目錄】 第一部分 GenAI 基礎內容 第1 章 揭開大型語言模型(LLM)的神秘面紗:從入門到核心應用 1.1 引言:你的文字魔法師,大型語言模型 1.2 什麼是大型語言模型? 1.3 大型語言模型如何運作?從「提問」到「生成」 1.3.1 階段一:給予清晰的「提示」 1.3.2 階段二:模型「連續預測」並生成內容 1.4 驅動 LLM 的核心引擎:Transformer 架構 1.4.1 編碼器(Encoder):理解輸入資訊 1.4.2 解碼器(Decoder):生成回應內容 1.4.3 自注意力(Self-Attention)機制:讓模型看得更全面 1.5 LLM 的多元應用:從文字創作到智慧助理 1.5.1 文本分類與情感分析:洞察文字背後的情緒與類別 1.5.2 自然語言理解與生成:高效的文字產出與摘要 1.5.3 程式碼理解與生成:開發者的智慧幫手 1.5.4 自主推理與工作流程執行:從「回答」到「完成」 1.6 結語:展望LLM 的未來 第2 章 ChatGPT:從研究預覽到引領全球的AI 革命 2.1 引言:從低調發布到席捲全球的 AI 轉捩點 2.2 ChatGPT 的技術基石:GPT 模型家族的演進 2.2.1 Transformer 架構:語言理解的奠基石 2.2.2 GPT 系列模型的進化之路 2.3 ChatGPT 的誕生與爆紅:一場意料之外的「研究預覽」 2.4 剖析幕後:ChatGPT 的技術挑戰與解決方案 2.4.1 通用性:如何在多元應用情境中遊刃有餘? 2.4.2 偏見與不恰當內容:如何避免AI 說出不該說的話? 2.4.3 後端基礎設施與高負載:如何支撐億級用戶的龐大需求? 2.5 ChatGPT 的深遠影響:各行各業的變革性工具 2.5.1 企業效率與創新:提升營運的智慧化程度 2.5.2 產業兩面刃:教育與科技的挑戰與機會 2.6 快速上手指南:三步驟開啟你的ChatGPT 之旅 2.7 實戰演練:激發ChatGPT 的最大潛能 2.7.1 多樣化提問:探索不同的回答風格 2.7.2 語言學習與翻譯:你的隨身語言家教 2.7.3 寫作輔助:提升你的寫作效率 2.7.4 程式碼生成與除錯:開發者的智慧幫手 2.7.5 學習輔助:解答你的知識盲點 2.7.6 創意發想:你的腦力激盪夥伴 2.8 最佳實踐與使用原則 2.8.1 善用最新版本:享受技術前沿的紅利 2.8.2 精準撰寫提示語:溝通是關鍵 2.8.3 選擇合適應用場景:讓 ChatGPT 適得其所 2.8.4 避免過度侷限指令:保留模型的彈性 2.8.5 認識局限並適度依賴:當個聰明的使用者 2.9 結語:展望 AI 的未來與我們的角色 第3 章 揭密「提示語工程」:學會如何精準對話 AI,讓它聽懂你的心聲! 3.1 引言:當 AI 讀不懂你的心思,怎麼辦? 3.2 背景篇:提示語工程,AI 時代的新語言橋樑 3.2.1 什麼是「提示語工程」? 3.2.2 提示語工程帶來的典範轉移:從「寫程式」到「說人話」 3.3 核心策略:設計直觀且有效的提示語,讓 AI 事半功倍 3.3.1 策略一:掌握「角色、任務、上下文、格式」四大關鍵(R.T.C.F.) 3.3.2 策略二:力求「清晰且具體」的提示,避免模糊空間 3.3.3 策略三:善用「添加上下文」 3.3.4 策略四:反覆試驗與精煉 3.4 提示語工程的多元應用:AI 在各領域的得力助手 3.5 進階應用:透過提示語工程引導AI「思考」與「推理」 3.5.1 零樣本提示(Zero-Shot Prompting):無需範例,直接考驗 AI 的通識能力 3.5.2 單樣本提示(One-Shot Prompting):給予一個精華範例,讓AI 快速掌握要領 3.5.3 少樣本提示(Few-Shot Prompting):多個範例,幫助 AI 歸納出規律 3.5.4 思維鏈提示(Chain-of-Thought Prompting):引導AI 一步步「思考」 3.5.5 否定提示(Negative Prompting):明確告訴AI「不要做什麼」 3.6 結語:掌握提示語工程,成為AI 時代的溝通高手 第4 章 如何挑選最適合你的大型語言模型? 4.1 引言:面對百花齊放的LLM,你選對了嗎? 4.2 第一步:明確你的需求與目標,這是關鍵! 4.3 第二步:選擇模型前的三大必問問題,讓你的決策更精明! 4.3.1 模型規模與複雜度:「大」不一定就是最好? 4.3.2 上下文長度:你的AI 能「讀」多長的故事? 4.3.3 多語言支援:別只懂英文!你的AI 該更國際化! 4.4 第三步:常見使用場景與推薦模型特性,對號入座更有效! 4.4.1 客服支援與智慧問答 4.4.2 內容生成與創意寫作 4.4.3 長文摘要與資訊提取 4.4.4 程式碼生成與開發輔助 4.5 結語:選擇LLM,就像選擇一位好隊友 第5 章 Colab 介紹 5.1 引言:為什麼要使用Google Colab ? 5.2 坐而言不如起而行:開啟你的第一個Colab 5.3 建立在他人基礎上:加載外部的Google Colab 筆記本 5.4 延伸思考:雲端平台的彈性與限制 5.5 結論與後續探索 第6 章 Colab 操作指南: 就像間開放式實驗室 6.1 背景說明:什麼是Colab ? 6.2 核心概念:筆記本結構與單元格 6.3 實際應用:如何高效操作與協作 6.3.1 新增與移動單元格 6.3.2 Python 操作技巧 6.4 協作佳:與Google Drive 完美整合 6.5 總結與延伸思考 第7 章 Colab 如何添加 Secret key 7.1 背景說明 7.2 核心概念:什麼是Colab Secrets ? 7.3 實際應用:如何在Colab 中使用Secrets ? 7.4 提示:避免常見錯誤與風險 7.5 總結 第8 章 初次認識Gemini:簡單探索LLM 開發所需魅力 8.1 背景說明:為什麼需要Gemini API Key ? 8.2 什麼是Google Gemini ? 8.2.1 Gemini 的版本 8.3 環境安裝建置 8.4 從Google AI Studio 取得Gemini API Key 8.5 第一次體驗Gemini 的魅力 8.5.1 設定所需金鑰 8.5.2 列出當前可用的模型 8.5.3 使用輸入的文字來生成文字 8.5.4 串流方式產生文字 8.5.5 即時通訊對話 8.6 結論與延伸思考 第9 章 Gradio 是什麼?如何快速打造互動式機器學習應用? 9.1 背景說明:Gradio 是什麼? 9.1.1 Gradio 的特點 9.1.2 與其他工具(例如Streamlit)比較 9.2 使用範例與實際應用 9.2.1 研究與跨領域合作 9.2.2 教育教學:促進機器學習概念的理解 9.2.3 快速原型開發:企業與初創公司 9.3 Gradio 的主要使用者群體 9.4 總結與延伸思考 第10 章 Gradio- 啟動篇:打造機器學習應用 10.1 快速入門:Hello World 範例 10.1.1 程式碼拆解 10.1.2 執行與體驗 10.2 為輸入框加上標籤、佔位符 10.2.1 Gradio `share=True` 的運作方式 10.3 實用小建議與常見疑難排解 10.4 總結與後續探索 第11 章 Gradio- 建立對話機器人 11.1 背景說明 11.2 建立聊天機器人:核心概念與結構 11.3 實際範例 11.3.1 範例1:隨機回應「Yes」或「No」 11.3.2 範例2:依序「同意」或「不同意」的簡單邏輯 11.4 串流(Streaming)聊天機器人 11.5 額外的輸入(Additional Inputs) 11.6 預設回覆(Preset Responses) 11.7 練習題:為Chatbot 加入「系統提示」與「字數限制」的額外輸入 第12 章 Gradio 串接HuggingFace:從基礎到部署的完整指南 12.1 背景說明:HuggingFace ? 12.2 如何下載與使用HuggingFace 模型 12.3 部署到 HuggingFace Spaces 12.3.1 建立HuggingFace 帳號與專案空間(Space) 12.3.2 建立程式與需求檔 12.3.3 最佳實踐與注意事項 12.4 結論:開啟你在AI 領域的無限可能 第二部分 LLM 開發基礎與應用 第13 章 LangChain 在LLM 時代的定位:打造你的AI 應用流水線 13.1 引言:當AI 應用百花齊放,開發者如何高效應戰? 13.2 時代背景:為何我們需要LLM 應用框架? 13.3 核心概念:抽象化與模組化,打造AI 流水線 13.4 典型LLM 開發流程:LangChain 如何串聯各個環節? 13.5 LangChain 的核心概念與關鍵組件:深入解析你的AI 工具箱 13.6 結語:LangChain,你的LLM 應用開發加速器 第14 章 LangChain 實戰:輕鬆搞定長文與多文件摘要,告別AI 失憶症 14.1 為何我的AI 總是失憶?一切從「上下文視窗」開始 14.2 策略一:分而治之的Map-Reduce 14.3 策略二:層層迭代的Refine 技巧 14.4 總結:如何選擇最適合你的摘要策略? 第15 章 LangGraph 入門:打造你的AI「智能導航系統」 15.1 前言:為什麼傳統的AI 流程不夠用? 15.2 核心概念:節點、邊與狀態,AI 流程的積木 15.2.1 節點(Nodes):AI 的最小執行單元 15.2.2 邊(Edges):定義AI 流程的走向 15.2.3 狀態(State):AI 的短期記憶 15.3 實作:用LangGraph 打造公司用語生成代理 15.4 結論:LangGraph,為AI 開啟無限可能 第16 章 LangGraph 實戰:用Reflection 模式,打造會自我校稿的AI 郵件助理 16.1 前言:AI 寫的內容,真的夠專業嗎? 16.2 Reflection 模式解析:AI 如何「自我反思」? 16.3 實作Reflection:打造你的AI 郵件助理 16.4 結論:Reflection,你的內容品質守門員 第17 章 LangGraph 從單一代理到協作流程:實現ReAct、Reflection 與Hierarchical Workflow 17.1 前言:AI 為什麼需要「團隊合作」? 17.2 Agentic Pattern 概覽:從自我進化到分工合作 17.3 Agentic Pattern 解析與LangGraph 實現 17.3.1 ReAct:單一代理的迭代決策 17.3.2 Reflection:自我改進的反思循環 17.3.3 Hierarchical Workflow:層次化的協作管理 17.4 結論:LangGraph 與AI 協作的未來 第18 章 LangSmith 啟航手冊 18.1 前言:背景說明 18.1.1 舉個生活化例子 18.2 Langsmith 是什麼? 18.3 為什麼需要 Langsmith ? 18.4 Langsmith 的角色 18.5 LangSmith 啟動流程 18.6 小結 第19 章 RAG 的誕生與核心概念 19.1 引言 19.2 從單純的LLM 到「有憑有據」的對話 19.2.1 語言模型的光輝與陰影 19.2.2 「有憑有據」的重要性 19.3 RAG 的兩大核心支柱:檢索與生成 19.3.1 理解RAG:從查字典到造句的類比 19.3.2 檢索(Retrieval):智慧的資料查找 19.3.3 生成(Generation):基於事實的智慧回答 19.3.4 兩個階段的協同效應 19.4 LangChain RAG 藍圖:檢視整個資料流向 19.4.1 LangChain 在 RAG 生態系統中的角色 19.4.2 RAG 系統的核心組件架構 19.4.3 環境準備與套件安裝 19.4.4 系統設計的考量因素 19.5 本章總結 第20章 RAG 前處理:專屬知識庫的基礎 20.1 引言 20.2 認識不同格式的來源 20.2.1 現實世界中的資料挑戰 20.2.2 RAG 系統對資料的需求 20.2.3 LangChain 的解決方案 20.3 LangChain Document Loaders 教學 20.3.1 環境準備與套件安裝 20.3.2 處理 PDF 文件 20.3.3 處理網頁內容 20.3.4 處理結構化資料 20.3.5 整合多種資料來源 20.4 如何有效切分長篇文件 20.4.1 為什麼需要文件分割 20.4.2 分割策略 20.4.3 基礎分割策略實作 20.4.4 語義感知分割 20.4.5 分割品質評估 20.4.6 針對特定內容類型的優化分割 20.4.7 動態分割參數調整 20.5 本章總結 20.5.1 關鍵回顧 20.5.2 技術洞察 20.5.3 下一步的展望 第21章 向量嵌入:化文字為數值 21.1 文字的數學表示:嵌入模型的原理 21.1.1 從符號到語義的飛躍 21.1.2 嵌入技術 21.1.3 嵌入模型的特點 21.1.4 探索語義相似性 21.1.5 視覺化嵌入空間 21.2 向量資料庫:高效檢索的專屬儲存空間 21.2.1 向量資料庫的必要性 21.2.2 向量資料庫的核心特性 21.2.3 建立向量資料庫 21.2.4 向量搜尋功能測試 21.2.5 帶分數的搜尋 21.3 動手實作:打造您的第一個向量知識庫 21.3.1 整合完整的資料處理流程 21.3.2 測試智慧搜尋功能 21.3.3 進階搜尋功能實作 21.4 本章總結 第22章 RAG 鏈組裝,讓外部知識活起來 22.1 將檢索與生成結合 22.1.1 RAG 系統的核心理念 22.1.2 RAG 工作流程詳解 22.1.3 設計決策 22.2 LangChain RetrievalQA 鏈程式碼實作 22.2.1 環境準備與模組導入 22.2.2 重建知識庫(快速版本) 22.2.3 語言模型配置 22.2.4 自訂提示模板 22.2.5 建立 RetrievalQA 鏈 22.3 實戰驗證:測試您的 RAG 系統 22.3.1 基礎問答能力測試 22.3.2 不同風格的回答比較 22.3.3 邊界情況和錯誤處理測試 22.3.4 檢索品質分析 22.3.5 系統性能評估 22.4 本章總結 22.4.1 重大技術成就 22.4.2 下一步展望 第23章RAG 效能評估 23.1 RAG 進階:優化檢索與生成的策略 23.1.1 理解檢索系統的本質限制 23.1.2 進階檢索策略的理論基礎 23.1.3 檢索結果融合與重排序 23.1.4 MultiQueryRetriever 的實作與優化 23.1.5 自訂查詢生成策略 23.1.6 HyDE(假設性文件嵌入)的概念與實作 23.2 評估 RAG 系統:從主觀到客觀 23.2.1 評估的重要性與挑戰 23.2.2 RAGA 評估框架的理論基礎 23.2.3 實作綜合評估框架 23.2.4 持續評估與 A/B 測試框架 23.3 從原型到產品:部署 RAG 系統的考量 23.3.1 部署架構設計考量 23.3.2 性能優化策略 23.4 本章總結 23.4.1 技術能力的全面提升 第三部分 深刻的工程洞察專案實作 第24 章 多語言翻譯系列一:打造你的第一個AI 翻譯系統 24.1 為什麼需要一個聰明的AI 翻譯系統? 24.2 LangGraph:你的AI 專案指揮家 24.3 第一次實作就上手:打造你的基礎翻譯系統 24.4 結論 第25 章 多語言翻譯系列二:你的翻譯,可以更完美 25.1 為什麼你的AI 翻譯不能只做一次? 25.2 讓AI 動起來:理解ReAct 模式與 LangGraph 的結合 25.3 親手打造你的 ReAct 翻譯代理:程式碼實作教學 25.4 你的成就感,就是我的目標! 第26 章 多語言翻譯系列三:實現多語言並行翻譯團隊 26.1 為什麼需要同時翻譯成多國語言? 26.2 你的AI 專案經理:理解Hierarchical Workflow 26.3 親手打造你的AI 翻譯團隊:程式碼實作教學 26.4 你的成就感,就是我的目標! 第27 章 多語言翻譯系列四:用Reflection 模式檢查翻譯一致性 27.1 為什麼翻譯的「一致性」比你想像中更重要? 27.2 你的AI 審稿員:理解Reflection 模式 27.3 親手打造你的AI 品質把關員:程式碼實作教學 27.4 恭喜你,你的AI 團隊又升級了! 第28 章 多語言翻譯系列五:打造完整的多語翻譯系統:整合與應用 28.1 簡介 28.1.1 整合應用的場景 28.2 系統設計與技術整合 28.3 實作整合系統 28.4 打造你的夢幻翻譯系統:程式碼實作教學 28.5 系統的優勢與應用 28.6 結論 第29 章 新聞摘要系列一:打造高效社群貼文生成器 29.1 你是不是也每天被資訊淹沒? 29.2 一個小工具,如何解決大問題? 29.3 親手打造你的AI 新聞摘要器:程式碼實作教學 29.4 你的成就感,就是我的目標! 第30 章 新聞摘要系列二:讓你的X 貼文更吸睛! 30.1 寫在前面:為什麼你的新聞摘要總是差了點什麼? 30.2 高品質摘要的價值:不只是閱讀,更是影響力 30.3 從「摘要生成」到「品質檢查」 30.3.1 設計核心:定義一個「狀態」來追蹤進度 30.3.2 構建「工作流程」:誰先做,誰後做? 30.4 程式碼實現:手把手帶你建構LangGraph 摘要優化器 30.5 結論與預告:下一站,LangGraph 翻譯系列! 第31 章 新聞摘要系列三:打造吸睛貼文 31.1 寫在前面:還在手動寫X 貼文?你可能已經輸在起跑點! 31.1.1 一則好貼文的價值:不只發布,更是引爆話題 31.2 從「摘要」到「貼文」 31.2.1 設計核心:定義一個「狀態」來追蹤進度 31.2.2 構建「工作流程」:誰先做,誰後做? 31.3 程式碼實現:手把手帶你建構LangGraph 貼文生成器 31.4 自動生成貼文,能為你創造哪些商業價值? 31.5 結論與預告:下一站,LangGraph 翻譯系列最終章! 第32 章 新聞摘要系列四:摘要貼文改良 32.1 寫在前面:為什麼你的貼文,總是差了一點「感覺」? 32.1.1 一則好貼文的價值:不只發布,更是精準溝通 32.2 從「初稿」到「精修」的編輯旅程 32.2.1 設計核心:定義一個「狀態」來追蹤進度 32.2.2 構建「工作流程」:誰先做,誰後做? 32.3 程式碼實現:手把手帶你建構風格優化器 32.4 優化後的貼文,能為你創造哪些商業價值? 32.5 結論與預告 第33 章 新聞摘要系列五:打造「一站式」爆款貼文工廠 33.1 前言:是時候終結你的內容焦慮了! 33.2 整合後的系統:為什麼 1 + 1 + 1 + 1 > 4? 33.3 系統設計 33.3.1 核心設計:追蹤「一切」的狀態物件 33.3.2 工作流程:一氣呵成的自動化流程 33.4 程式碼實現:手把手打造你的全自動內容發布機 33.5 最終成果與展望:你的全自動內容發布機
類似書籍推薦給您
【簡介】 若要打造可推理及提取外部資料、理解前後脈絡、可投入正式環境的 AI 應用程式,你就必須熟悉熱門的開發框架與平台 LangChain。它可以用來建立、執行與管理有自主行動能力的 app。目前已有許多頂尖公司採用 LangChain,包括 Zapier、Replit、Databricks 等。對於已經學會 Python 或 JavaScript,且想要掌握 AI 能力的新手開發者而言,本書是必備的學習資源。 作者 Mayo Oshin 與 Nuno Campos 透過實用的見解與深入的教學,帶領你逐步掌握 LangChain 的運用。從基礎概念開始,一步步帶你建立一個可正式上線,並且能夠使用個人資料的 AI agent。 • 運用 retrieval-augmented generation(RAG)技術,結合外部的即時資料來提升 LLM 的準確性。 • 開發並部署能夠與使用者聰明地互動,並且記得前後脈絡的 AI 應用程式。 • 透過 LangGraph 來使用強大的 agent 架構。 • 整合並管理第三方 API 與工具,以擴充 AI 應用程式的功能。 • 監控、測試與評估 AI 應用程式,以提升效能。 • 瞭解 LLM app 開發的基礎知識,並學習如何在 LangChain 上加以活用。 ------------------------------------------------------------- 「本書包含條理分明的講解和可落實的技巧,是掌握 LangChain 的強大功能,並用它來製作可上線的生成式 AI 與 agent 的首選資源。對於想充分利用此平台之潛力的開發者來說,是必讀之作。」 ── Tom Taulli,IT 顧問暨《AI輔助程式開發》作者 「這本完整的指南涵蓋文件提取與檢索,以及在正式環境中部署與監控 AI agent 的完整知識。透過引人入勝的範例、直覺的圖解與實際的程式碼,讓 LangChain 變得既有趣又好玩!」 ── Rajat K. Goel,IBM 資深軟體工程師 「這是一本完整的 LLM 指南,不只介紹基礎知識,也探討生產階段,充滿技術見解、實用策略,以及強大的 AI 模式。」 ── Gourav Singh Bais,Allianz Services 資深資料科學家暨技術內容撰寫人 【目錄】 第一章 使用 LangChain 必備的 LLM 基礎知識 設置 LangChain 環境 在 LangChain 中使用 LLM 讓 LLM 的指示詞可以重複使用 從 LLM 取得特定格式的輸出 組合 LLM 應用程式的各個部分 第二章 RAG 首部曲:為你的資料建立索引 目標:為 LLM 挑選相關的脈絡 embedding:將文字轉換成數值 將文件轉換成文字 將文字拆成小段落 產生文字embedding 將 embedding 存入向量庫 追蹤文件的變更 索引最佳化 第三章 RAG 二部曲:與你的資料對話 Retrieval-Augmented Generation 簡介 查詢句轉換 查詢句路由 建構查詢句 第四章 使用 LangGraph 來為聊天機器人加入記憶功能 建立聊天機器人記憶系統 介紹 LangGraph 建立 StateGraph 為 StateGraph 加入記憶功能 修改聊天歷史 第五章 LangGraph 與認知架構 架構 #1:LLM 呼叫 架構 #2:鏈式架構 架構 #3:路由器 第六章 agent 架構 Plan-Do 迴圈 建立一個 LangGraph agent 始終先呼叫某一個工具 使用大量工具 第七章 Agents 第二集 反省 LangGraph 的 subgraph 多 agent 架構 第八章 善用 LLM 的設計模式 結構化輸出 第九章 部署:將 AI 應用程式部署到正式環境 先決條件 瞭解 LangGraph Platform API 在 LangGraph Platform 上部署 AI 應用程式 安全 第十章 測試:評估、監控與持續改進 在 LLM app 開發週期中的測試技巧 設計階段:能自我修正的 RAG 預備上線階段 正式上線階段 第十一章 使用 LLM 來建構應用程式 互動式聊天機器人 與 LLM 合作編輯 環境式運算(ambient computing)
類似書籍推薦給您
【簡介】 >資 料 不 外 流,模 型 任 你 遊 No data out, all models in play 本書是專為考量資料隱私問題但又想開發結合大型語言模型 LLM 應用者所設計,不倚賴大型 AI 公司的雲端服務,利用 Ollama 系統建置本機 LLM 推論引擎,既保護隱私又節省串接大型 AI 公司 API 服務的費用。更重要的是,可視需要變換模型,不會被大型 AI 公司綁架,完全彈性自主。本書還具備以下特色: LangChain 應用程式開發框架 除了簡化程式撰寫,更可跨模型,即使要改用大型 AI 公司的模型也不需要重新撰寫程式。LangChain 框架提供有外部函式(工具)的抽象層,可立即將既有的函式變成模型可用的工具,加上 LangChain 社群的豐富工具,簡直就像是 LLM 軍火庫,讓模型不只能說一口好話,還能付諸行動,可以達成像是執行 SQL 語句查詢資料庫等各種功能。 RAG 應用開發 對於需要參考私有資料的應用情境,LangChain 也提供有完整的 RAG 支援,不但可讀取 PDF/網頁/JSON 等各種格式資料來源,也提供多種文檔切割方式與 FAISS 等嵌入式資料庫儲存/檢索機制,瞬間就能幫模型補足專屬知識,協助解答問題。 AI Agent 代理應用 LangChain 設計有現成的 AI Agent 框架,搭配剛剛提到的各式工具與 RAG 機制,即可設計可自主思考,規劃行動並實際完成任務的 ReAct Agent。 獨家 LangGraph 主題 考量到一般 Agent 帶來的不確定性,LangChain 生態系加入了 LangGraph 框架,可以設計具備穩定流程的 Agent 代理,避免 Agent 陷入無窮迴圈無法完成任務的窘境。 LangSmith 評估系統 補上 Agent 代理應用的最後一塊拼圖,透過 LangSmith 服務檢視 Agent 執行過程,可評估執行效能、prompt 成效、模型規劃行動優劣,不再只用感覺評斷。 本書特色 自由彈性的本地端 Ollama 模型,節省 API 串接費用 出張嘴用自然語言替代 SQL 語句查詢資料庫 從 PDF/網頁/JSON 檔擷取資料補充模型知識打造 RAG 應用 善用 prompt 技巧避免模型產生幻覺 設計有記憶、可自主決策規劃並執行任務的 AI Agent 代理 獨家 LangGraph 教學,設計穩定流程的 AI Agent 利用 LangSmith 監測 AI Agent 執行流程 【目錄】 第 1 章 本地化低硬體門檻的 LLM 應用開發 1-1 解決高昂的 API 成本與硬體需求 API 成本的負擔 硬體需求的挑戰 免費與本地化運算的崛起 1-2 對雲端的依賴與資料安全性 雲端依賴的挑戰 資料安全性的考量 在本地運行模型以減少對雲端的倚賴 1-3 為什麼選擇免費的本地化運算 成本效益 自主性與可客製化 技術可行性 1-4 LangChain、Ollama 和 LangGraph 的特色與優勢 LangChain Ollama LangGraph 最低硬體需求與資源建議 第 2 章 環境建置與模型量化技術 2-1 低硬體需求的環境準備與 Ollama 模型選擇 本書撰寫時使用之硬體環境 本書推薦之大型語言模型 2-2 模型選擇指南與量化技術解析 模型的命名慣例 模型挑選方式 Ollama 模型尋找教學 2-3 如何在本地環境中運行 LangChain 和 Ollama 使用 Docker 快速部署 手動配置本地環境 (適合不方便使用 Docker 的讀者) Colab 雲端部署 Ollama 版本相容性提醒 本書實作範例採用的量化模型說明 程式碼中更換模型的方法 第 3 章 LangChain 基礎入門 3-1 認識 LangChain 生態系統的架構與組成 3-2 認識 LangChain 底層模組 Base Packages (基礎套件群) Integrations (整合模組群) 3-3 可執行單元 (Runnables) 最核心的 Runnable 元件:LLM 生成 提示模板 (Prompt Templates) RunnableLambda 3-4 表達式語言 LCEL (LangChain Expression Language) RunnableSequence RunnableParallel 3-5 回呼 (Callbacks) 回呼事件 (Callback Events) 回呼處理器 (Callback Handlers) 回呼添加方式 (Passing Callbacks) StreamingStdOutCallbackHandler 3-6 避免數字幻覺:用 Prompt 確保 LLM 只根據提供的數據回答 LLM 會如何產生數字幻覺? 提示詞 (Prompt):避免 LLM 生成錯誤數值 temperature (溫度) 結合 Prompt 與 LLM,驗證是否能有效抑制數字幻覺 3-7 建立多國語言翻譯助手應用 步驟 1:定義提示模版 (Prompt Template) 步驟 2:接收用戶輸入 步驟 3:建立流程鏈並在執行時傳入回呼 執行結果展示 3-8 建立搜尋引擎最佳化 SEO 標題產生器 步驟 1:定義提示模版 (Prompt Templates) 步驟 2:接收用戶輸入 步驟 3:建立流程鏈 步驟 4:使用 .stream() 實現串流輸出 執行結果展示 第 4 章 SQL:結合資料庫打造自然語言查詢系統 4-1 如何透過 LLM 達到 SQL 查詢自動化 認識 SQLite 資料庫 自然語言轉 SQL 查詢 4-2 建立 SQL 人資小幫手問答機器人 步驟 1:初始化模型與連接資料庫 步驟 2:獲取資料庫結構 步驟 3:執行 SQL 查詢的函式 步驟 4:SQL 查詢語句生成 (自然語言輸入 → SQL 語句) 步驟 5:執行 SQL 查詢,並將查詢結果轉換為自然語言回答 步驟 6:主程式 執行結果展示 4-3 跨資料表 SQL 查詢:讓 LLM 理解關聯資料並生成查詢語句 程式碼修改說明 執行結果展示 第 5 章 向量資料庫:基礎 RAG 與語義相似性檢索 5-1 認識檢索增強生成 (RAG) RAG 使用檢索系統帶來的優勢 幫 LLM 擴展知識並減少幻覺 (Hallucination) 5-2 嵌入向量與語義相似性檢索流程 嵌入向量 (Embedding Vector) 語義相似性檢索 (Semantic Similarity Retrieval) 5-3 FAISS 向量資料庫與相似度計算方式 FAISS 的記憶體特性 FAISS 索引類型概覽 相似度計算方式介紹 5-4 OllamaEmbeddings 嵌入模型 在 Ollama 尋找、更換與下載嵌入模型的方法 正規化測試 嵌入模型測試與相似性檢索 5-5 設定相似度閾值:控制語義檢索範圍 L2 距離 (歐幾里得距離, Euclidean Distance) 使用 MAX_INNER_PRODUCT 實現餘弦相似度 (Cosine Similarity) 5-6 將 FAISS 向量資料庫本地化:實現持久化儲存與載入 向量資料庫本地化流程 檢索本地向量資料庫流程 建立與檢索本地 FAISS 向量資料庫 整合 LLM 來回答問題 第 6 章 進階 RAG:記憶、數據向量化、檔案載入器與多資料來源 6-1 認識檢索、生成與數據向量化流程 RAG 詳細運作流程 RAG 數據向量化流程 6-2 建立 RAG 向量化檢索泛用聊天機器人 步驟 1:初始化 LLM 步驟 2:儲存向量並初始化檢索器 步驟 3:建立提示模板 步驟 4:建立檢索鏈與檔案處理鏈 步驟 5:啟動對話系統 執行結果展示 常見觀念誤區整理 6-3 建立相似度閾值機制:本地 RAG 球員戰績問答機器人 步驟 1:新增 SIMILARITY_THRESHOLD 與準備數據 步驟 2:檢查數據是否需要更新 步驟 3:建立 FAISS 向量資料庫 步驟 4:建立檢索與問答系統 執行結果展示 6-4 文本分割 (Chunking) 短片段 vs. 長片段 分割時需要考量的因素 常見的文本分割策略 文本分割的實I建議 6-5 檔案載入器 (Document Loaders) LangChain 的檔案載入器 檔案載入器用法介紹 6-6 建立 PDF、網頁爬蟲、JSON 檢索問答機器人 PDF 檢索問答機器人 執行結果展示 網頁爬蟲檢索問答機器人 執行結果展示 JSON 檢索問答機器人 執行結果展示 6-7 LangChain 記憶 (Memory) LangChain 記憶類型介紹 LangChain 記憶執行流程 6-8 建立有記憶能力的檢索問答機器人 保留完整對話的 ConversationBufferMemory 執行結果展示 保留對話摘要的 ConversationSummaryMemory 執行結果展示 第 7 章 Agent × Memory:讓模型自己選擇工具並擁有對話記憶 7-1 認識代理 (Agent) AgentExecutor (代理執行器) AgentType (代理類型) initialize_agent (初始化代理) 7-2 工具 (Tool) 使用 LangChain 提供的搜尋引擎查詢工具 (Tool) 建立函式當作自訂工具 (Tool) 7-3 建立有記憶的泛用電腦助手 Agent:密碼生成 × 網頁爬蟲 × 搜尋引擎 步驟 1:初始化 Ollama LLM 步驟 2:建立密碼生成函式當工具 步驟 3:建立網頁爬蟲函式當工具 步驟 4:加入搜尋引擎查詢工具 (DuckDuckGoSearchRun) 步驟 5:組成工具清單 步驟 6:設定 Prompt 步驟 7:加入記憶機制 (Memory) 步驟 8:建立代理 (Agent) 步驟 9:建立主程式 執行結果展示 第 8 章 LangGraph:用狀態、節點、邊建構圖結構流程 8-1 認識 LangGraph 圖結構流程控制原理 LangChain AgentExecutor 與 LangGraph 的差異 圖結構 (Graph) 節點與邊 (Nodes and Edges) 8-2 LangGraph 狀態與其更新機制 (State + Reducer) 狀態 (State) Reducer:控制狀態的更新機制 8-3 建立圖結構條件邏輯 Agent:日期查詢 × 數學計算 步驟 1:初始化模型 步驟 2:定義狀態類別 步驟 3:定義節點函式 步驟 4:建構圖 步驟 5:添加節點與邊 步驟 6:編譯圖與主程式 執行結果展示 8-4 建立圖結構網路查詢助手 Agent:維基百科 × 搜尋引擎 步驟 1:定義狀態類別 步驟 2:初始化工具 步驟 3:定義節點函式 步驟 4:構建圖 步驟 5:執行主程式 執行結果展示 8-5 LangGraph 記憶:Checkpointer Checkpointer (檢查點保存器) Thread (執行緒) 與 Checkpoint (檢查點) 檢查點的獲取:get_state 與 get_state_history 8-6 建立有記憶的圖結構泛用聊天機器人 步驟 1:定義狀態類別 步驟 2:定義節點函式 步驟 3:構建圖 步驟 4:建立 Checkpointer 和初始化狀態 步驟 5:執行主程式 執行結果展示 第 9 章 LangSmith:視覺化追蹤與分析 LLM 工作流的每一步 9-1 LangSmith 核心功能與API 金鑰設定 LangSmith 使用教學 探索 LangSmith 的核心功能 9-2 追蹤 SQL、RAG、Agent、Memory 與 LangGraph 等執行流程 基礎執行流程 SQL 執行流程 RAG 執行流程 Agent × Memory 執行流程 LangGraph 執行流程
類似書籍推薦給您
【簡介】 從概念到實作,全方位掌握 RAG 與 LangChain 精準打造你的專屬 AI 系統! 本書改編自第16屆 iThome 鐵人賽生成式 AI 組優選系列文章《初探 LangChain 與 LLM:打造簡易問診機器人》,完整收錄生成式 AI、大型語言模型(LLM)與檢索增強生成(RAG)的核心觀念與技術細節。 書中首先帶領讀者認識生成式 AI 與 LLM 的重要觀念,深入探討模型常見的幻覺問題與即時知識更新的難點,並逐步引導讀者學習 RAG 架構如何有效克服這些挑戰。接著,以詳細且易懂的步驟說明環境建置方法,包括 Python、PyCharm、OpenAI API 及 MongoDB Atlas 的設定,確保讀者能快速架設並應用於實務專案。 此外,書中透過實際案例「智慧問診機器人」專案的完整演練,全面介紹 LangChain 框架的基礎到進階操作技巧,並深入說明如何評估與測試系統效能,運用 DeepEval 及 LLM as a Judge 等工具進行成效驗證,幫助讀者掌握 RAG 系統的實務與優化策略,快速提升實戰能力。 無論你是初次接觸生成式 AI 的新手,或希望深度實作 RAG 技術的進階讀者,本書將引導你扎實地掌握理論基礎與技術細節,輕鬆建立屬於自己的高效能智慧應用系統。 重點摘要 ✦ 理論基礎 深入淺出 RAG 核心觀念 ✦ 環境架設 從開發到部署一本搞定 ✦ 實務專案 採用貼近生活的問診系統實戰演練 ✦ 效能評估 開發同時也關注模型回答的表現 目標讀者 .對生成式 AI 有興趣的讀者 .具備基礎 Python 知識的讀者 .期望理解 RAG 系統的人士 .想要了解如何評估 RAG 表現的開發者 專業推薦 本書以教學導向的內容,帶領讀者認識生成式 AI、大型語言模型(LLM)與 RAG(檢索增強生成)的基本概念與架構,進而透過實際操作與範例,理解 LangChain 框架的開發實務,以及向量資料庫在知識檢索中的關鍵角色;並經由智慧問診機器人實作演練,讓讀者學習如何建構一個能實務運作的智慧化系統,同時介紹提升 RAG 系統準確度的建議作法。我誠摯推薦本書給每一位希望從基礎出發,穩健踏入 LLM 與 RAG 實作領域的讀者。相信本書不只會協助您建立知識架構,更會為後續的學習與應用打下良好的基礎。──── 呂奇傑|輔仁大學資訊管理學系 特聘教授 【目錄】 Chapter 01 生成式 AI 與 RAG 的核心概念 1-1 生成式 AI(Generative AI)與大型語言模型(LLM)簡介 生成式 AI 簡介 大型語言模型簡介 LLMs 的應用與挑戰 生成式 AI 與 LLMs 的比較 LangChain:開發 LLM 應用的框架 向量(Embedding)技術 1-2 LLMs 的幻覺與知識更新問題 LLMs 產生幻覺的原因 幻覺在問答、法律、醫療等應用中的嚴重性 1-3 RAG的基本介紹 檢索增強生成(RAG)的原理與降低幻覺的方法 RAG 對 LLM靜態知識限制的補足與動態應用支持 RAG 的發展階段 LangChain 與 RAG 的整合應用 1-4 章節回顧 Chapter 02 環境架設與金鑰申請 2-1 開發環境架設( Python、PyCharm 以及虛擬環境) 2-2 OpenAI 金鑰申請 2-3 Mongo Atlas 服務申請 2-4 章節回顧 Chapter 03 LangChain 操作教學:從基礎到進階 3-1 LangChain 快速入門 LangChain 設定 OpenAI API Key 的方式 LangChain 中的 BaseChatModel 與 LLM 的串接 LangChain 中常見的 Message 類型與結構 LangChain 中的 PromptTemplate LangChain 中的 VectorStore 與 InMemoryVectorStore LangChain 中的 Document 與 Metadata 3-2 LangChain 進階功能實作 鍊式操作(Chain)進階應用 LangChain 內建的 RAG Chain 實作 Agent 概念與實務應用 LangChain 內建對話紀錄管理器 3-3 Mongo Atlas 資料及向量的寫入與查詢 使用 Mongo Atlas VectorStore 的寫入與查詢向量 3-4 章節回顧 Chapter 04 環境架設與金鑰申請 4-1 設計專案架構 4-2 資料及向量的寫入 4-3 設計查詢與對話模組 4-4 設計前台頁面 4-5 建立對話紀錄 4-6 建立問診紀錄區塊 4-7 使用 Fly.io 部署站台 4-8 章節回顧 Chapter 05 智慧問診機器人實作演練 5-1 LLM as a Judge 利用大型語言模型對回覆進行評分 為何我們需要「AI裁判」? 該如何撰寫讓 LLM 充當裁判的提示語(Prompt)? LLM as a Judge 的主要應用場景 LLM as a Judge 的可靠性:它真的「公平」且「準確」嗎? 如何在實務中運用 LLM as a Judge?搭建你的自動評估流程 5-2 DeepEval 工具介紹 5-3 該如何準備 DeepEval 中的測試案例? 回顧基本的 RAG 流程 建立測試案例:使用 LLMTestCase 類別 執行測試的方式 5-4 常用檢索評估指標:文本精確度、文本召回率與文本關聯性 文本精確度(Context Precision) 文本召回率(Context Recall) 文本關聯性(Context Relevancy) 重點整理 5-5 常用生成評估指標:關聯性與忠實性 關聯性(Answer Relenvacy) 忠實性(Faithfulness) 重點整理 5-6 自定義測試 Prompt 5-7 章節回顧 Chapter 06 提升 RAG 系統的準確度 6-1 Chunking 策略 常見的 Chunking 策略與實作範例 6-2 檢索策略(Retrieve Strategy) 6-3 重排序(Re-rank) 6-4 提示工程 Prompt Engineer 6-5 章節回顧 Chapter 07 RAG 在不同行業的應用與挑戰 7-1 企業知識庫 AI:如何運用 RAG 提升內部 FAQ 回答準確性? 7-2 法律 AI 助理:讓 AI 提供合規建議與文件檢索能力 7-3 醫療 AI 應用:如何確保 AI 在醫療領域提供可靠建議? 7-4 章節回顧