| 書名: | LangGraph實戰開發AI Agent全攻略:掌握AI模型 × 工作流程 × 設計應用,從零打造智慧分工多代理協作系統(iThome鐵人賽系列書) (1版) | |||
| 作者: | 許恆修 | |||
| 版次: | 1 | |||
| ISBN: | 9786264142915 | |||
| 出版社: | 博碩 | |||
| 出版日期: | 2025/09 | |||
| 頁數: | 368 | |||
|
#資訊
#AI人工智慧與機器學習 |
||||
【簡介】 透過LangGraph框架,晉升企業爭相延攬的AI專家 兼具生成式AI理論深度與多代理實戰應用,助你從基礎走向職場競爭力的飛躍之路 ♚從入門到精通:由淺入深學習,奠定紮實的技術基本功 ♚實戰案例導向:精選真實操作案例,立即落實專案成果 ♚破解系統瓶頸:掌握高階開發技巧,降低知識學習門檻 ♚提升技術實力:全方位提升AI技能,成為AI專業人才 本書改編自第16屆iThome鐵人賽生成式AI組優選系列文章《2024年用LangGraph從零開始實現Agentic AI System》。內容直擊生成式AI領域的痛點與實務需求,從基礎到進階完整掌握AI代理技術,幫助讀者在職涯道路上迅速脫穎而出。 全書以目前生成式AI領域炙手可熱的LangGraph框架為主軸,搭配真實的企業專案案例,從核心觀念、設計模式到實戰應用逐步展開,讓讀者一步到位地學會如何設計、部署並管理高效的多代理系統。透過即學即用的程式碼範例與場景式實務指引,讀者能在短時間內提升技術實力,成為企業爭相搶奪的生成式AI專家。 【目標讀者】 ✪想要掌握生成式AI技術、提升職涯競爭力的初階及中階工程師。 ✪正在求職、轉職,極需具體實務經驗來增加求職籌碼的技術人員。 ✪想要快速落實AI專案並推動團隊轉型的產品經理、資料科學家與主管。 ✪希望在生成式AI熱潮中卡位、提升個人價值的職場人士。 ✪需要掌握AI Agent商業應用案例與導入流程、加速企業數位轉型的人員。 專業推薦 作者透過此書將他多年專業淬煉的精華與讀者分享,幫助讀者以最高效的學習路徑,獲得最大幅度的專業提升。─ 賴毓敏,台灣先進智慧公司AI科學家 「含金量極高!」本書不僅是入門寶典,更是一位資深實踐者實戰經驗的結晶。從代理型AI核心概念出發,對比LangChain與LangGraph到前沿的Agentic RAG技術,清晰呈現技術演進的脈絡。書中的「作者觀點」更是精髓,時刻引導讀者避開思路誤區。無論想打造AI助理大軍,或優化內部流程提高生產力,本書都能一步步引導你,將AI技術轉化為事業成功的利器。─ 江翊先,Google半導體工程師 作者以平鋪直敘而蘊含工業強度的實務分享,深入淺出地解釋「代理型框架」(Agentic AI)的核心概念,讓讀者直接體會AI如何從單純的「生成」邁向「自主行動、決策與自我精進」。書中透過建構「能思考、規劃、行動甚至自我修正」的智慧應用,以及養護好LLM應用的生命週期的實作,作者詳細展示了LangGraph、 Adaptive-RAG、LangFuse等強大的LLMOps方法論、框架組合。不用浪費時間踩雷,讀者們直接站上了LLM前沿實務經驗的肩膀上,看見全新的風景。─ 鮑聖文,THXLAB架構師 【目錄】 【Part 01 核心概念】 |Chapter 01| 駕馭未來:探索代理型框架的世界 1.1 從生成到行動:代理型AI的崛起 1.2 代理型工作流:組織AI代理的自主行動 1.3 引出實現代理型框架的利器:LangGraph 1.4 代理型框架的商用浪潮:LangGraph賦能的企業實例 1.5 小結:通往更加自主的AI道路 |Chapter 02| LangGraph核心元件:節點、邊與狀態 2.1 LangGraph介紹與核心亮點 2.2 為什麼LangGraph讓AI流程活起來? 2.3 LangChain vs. LangGraph:它們不一樣的地方在哪裡? 2.4 介紹LangGraph適用於多種場景 2.5 LangGraph的三大核心 2.6 LangGraph使用時可能遇到的挑戰 2.7 小結 |Chapter 03| 即時回饋的祕密:LangChain串流技術 3.1 為什麼串流如此重要? 3.2 深入了解AI回應的互動機制:invoke() vs. stream() 3.3 結合LangChain表達語言(LCEL)實現持續串流 3.4 小結:串流功能 |Chapter 04| 將串流應用到LangGraph流程中 4.1 LangGraph串流模式概覽 4.2 values()串流模式:觀察圖的完整狀態演變 4.3 updates()串流模式:精確追蹤節點的增量更新 4.4 多模式串流:設定範例 4.5 messages串流模式:即時取得LLM逐字輸出 4.6 小結 |Chapter 05| 記憶:掌握AI對話上下文與跨會話知識的關鍵 5.1 記憶類型概覽:短期與長期記憶 5.2 短期記憶:對話上下文的守護者 5.3 長期記憶:跨會話知識的傳承 5.4 記憶類型的概念類比 5.5 小結 |Chapter06| LangChainTools深度解析:打造AI的外掛能力 6.1 Tools建立指南:AI模型的外掛功能 6.2 從函式建立Tools:簡單又強大 6.3 工具錯誤處理:打造穩健的AI應用程式 |Chapter 07| LangGraph實戰應用:ToolNode與AI互動流程 7.1 LangGraph如何善用ToolNode:AI的行動中心 7.2 天氣查詢範例 7.3 小結 |Chapter 08| 人機迴圈:讓AI流程也能請示人類 8.1 什麼是人機迴圈? 8.2 為什麼需要人機迴圈? 8.3 核心魔法:interrupt函式與Command原語 8.4 啟動人機迴圈的關鍵步驟 8.5 人機迴圈的三大應用模式 8.6 實戰演練:示範「批准或拒絕」模式 8.7 小結 |Chapter 09| LangGraph的時間旅行與狀態深度解析 9.1 LangGraph的狀態:AI代理的記憶與軌跡 9.2 時間旅行:回溯、檢查與探索 9.3 小結:時間旅行與狀態管理的意義 |Chapter 10| LangGraph功能型API:用Python函式打造智慧AI工作流程 10.1 深入理解LangGraph的功能型API 10.2 功能型API的應用時機與優勢 10.3 實戰演練:自動化會議摘要與待辦事項生成 10.4 功能型API與圖形API的差異比較 10.5 小結 【Part 02 AI代理設計模式】 |Chapter 11| AI代理自我反思:深入探討Self-Refine 11.1 什麼是Reflection Agents? 11.2 Reflection機制的核心步驟 11.3 Reflection的核心價值與應用:為什麼需要AI自我反思? 11.4 Self-Refine:Reflection的基礎實踐與運作原理 11.5 動手實踐:使用LangGraph實現Self-Refine 11.6 小結 |Chapter 12| Planning:賦予AI自主規劃能力 12.1 Planning:AI自主規劃的關鍵 12.2 Planning的運作機制:AI如何計畫? 12.3 Plan-and-Solve:Planning Agent的核心框架 12.4 LangGraph實踐:打造具備規劃能力的智慧代理 12.5 小結 |Chapter 13| 多協作模式讓AI團隊實現智慧分工 13.1 多代理系統:新一代AI協作的基石 13.2 多代理系統有哪些優勢? 13.3 協作模式:智慧分工的藝術 13.4 實現高品質的多代理協作翻譯系統 13.5 小結 |Chapter 14| 多代理協作:監督者模式 14.1 監督者模式:核心原理 14.2 設計:台灣棒球與啦啦隊新聞處理系統 14.3 使用LangGraph框架實現工作流程 14.4 小結 【Part 03 RAG篇】 |Chapter 15| 從基礎到進階:掌握RAG與Agentic RAG 15.1 RAG的誕生:解決LLM固有挑戰的必然選擇 15.2 RAG的核心機制:資訊檢索與生成的完美結合 15.3 RAG的廣泛應用與顯著優勢 15.4 Agentic RAG:使用LangGraph打造智慧檢索系統 15.5 小結:RAG技術是提升AI系統效能的新方法 |Chapter 16| CRAG:檢索增強生成的糾錯機制 16.1 CRAG技術概述與理論基礎 16.2 檢索增強生成技術的演進:從傳統RAG到CRAG 16.3 傳統RAG的技術瓶頸:相關性低與資訊冗餘問題 16.4 CRAG的核心機制:突破傳統RAG的限制 16.5 CRAG提出什麼機制解決問題? 16.6 從理論到實踐:使用LangGraph實現CRAG 16.7 小結:CRAG如何讓AI問答系統更上一層樓 |Chapter17| Adaptive-RAG:動態檢索策略提高系統問答精準度 17.1 Adaptive-RAG的定義與核心理念 17.2 Adaptive-RAG與傳統RAG的比較 17.3 Adaptive-RAG的核心元件 17.4 Adaptive-RAG的實作關鍵 17.5 小結:Adaptive-RAG的革新意義與未來展望 【Part 04 工具篇】 |Chapter 18| Ollama初探與基礎使用 18.1 什麼是Ollama? 18.2 Ollama有哪些特點? 18.3 安裝Ollama 18.4 啟動Ollama服務 18.5 進階:想把Ollama的能力整合到你自己的程式裡嗎?(給開發者看) 18.6 Ollama支援的大型語言模型 |Chapter 19| 揮別命令列:用WebUI讓Ollama更好聊 19.1 運用Docker執行Ollama,讓環境更獨立乾淨 19.2 如何在Docker容器中執行模型? 19.3 在Google Colab上快速試玩Ollama(給喜歡嘗鮮的你) 19.4 打造友善介面:Ollama+ Web UI一站式懶人包 |Chapter 20| LangGraphStudio V2指南 20.1 為什麼採用LangGraphStudio作為Agent開發工具 20.2 LangGraphStudio:AI代理開發的三大必殺技 20.3 LangGraphStudio本地環境建立:啟動你的開發引擎 20.4 LangGraphStudio核心功能導覽:與你的AI代理互動與偵錯 20.5 小結 |Chapter 21| LangFuse:打造AI代理觀測系統 21.1 為何AI代理需要LangFuse? 21.2 自行託管LangFuse:資料掌控與高度定制 21.3 為你的LLM團隊增加評分系統 21.4 LangFuse提示管理:你的提示語中控台 21.5 LangGraph與LangFuse:實戰可觀測性 21.6 小結 【Part 05 專案篇】 |Chapter 22| 動手打造你的第一個AI應用程式:FastAPI、Streamlit、LangServe的實戰入門 22.1 專案先預覽:我們要一起做出什麼? 22.2 動手前準備:開發環境設定指南 22.3 後端開發:用FastAPI建構你的AI服務骨架 22.4 啟動程式:讓你的FastAPI服務跑起來! 22.5 部署API:善用LangServe輕鬆部署 22.6 前端開發:用Streamlit打造應用網頁介面 |Chapter 23| MCP:讓大模型更容易使用外部工具的技術 23.1 認識一下模型上下文協定 23.2 我們為什麼需要MCP?它解決了什麼痛點? 23.3 MCP和函式呼叫到底差別在哪? 23.4 MCP協定是怎麼連線的? 23.5 打造MCP的神兵利器:FastMCP 【Part 06 附錄】 |Appendix A| 當AI遇上軟體架構:狀態管理的新思考 A.1 狀態管理與流程控制 A.2 小結與思考:AI時代的狀態管理展望 |Appendix B| 在Ollama上執行你的模型 B.1 GGUF格式 B.2 小結
還沒有人留下心得,快來搶頭香!
為您推薦
相關熱銷的書籍推薦給您
書名:人工智慧:智慧型系統導論(第三版) 作者:李聯旺 出版社:全華 ISBN:9789862800959
相關熱銷的書籍推薦給您
書名:機器學習:類神經網路、模糊系統以及基因演算法則(第四版) 作者:蘇木春、張孝德 出版社:全華 出版日期:2016/05/00 ISBN:9789864632060 內容簡介 ■ 本書優點特色 1.將三種與機械學習相關的技術-類神經網路、模糊系統及基因演繹法作一通盤介紹。 2.以深入淺出的方式建立類神經網路與生物神經網路的關聯性,以便讓讀者更能發揮想像力。 3.每一種理論都儘可能配合書中範例及圖表加以說明。 ■ 內容簡介 本書將三種與機械學習相關的技術-類神經網路、模糊系統及基因演繹法作一通盤介紹。此外,作者以深入淺出的方式建立類神經網路與生物神經網路的關聯性,以便讓讀者更能發揮想像力。 目錄 第1章 類神經網路之簡介 第2章 感知機 第3章 多層感知機 第4章 非監督式類神經網路 第5章 聯想記憶 第6章 增強式學習 第7章 模糊集合 第8章 模糊關係及推論 第9章 模糊系統 第10章 基因演算法則
類似書籍推薦給您
【簡介】 你與 AI 大神的距離,只差這本「動手做」的實戰指南! 翻開本書,開始打造專屬於你的第一個 AI 應用吧! ★ AI 當你的程式助教,從零開始不怕痛! 本書專為入門者設計,帶你從 Colab 環境建置到程式碼實作,每一步都有白話說明。 ★ 掌握 LangChain、LangGraph、LangSmith核心框架,晉升 AI 開發者 不只教你用 AI,更教你打造 AI!學會業界最主流的 LLM 應用框架,讓你的作品更上一層樓。 ★ 深入 RAG 技術,徹底告別 AI 的胡說八道 本書帶你深入剖析 RAG(檢索增強生成)技術,讓你的 AI 應用能整合外部知識,提供有憑有據的精準回答。 ★ 打造兩個超酷專案,作品集馬上 +1 親手實作出「多語言 AI 翻譯系統」與「自動化新聞摘要與社群貼文產生器」,從理論到實踐,完整體驗開發流程。 ★ Gradio 讓你的成果被看見,輕鬆做出互動介面 學會用 Gradio 快速打造使用者介面,讓你的 AI 程式不只會跑,還能動手玩,輕鬆分享給朋友與全世界。 【第一部分:打好 GenAI 核心基礎】 ◆揭開 LLM 的神秘面紗:從大型語言模型的運作原理、Transformer 架構,到什麼是 Token,用最白話的方式,讓你真正搞懂 AI 如何思考。 ◆學會與 AI 高效溝通:深入「提示語工程」的核心策略,學習如何下達精準指令,讓 AI 聽懂你的心聲,產出高品質的結果。 ◆開發環境一次搞定:帶你無痛上手 Google Colab,從建立筆記本、操作介面到管理 API 金鑰,讓你擁有一個免費又強大的雲端開發實驗室。 【第二部分:掌握 LLM 開發框架與應用】 ◆LangChain 實戰入門:學習如何使用 LangChain 這套強大的開發框架,將資料載入、切割、儲存到模型串接的複雜流程,變成像堆積木一樣簡單有趣的過程。 ◆LangGraph 打造 AI 代理:學習如何用 LangGraph 設計出能夠自我修正(Reflection)、團隊協作(Hierarchical Workflow)的 AI 代理,讓你的 AI 應用變得更聰明、更自動化。 ◆LangSmith 監測系統:掌握 LLM 每一次思考與推論的過程,透過 LangSmith 關注每次 LLM 對話內容,讓除錯變得清晰、透明。 ◆深入 RAG 解決 AI 幻覺:從 RAG 的誕生背景、核心概念到完整實作,帶你一步步打造能整合外部知識庫的 AI 系統,讓回答不再天馬行空。 【第三部分:從零到一的專案實作】 ◆多語言 AI 翻譯系統:整合 LangGraph 的所有知識,打造一個能同時進行多語言翻譯、並透過自我反思機制,確保各版本語意一致的專業翻譯團隊。 ◆自動化新聞摘要與 X 貼文工廠:從千字長文自動生成百字摘要,再進一步優化為風格吸睛、標籤精準的社群貼文,打造一個高效的「一站式」內容產生器。 【本書適合】 ◎ 想踏入AI領域的學生:不論是資工、管理還是文組,這本書都能幫你建立實作能力。 ◎ 充滿好奇的 GenAI 玩家:想從單純的「使用者」晉升為「創造者」。 ◎ 產品經理與創業者:想了解如何將 LLM 技術落地,打造創新產品。 ◎ 想累積作品集的準工程師:透過本書專案,快速為你的履歷加分。 你是不是還在做AI的使用者,卻渴望能夠主導AI開發並將其運用於實際專案中? 這本書將引領你學會設計與開發AI應用,開始寫程式、設計架構,成為能獨立開發AI應用的開發者。 專家推薦 我認為這本書非常棒的地方是恆修在技術講解中融入了大量的實務考量。比如在討論文件分割時,不僅考慮技術層面的語義完整性,還顧及了不同文件類型(技術文件、公司政策、API 文件等)的特性差異,提供了針對性的優化策略。這些步驟也確實是我們在業界實務開發上會考慮到的「眉角」。這樣貼近實際應用場景的設計,才會讓讀者能夠將所學直接應用於企業級專案開發。——喬泰科技股份有限公司 - 邊緣運算電腦總監暨AI 系統架構師,侯冠宇 【目錄】 第一部分 GenAI 基礎內容 第1 章 揭開大型語言模型(LLM)的神秘面紗:從入門到核心應用 1.1 引言:你的文字魔法師,大型語言模型 1.2 什麼是大型語言模型? 1.3 大型語言模型如何運作?從「提問」到「生成」 1.3.1 階段一:給予清晰的「提示」 1.3.2 階段二:模型「連續預測」並生成內容 1.4 驅動 LLM 的核心引擎:Transformer 架構 1.4.1 編碼器(Encoder):理解輸入資訊 1.4.2 解碼器(Decoder):生成回應內容 1.4.3 自注意力(Self-Attention)機制:讓模型看得更全面 1.5 LLM 的多元應用:從文字創作到智慧助理 1.5.1 文本分類與情感分析:洞察文字背後的情緒與類別 1.5.2 自然語言理解與生成:高效的文字產出與摘要 1.5.3 程式碼理解與生成:開發者的智慧幫手 1.5.4 自主推理與工作流程執行:從「回答」到「完成」 1.6 結語:展望LLM 的未來 第2 章 ChatGPT:從研究預覽到引領全球的AI 革命 2.1 引言:從低調發布到席捲全球的 AI 轉捩點 2.2 ChatGPT 的技術基石:GPT 模型家族的演進 2.2.1 Transformer 架構:語言理解的奠基石 2.2.2 GPT 系列模型的進化之路 2.3 ChatGPT 的誕生與爆紅:一場意料之外的「研究預覽」 2.4 剖析幕後:ChatGPT 的技術挑戰與解決方案 2.4.1 通用性:如何在多元應用情境中遊刃有餘? 2.4.2 偏見與不恰當內容:如何避免AI 說出不該說的話? 2.4.3 後端基礎設施與高負載:如何支撐億級用戶的龐大需求? 2.5 ChatGPT 的深遠影響:各行各業的變革性工具 2.5.1 企業效率與創新:提升營運的智慧化程度 2.5.2 產業兩面刃:教育與科技的挑戰與機會 2.6 快速上手指南:三步驟開啟你的ChatGPT 之旅 2.7 實戰演練:激發ChatGPT 的最大潛能 2.7.1 多樣化提問:探索不同的回答風格 2.7.2 語言學習與翻譯:你的隨身語言家教 2.7.3 寫作輔助:提升你的寫作效率 2.7.4 程式碼生成與除錯:開發者的智慧幫手 2.7.5 學習輔助:解答你的知識盲點 2.7.6 創意發想:你的腦力激盪夥伴 2.8 最佳實踐與使用原則 2.8.1 善用最新版本:享受技術前沿的紅利 2.8.2 精準撰寫提示語:溝通是關鍵 2.8.3 選擇合適應用場景:讓 ChatGPT 適得其所 2.8.4 避免過度侷限指令:保留模型的彈性 2.8.5 認識局限並適度依賴:當個聰明的使用者 2.9 結語:展望 AI 的未來與我們的角色 第3 章 揭密「提示語工程」:學會如何精準對話 AI,讓它聽懂你的心聲! 3.1 引言:當 AI 讀不懂你的心思,怎麼辦? 3.2 背景篇:提示語工程,AI 時代的新語言橋樑 3.2.1 什麼是「提示語工程」? 3.2.2 提示語工程帶來的典範轉移:從「寫程式」到「說人話」 3.3 核心策略:設計直觀且有效的提示語,讓 AI 事半功倍 3.3.1 策略一:掌握「角色、任務、上下文、格式」四大關鍵(R.T.C.F.) 3.3.2 策略二:力求「清晰且具體」的提示,避免模糊空間 3.3.3 策略三:善用「添加上下文」 3.3.4 策略四:反覆試驗與精煉 3.4 提示語工程的多元應用:AI 在各領域的得力助手 3.5 進階應用:透過提示語工程引導AI「思考」與「推理」 3.5.1 零樣本提示(Zero-Shot Prompting):無需範例,直接考驗 AI 的通識能力 3.5.2 單樣本提示(One-Shot Prompting):給予一個精華範例,讓AI 快速掌握要領 3.5.3 少樣本提示(Few-Shot Prompting):多個範例,幫助 AI 歸納出規律 3.5.4 思維鏈提示(Chain-of-Thought Prompting):引導AI 一步步「思考」 3.5.5 否定提示(Negative Prompting):明確告訴AI「不要做什麼」 3.6 結語:掌握提示語工程,成為AI 時代的溝通高手 第4 章 如何挑選最適合你的大型語言模型? 4.1 引言:面對百花齊放的LLM,你選對了嗎? 4.2 第一步:明確你的需求與目標,這是關鍵! 4.3 第二步:選擇模型前的三大必問問題,讓你的決策更精明! 4.3.1 模型規模與複雜度:「大」不一定就是最好? 4.3.2 上下文長度:你的AI 能「讀」多長的故事? 4.3.3 多語言支援:別只懂英文!你的AI 該更國際化! 4.4 第三步:常見使用場景與推薦模型特性,對號入座更有效! 4.4.1 客服支援與智慧問答 4.4.2 內容生成與創意寫作 4.4.3 長文摘要與資訊提取 4.4.4 程式碼生成與開發輔助 4.5 結語:選擇LLM,就像選擇一位好隊友 第5 章 Colab 介紹 5.1 引言:為什麼要使用Google Colab ? 5.2 坐而言不如起而行:開啟你的第一個Colab 5.3 建立在他人基礎上:加載外部的Google Colab 筆記本 5.4 延伸思考:雲端平台的彈性與限制 5.5 結論與後續探索 第6 章 Colab 操作指南: 就像間開放式實驗室 6.1 背景說明:什麼是Colab ? 6.2 核心概念:筆記本結構與單元格 6.3 實際應用:如何高效操作與協作 6.3.1 新增與移動單元格 6.3.2 Python 操作技巧 6.4 協作佳:與Google Drive 完美整合 6.5 總結與延伸思考 第7 章 Colab 如何添加 Secret key 7.1 背景說明 7.2 核心概念:什麼是Colab Secrets ? 7.3 實際應用:如何在Colab 中使用Secrets ? 7.4 提示:避免常見錯誤與風險 7.5 總結 第8 章 初次認識Gemini:簡單探索LLM 開發所需魅力 8.1 背景說明:為什麼需要Gemini API Key ? 8.2 什麼是Google Gemini ? 8.2.1 Gemini 的版本 8.3 環境安裝建置 8.4 從Google AI Studio 取得Gemini API Key 8.5 第一次體驗Gemini 的魅力 8.5.1 設定所需金鑰 8.5.2 列出當前可用的模型 8.5.3 使用輸入的文字來生成文字 8.5.4 串流方式產生文字 8.5.5 即時通訊對話 8.6 結論與延伸思考 第9 章 Gradio 是什麼?如何快速打造互動式機器學習應用? 9.1 背景說明:Gradio 是什麼? 9.1.1 Gradio 的特點 9.1.2 與其他工具(例如Streamlit)比較 9.2 使用範例與實際應用 9.2.1 研究與跨領域合作 9.2.2 教育教學:促進機器學習概念的理解 9.2.3 快速原型開發:企業與初創公司 9.3 Gradio 的主要使用者群體 9.4 總結與延伸思考 第10 章 Gradio- 啟動篇:打造機器學習應用 10.1 快速入門:Hello World 範例 10.1.1 程式碼拆解 10.1.2 執行與體驗 10.2 為輸入框加上標籤、佔位符 10.2.1 Gradio `share=True` 的運作方式 10.3 實用小建議與常見疑難排解 10.4 總結與後續探索 第11 章 Gradio- 建立對話機器人 11.1 背景說明 11.2 建立聊天機器人:核心概念與結構 11.3 實際範例 11.3.1 範例1:隨機回應「Yes」或「No」 11.3.2 範例2:依序「同意」或「不同意」的簡單邏輯 11.4 串流(Streaming)聊天機器人 11.5 額外的輸入(Additional Inputs) 11.6 預設回覆(Preset Responses) 11.7 練習題:為Chatbot 加入「系統提示」與「字數限制」的額外輸入 第12 章 Gradio 串接HuggingFace:從基礎到部署的完整指南 12.1 背景說明:HuggingFace ? 12.2 如何下載與使用HuggingFace 模型 12.3 部署到 HuggingFace Spaces 12.3.1 建立HuggingFace 帳號與專案空間(Space) 12.3.2 建立程式與需求檔 12.3.3 最佳實踐與注意事項 12.4 結論:開啟你在AI 領域的無限可能 第二部分 LLM 開發基礎與應用 第13 章 LangChain 在LLM 時代的定位:打造你的AI 應用流水線 13.1 引言:當AI 應用百花齊放,開發者如何高效應戰? 13.2 時代背景:為何我們需要LLM 應用框架? 13.3 核心概念:抽象化與模組化,打造AI 流水線 13.4 典型LLM 開發流程:LangChain 如何串聯各個環節? 13.5 LangChain 的核心概念與關鍵組件:深入解析你的AI 工具箱 13.6 結語:LangChain,你的LLM 應用開發加速器 第14 章 LangChain 實戰:輕鬆搞定長文與多文件摘要,告別AI 失憶症 14.1 為何我的AI 總是失憶?一切從「上下文視窗」開始 14.2 策略一:分而治之的Map-Reduce 14.3 策略二:層層迭代的Refine 技巧 14.4 總結:如何選擇最適合你的摘要策略? 第15 章 LangGraph 入門:打造你的AI「智能導航系統」 15.1 前言:為什麼傳統的AI 流程不夠用? 15.2 核心概念:節點、邊與狀態,AI 流程的積木 15.2.1 節點(Nodes):AI 的最小執行單元 15.2.2 邊(Edges):定義AI 流程的走向 15.2.3 狀態(State):AI 的短期記憶 15.3 實作:用LangGraph 打造公司用語生成代理 15.4 結論:LangGraph,為AI 開啟無限可能 第16 章 LangGraph 實戰:用Reflection 模式,打造會自我校稿的AI 郵件助理 16.1 前言:AI 寫的內容,真的夠專業嗎? 16.2 Reflection 模式解析:AI 如何「自我反思」? 16.3 實作Reflection:打造你的AI 郵件助理 16.4 結論:Reflection,你的內容品質守門員 第17 章 LangGraph 從單一代理到協作流程:實現ReAct、Reflection 與Hierarchical Workflow 17.1 前言:AI 為什麼需要「團隊合作」? 17.2 Agentic Pattern 概覽:從自我進化到分工合作 17.3 Agentic Pattern 解析與LangGraph 實現 17.3.1 ReAct:單一代理的迭代決策 17.3.2 Reflection:自我改進的反思循環 17.3.3 Hierarchical Workflow:層次化的協作管理 17.4 結論:LangGraph 與AI 協作的未來 第18 章 LangSmith 啟航手冊 18.1 前言:背景說明 18.1.1 舉個生活化例子 18.2 Langsmith 是什麼? 18.3 為什麼需要 Langsmith ? 18.4 Langsmith 的角色 18.5 LangSmith 啟動流程 18.6 小結 第19 章 RAG 的誕生與核心概念 19.1 引言 19.2 從單純的LLM 到「有憑有據」的對話 19.2.1 語言模型的光輝與陰影 19.2.2 「有憑有據」的重要性 19.3 RAG 的兩大核心支柱:檢索與生成 19.3.1 理解RAG:從查字典到造句的類比 19.3.2 檢索(Retrieval):智慧的資料查找 19.3.3 生成(Generation):基於事實的智慧回答 19.3.4 兩個階段的協同效應 19.4 LangChain RAG 藍圖:檢視整個資料流向 19.4.1 LangChain 在 RAG 生態系統中的角色 19.4.2 RAG 系統的核心組件架構 19.4.3 環境準備與套件安裝 19.4.4 系統設計的考量因素 19.5 本章總結 第20章 RAG 前處理:專屬知識庫的基礎 20.1 引言 20.2 認識不同格式的來源 20.2.1 現實世界中的資料挑戰 20.2.2 RAG 系統對資料的需求 20.2.3 LangChain 的解決方案 20.3 LangChain Document Loaders 教學 20.3.1 環境準備與套件安裝 20.3.2 處理 PDF 文件 20.3.3 處理網頁內容 20.3.4 處理結構化資料 20.3.5 整合多種資料來源 20.4 如何有效切分長篇文件 20.4.1 為什麼需要文件分割 20.4.2 分割策略 20.4.3 基礎分割策略實作 20.4.4 語義感知分割 20.4.5 分割品質評估 20.4.6 針對特定內容類型的優化分割 20.4.7 動態分割參數調整 20.5 本章總結 20.5.1 關鍵回顧 20.5.2 技術洞察 20.5.3 下一步的展望 第21章 向量嵌入:化文字為數值 21.1 文字的數學表示:嵌入模型的原理 21.1.1 從符號到語義的飛躍 21.1.2 嵌入技術 21.1.3 嵌入模型的特點 21.1.4 探索語義相似性 21.1.5 視覺化嵌入空間 21.2 向量資料庫:高效檢索的專屬儲存空間 21.2.1 向量資料庫的必要性 21.2.2 向量資料庫的核心特性 21.2.3 建立向量資料庫 21.2.4 向量搜尋功能測試 21.2.5 帶分數的搜尋 21.3 動手實作:打造您的第一個向量知識庫 21.3.1 整合完整的資料處理流程 21.3.2 測試智慧搜尋功能 21.3.3 進階搜尋功能實作 21.4 本章總結 第22章 RAG 鏈組裝,讓外部知識活起來 22.1 將檢索與生成結合 22.1.1 RAG 系統的核心理念 22.1.2 RAG 工作流程詳解 22.1.3 設計決策 22.2 LangChain RetrievalQA 鏈程式碼實作 22.2.1 環境準備與模組導入 22.2.2 重建知識庫(快速版本) 22.2.3 語言模型配置 22.2.4 自訂提示模板 22.2.5 建立 RetrievalQA 鏈 22.3 實戰驗證:測試您的 RAG 系統 22.3.1 基礎問答能力測試 22.3.2 不同風格的回答比較 22.3.3 邊界情況和錯誤處理測試 22.3.4 檢索品質分析 22.3.5 系統性能評估 22.4 本章總結 22.4.1 重大技術成就 22.4.2 下一步展望 第23章RAG 效能評估 23.1 RAG 進階:優化檢索與生成的策略 23.1.1 理解檢索系統的本質限制 23.1.2 進階檢索策略的理論基礎 23.1.3 檢索結果融合與重排序 23.1.4 MultiQueryRetriever 的實作與優化 23.1.5 自訂查詢生成策略 23.1.6 HyDE(假設性文件嵌入)的概念與實作 23.2 評估 RAG 系統:從主觀到客觀 23.2.1 評估的重要性與挑戰 23.2.2 RAGA 評估框架的理論基礎 23.2.3 實作綜合評估框架 23.2.4 持續評估與 A/B 測試框架 23.3 從原型到產品:部署 RAG 系統的考量 23.3.1 部署架構設計考量 23.3.2 性能優化策略 23.4 本章總結 23.4.1 技術能力的全面提升 第三部分 深刻的工程洞察專案實作 第24 章 多語言翻譯系列一:打造你的第一個AI 翻譯系統 24.1 為什麼需要一個聰明的AI 翻譯系統? 24.2 LangGraph:你的AI 專案指揮家 24.3 第一次實作就上手:打造你的基礎翻譯系統 24.4 結論 第25 章 多語言翻譯系列二:你的翻譯,可以更完美 25.1 為什麼你的AI 翻譯不能只做一次? 25.2 讓AI 動起來:理解ReAct 模式與 LangGraph 的結合 25.3 親手打造你的 ReAct 翻譯代理:程式碼實作教學 25.4 你的成就感,就是我的目標! 第26 章 多語言翻譯系列三:實現多語言並行翻譯團隊 26.1 為什麼需要同時翻譯成多國語言? 26.2 你的AI 專案經理:理解Hierarchical Workflow 26.3 親手打造你的AI 翻譯團隊:程式碼實作教學 26.4 你的成就感,就是我的目標! 第27 章 多語言翻譯系列四:用Reflection 模式檢查翻譯一致性 27.1 為什麼翻譯的「一致性」比你想像中更重要? 27.2 你的AI 審稿員:理解Reflection 模式 27.3 親手打造你的AI 品質把關員:程式碼實作教學 27.4 恭喜你,你的AI 團隊又升級了! 第28 章 多語言翻譯系列五:打造完整的多語翻譯系統:整合與應用 28.1 簡介 28.1.1 整合應用的場景 28.2 系統設計與技術整合 28.3 實作整合系統 28.4 打造你的夢幻翻譯系統:程式碼實作教學 28.5 系統的優勢與應用 28.6 結論 第29 章 新聞摘要系列一:打造高效社群貼文生成器 29.1 你是不是也每天被資訊淹沒? 29.2 一個小工具,如何解決大問題? 29.3 親手打造你的AI 新聞摘要器:程式碼實作教學 29.4 你的成就感,就是我的目標! 第30 章 新聞摘要系列二:讓你的X 貼文更吸睛! 30.1 寫在前面:為什麼你的新聞摘要總是差了點什麼? 30.2 高品質摘要的價值:不只是閱讀,更是影響力 30.3 從「摘要生成」到「品質檢查」 30.3.1 設計核心:定義一個「狀態」來追蹤進度 30.3.2 構建「工作流程」:誰先做,誰後做? 30.4 程式碼實現:手把手帶你建構LangGraph 摘要優化器 30.5 結論與預告:下一站,LangGraph 翻譯系列! 第31 章 新聞摘要系列三:打造吸睛貼文 31.1 寫在前面:還在手動寫X 貼文?你可能已經輸在起跑點! 31.1.1 一則好貼文的價值:不只發布,更是引爆話題 31.2 從「摘要」到「貼文」 31.2.1 設計核心:定義一個「狀態」來追蹤進度 31.2.2 構建「工作流程」:誰先做,誰後做? 31.3 程式碼實現:手把手帶你建構LangGraph 貼文生成器 31.4 自動生成貼文,能為你創造哪些商業價值? 31.5 結論與預告:下一站,LangGraph 翻譯系列最終章! 第32 章 新聞摘要系列四:摘要貼文改良 32.1 寫在前面:為什麼你的貼文,總是差了一點「感覺」? 32.1.1 一則好貼文的價值:不只發布,更是精準溝通 32.2 從「初稿」到「精修」的編輯旅程 32.2.1 設計核心:定義一個「狀態」來追蹤進度 32.2.2 構建「工作流程」:誰先做,誰後做? 32.3 程式碼實現:手把手帶你建構風格優化器 32.4 優化後的貼文,能為你創造哪些商業價值? 32.5 結論與預告 第33 章 新聞摘要系列五:打造「一站式」爆款貼文工廠 33.1 前言:是時候終結你的內容焦慮了! 33.2 整合後的系統:為什麼 1 + 1 + 1 + 1 > 4? 33.3 系統設計 33.3.1 核心設計:追蹤「一切」的狀態物件 33.3.2 工作流程:一氣呵成的自動化流程 33.4 程式碼實現:手把手打造你的全自動內容發布機 33.5 最終成果與展望:你的全自動內容發布機
類似書籍推薦給您
【簡介】 若要打造可推理及提取外部資料、理解前後脈絡、可投入正式環境的 AI 應用程式,你就必須熟悉熱門的開發框架與平台 LangChain。它可以用來建立、執行與管理有自主行動能力的 app。目前已有許多頂尖公司採用 LangChain,包括 Zapier、Replit、Databricks 等。對於已經學會 Python 或 JavaScript,且想要掌握 AI 能力的新手開發者而言,本書是必備的學習資源。 作者 Mayo Oshin 與 Nuno Campos 透過實用的見解與深入的教學,帶領你逐步掌握 LangChain 的運用。從基礎概念開始,一步步帶你建立一個可正式上線,並且能夠使用個人資料的 AI agent。 • 運用 retrieval-augmented generation(RAG)技術,結合外部的即時資料來提升 LLM 的準確性。 • 開發並部署能夠與使用者聰明地互動,並且記得前後脈絡的 AI 應用程式。 • 透過 LangGraph 來使用強大的 agent 架構。 • 整合並管理第三方 API 與工具,以擴充 AI 應用程式的功能。 • 監控、測試與評估 AI 應用程式,以提升效能。 • 瞭解 LLM app 開發的基礎知識,並學習如何在 LangChain 上加以活用。 ------------------------------------------------------------- 「本書包含條理分明的講解和可落實的技巧,是掌握 LangChain 的強大功能,並用它來製作可上線的生成式 AI 與 agent 的首選資源。對於想充分利用此平台之潛力的開發者來說,是必讀之作。」 ── Tom Taulli,IT 顧問暨《AI輔助程式開發》作者 「這本完整的指南涵蓋文件提取與檢索,以及在正式環境中部署與監控 AI agent 的完整知識。透過引人入勝的範例、直覺的圖解與實際的程式碼,讓 LangChain 變得既有趣又好玩!」 ── Rajat K. Goel,IBM 資深軟體工程師 「這是一本完整的 LLM 指南,不只介紹基礎知識,也探討生產階段,充滿技術見解、實用策略,以及強大的 AI 模式。」 ── Gourav Singh Bais,Allianz Services 資深資料科學家暨技術內容撰寫人 【目錄】 第一章 使用 LangChain 必備的 LLM 基礎知識 設置 LangChain 環境 在 LangChain 中使用 LLM 讓 LLM 的指示詞可以重複使用 從 LLM 取得特定格式的輸出 組合 LLM 應用程式的各個部分 第二章 RAG 首部曲:為你的資料建立索引 目標:為 LLM 挑選相關的脈絡 embedding:將文字轉換成數值 將文件轉換成文字 將文字拆成小段落 產生文字embedding 將 embedding 存入向量庫 追蹤文件的變更 索引最佳化 第三章 RAG 二部曲:與你的資料對話 Retrieval-Augmented Generation 簡介 查詢句轉換 查詢句路由 建構查詢句 第四章 使用 LangGraph 來為聊天機器人加入記憶功能 建立聊天機器人記憶系統 介紹 LangGraph 建立 StateGraph 為 StateGraph 加入記憶功能 修改聊天歷史 第五章 LangGraph 與認知架構 架構 #1:LLM 呼叫 架構 #2:鏈式架構 架構 #3:路由器 第六章 agent 架構 Plan-Do 迴圈 建立一個 LangGraph agent 始終先呼叫某一個工具 使用大量工具 第七章 Agents 第二集 反省 LangGraph 的 subgraph 多 agent 架構 第八章 善用 LLM 的設計模式 結構化輸出 第九章 部署:將 AI 應用程式部署到正式環境 先決條件 瞭解 LangGraph Platform API 在 LangGraph Platform 上部署 AI 應用程式 安全 第十章 測試:評估、監控與持續改進 在 LLM app 開發週期中的測試技巧 設計階段:能自我修正的 RAG 預備上線階段 正式上線階段 第十一章 使用 LLM 來建構應用程式 互動式聊天機器人 與 LLM 合作編輯 環境式運算(ambient computing)
類似書籍推薦給您
【簡介】 >資 料 不 外 流,模 型 任 你 遊 No data out, all models in play 本書是專為考量資料隱私問題但又想開發結合大型語言模型 LLM 應用者所設計,不倚賴大型 AI 公司的雲端服務,利用 Ollama 系統建置本機 LLM 推論引擎,既保護隱私又節省串接大型 AI 公司 API 服務的費用。更重要的是,可視需要變換模型,不會被大型 AI 公司綁架,完全彈性自主。本書還具備以下特色: LangChain 應用程式開發框架 除了簡化程式撰寫,更可跨模型,即使要改用大型 AI 公司的模型也不需要重新撰寫程式。LangChain 框架提供有外部函式(工具)的抽象層,可立即將既有的函式變成模型可用的工具,加上 LangChain 社群的豐富工具,簡直就像是 LLM 軍火庫,讓模型不只能說一口好話,還能付諸行動,可以達成像是執行 SQL 語句查詢資料庫等各種功能。 RAG 應用開發 對於需要參考私有資料的應用情境,LangChain 也提供有完整的 RAG 支援,不但可讀取 PDF/網頁/JSON 等各種格式資料來源,也提供多種文檔切割方式與 FAISS 等嵌入式資料庫儲存/檢索機制,瞬間就能幫模型補足專屬知識,協助解答問題。 AI Agent 代理應用 LangChain 設計有現成的 AI Agent 框架,搭配剛剛提到的各式工具與 RAG 機制,即可設計可自主思考,規劃行動並實際完成任務的 ReAct Agent。 獨家 LangGraph 主題 考量到一般 Agent 帶來的不確定性,LangChain 生態系加入了 LangGraph 框架,可以設計具備穩定流程的 Agent 代理,避免 Agent 陷入無窮迴圈無法完成任務的窘境。 LangSmith 評估系統 補上 Agent 代理應用的最後一塊拼圖,透過 LangSmith 服務檢視 Agent 執行過程,可評估執行效能、prompt 成效、模型規劃行動優劣,不再只用感覺評斷。 本書特色 自由彈性的本地端 Ollama 模型,節省 API 串接費用 出張嘴用自然語言替代 SQL 語句查詢資料庫 從 PDF/網頁/JSON 檔擷取資料補充模型知識打造 RAG 應用 善用 prompt 技巧避免模型產生幻覺 設計有記憶、可自主決策規劃並執行任務的 AI Agent 代理 獨家 LangGraph 教學,設計穩定流程的 AI Agent 利用 LangSmith 監測 AI Agent 執行流程 【目錄】 第 1 章 本地化低硬體門檻的 LLM 應用開發 1-1 解決高昂的 API 成本與硬體需求 API 成本的負擔 硬體需求的挑戰 免費與本地化運算的崛起 1-2 對雲端的依賴與資料安全性 雲端依賴的挑戰 資料安全性的考量 在本地運行模型以減少對雲端的倚賴 1-3 為什麼選擇免費的本地化運算 成本效益 自主性與可客製化 技術可行性 1-4 LangChain、Ollama 和 LangGraph 的特色與優勢 LangChain Ollama LangGraph 最低硬體需求與資源建議 第 2 章 環境建置與模型量化技術 2-1 低硬體需求的環境準備與 Ollama 模型選擇 本書撰寫時使用之硬體環境 本書推薦之大型語言模型 2-2 模型選擇指南與量化技術解析 模型的命名慣例 模型挑選方式 Ollama 模型尋找教學 2-3 如何在本地環境中運行 LangChain 和 Ollama 使用 Docker 快速部署 手動配置本地環境 (適合不方便使用 Docker 的讀者) Colab 雲端部署 Ollama 版本相容性提醒 本書實作範例採用的量化模型說明 程式碼中更換模型的方法 第 3 章 LangChain 基礎入門 3-1 認識 LangChain 生態系統的架構與組成 3-2 認識 LangChain 底層模組 Base Packages (基礎套件群) Integrations (整合模組群) 3-3 可執行單元 (Runnables) 最核心的 Runnable 元件:LLM 生成 提示模板 (Prompt Templates) RunnableLambda 3-4 表達式語言 LCEL (LangChain Expression Language) RunnableSequence RunnableParallel 3-5 回呼 (Callbacks) 回呼事件 (Callback Events) 回呼處理器 (Callback Handlers) 回呼添加方式 (Passing Callbacks) StreamingStdOutCallbackHandler 3-6 避免數字幻覺:用 Prompt 確保 LLM 只根據提供的數據回答 LLM 會如何產生數字幻覺? 提示詞 (Prompt):避免 LLM 生成錯誤數值 temperature (溫度) 結合 Prompt 與 LLM,驗證是否能有效抑制數字幻覺 3-7 建立多國語言翻譯助手應用 步驟 1:定義提示模版 (Prompt Template) 步驟 2:接收用戶輸入 步驟 3:建立流程鏈並在執行時傳入回呼 執行結果展示 3-8 建立搜尋引擎最佳化 SEO 標題產生器 步驟 1:定義提示模版 (Prompt Templates) 步驟 2:接收用戶輸入 步驟 3:建立流程鏈 步驟 4:使用 .stream() 實現串流輸出 執行結果展示 第 4 章 SQL:結合資料庫打造自然語言查詢系統 4-1 如何透過 LLM 達到 SQL 查詢自動化 認識 SQLite 資料庫 自然語言轉 SQL 查詢 4-2 建立 SQL 人資小幫手問答機器人 步驟 1:初始化模型與連接資料庫 步驟 2:獲取資料庫結構 步驟 3:執行 SQL 查詢的函式 步驟 4:SQL 查詢語句生成 (自然語言輸入 → SQL 語句) 步驟 5:執行 SQL 查詢,並將查詢結果轉換為自然語言回答 步驟 6:主程式 執行結果展示 4-3 跨資料表 SQL 查詢:讓 LLM 理解關聯資料並生成查詢語句 程式碼修改說明 執行結果展示 第 5 章 向量資料庫:基礎 RAG 與語義相似性檢索 5-1 認識檢索增強生成 (RAG) RAG 使用檢索系統帶來的優勢 幫 LLM 擴展知識並減少幻覺 (Hallucination) 5-2 嵌入向量與語義相似性檢索流程 嵌入向量 (Embedding Vector) 語義相似性檢索 (Semantic Similarity Retrieval) 5-3 FAISS 向量資料庫與相似度計算方式 FAISS 的記憶體特性 FAISS 索引類型概覽 相似度計算方式介紹 5-4 OllamaEmbeddings 嵌入模型 在 Ollama 尋找、更換與下載嵌入模型的方法 正規化測試 嵌入模型測試與相似性檢索 5-5 設定相似度閾值:控制語義檢索範圍 L2 距離 (歐幾里得距離, Euclidean Distance) 使用 MAX_INNER_PRODUCT 實現餘弦相似度 (Cosine Similarity) 5-6 將 FAISS 向量資料庫本地化:實現持久化儲存與載入 向量資料庫本地化流程 檢索本地向量資料庫流程 建立與檢索本地 FAISS 向量資料庫 整合 LLM 來回答問題 第 6 章 進階 RAG:記憶、數據向量化、檔案載入器與多資料來源 6-1 認識檢索、生成與數據向量化流程 RAG 詳細運作流程 RAG 數據向量化流程 6-2 建立 RAG 向量化檢索泛用聊天機器人 步驟 1:初始化 LLM 步驟 2:儲存向量並初始化檢索器 步驟 3:建立提示模板 步驟 4:建立檢索鏈與檔案處理鏈 步驟 5:啟動對話系統 執行結果展示 常見觀念誤區整理 6-3 建立相似度閾值機制:本地 RAG 球員戰績問答機器人 步驟 1:新增 SIMILARITY_THRESHOLD 與準備數據 步驟 2:檢查數據是否需要更新 步驟 3:建立 FAISS 向量資料庫 步驟 4:建立檢索與問答系統 執行結果展示 6-4 文本分割 (Chunking) 短片段 vs. 長片段 分割時需要考量的因素 常見的文本分割策略 文本分割的實I建議 6-5 檔案載入器 (Document Loaders) LangChain 的檔案載入器 檔案載入器用法介紹 6-6 建立 PDF、網頁爬蟲、JSON 檢索問答機器人 PDF 檢索問答機器人 執行結果展示 網頁爬蟲檢索問答機器人 執行結果展示 JSON 檢索問答機器人 執行結果展示 6-7 LangChain 記憶 (Memory) LangChain 記憶類型介紹 LangChain 記憶執行流程 6-8 建立有記憶能力的檢索問答機器人 保留完整對話的 ConversationBufferMemory 執行結果展示 保留對話摘要的 ConversationSummaryMemory 執行結果展示 第 7 章 Agent × Memory:讓模型自己選擇工具並擁有對話記憶 7-1 認識代理 (Agent) AgentExecutor (代理執行器) AgentType (代理類型) initialize_agent (初始化代理) 7-2 工具 (Tool) 使用 LangChain 提供的搜尋引擎查詢工具 (Tool) 建立函式當作自訂工具 (Tool) 7-3 建立有記憶的泛用電腦助手 Agent:密碼生成 × 網頁爬蟲 × 搜尋引擎 步驟 1:初始化 Ollama LLM 步驟 2:建立密碼生成函式當工具 步驟 3:建立網頁爬蟲函式當工具 步驟 4:加入搜尋引擎查詢工具 (DuckDuckGoSearchRun) 步驟 5:組成工具清單 步驟 6:設定 Prompt 步驟 7:加入記憶機制 (Memory) 步驟 8:建立代理 (Agent) 步驟 9:建立主程式 執行結果展示 第 8 章 LangGraph:用狀態、節點、邊建構圖結構流程 8-1 認識 LangGraph 圖結構流程控制原理 LangChain AgentExecutor 與 LangGraph 的差異 圖結構 (Graph) 節點與邊 (Nodes and Edges) 8-2 LangGraph 狀態與其更新機制 (State + Reducer) 狀態 (State) Reducer:控制狀態的更新機制 8-3 建立圖結構條件邏輯 Agent:日期查詢 × 數學計算 步驟 1:初始化模型 步驟 2:定義狀態類別 步驟 3:定義節點函式 步驟 4:建構圖 步驟 5:添加節點與邊 步驟 6:編譯圖與主程式 執行結果展示 8-4 建立圖結構網路查詢助手 Agent:維基百科 × 搜尋引擎 步驟 1:定義狀態類別 步驟 2:初始化工具 步驟 3:定義節點函式 步驟 4:構建圖 步驟 5:執行主程式 執行結果展示 8-5 LangGraph 記憶:Checkpointer Checkpointer (檢查點保存器) Thread (執行緒) 與 Checkpoint (檢查點) 檢查點的獲取:get_state 與 get_state_history 8-6 建立有記憶的圖結構泛用聊天機器人 步驟 1:定義狀態類別 步驟 2:定義節點函式 步驟 3:構建圖 步驟 4:建立 Checkpointer 和初始化狀態 步驟 5:執行主程式 執行結果展示 第 9 章 LangSmith:視覺化追蹤與分析 LLM 工作流的每一步 9-1 LangSmith 核心功能與API 金鑰設定 LangSmith 使用教學 探索 LangSmith 的核心功能 9-2 追蹤 SQL、RAG、Agent、Memory 與 LangGraph 等執行流程 基礎執行流程 SQL 執行流程 RAG 執行流程 Agent × Memory 執行流程 LangGraph 執行流程