| 書名: | RAG再深入研究 - 向量資料庫智慧檢索及應用 (1版) | |||
| 作者: | 梁楠 | |||
| 版次: | 1 | |||
| ISBN: | 9786267757703 | |||
| 出版社: | 深智數位 | |||
| 出版日期: | 2026/01 | |||
| 頁數: | 320 | |||
|
#資訊
#AI人工智慧與機器學習 |
||||
【簡介】 【書籍特點】 ★解構高維資料儲存與「維度詛咒」問題 ★比較向量資料庫與傳統關聯式資料庫設差異 ★探索靜態與動態向量嵌入的生成與應用 ★分析距離度量失效與高維相似度計算方法 ★實作HNSW與LSH等近似最近鄰搜尋演算法 ★評估Annoy與BallTree在不同檢索場景的效能 ★解析FAISS向量索引類型與GPU加速技術 ★建構Milvus系統並實現分散式與容器化部署 ★支援中繼資料條件查詢與多維混合檢索 ★結合語義嵌入技術進行語義搜尋系統開發 ★完整實作自動駕駛場景的資料檢索系統 ★導入預訓練模型與微調生成高品質語義向量 ★實現RESTful API與雲端語義檢索服務整合 ★全面覆蓋語義搜索性能調校與異常診斷模組 【內容簡介】 這是一本針對高維向量資料檢索技術所編寫的系統性實務指南,涵蓋從理論基礎、核心演算法到主流工具與應用部署的完整脈絡。內容不僅說明向量資料庫的設計必要性,也具體分析傳統資料庫在高維資料處理上的限制,進而引入HNSW、LSH、Annoy等近似最近鄰搜尋演算法的實作方法。對於工程應用層面,書中詳細介紹FAISS與Milvus兩大系統的架構設計、索引建構、GPU最佳化與容器化部署流程,並輔以自動駕駛、語義檢索等真實場景的完整案例。實作細節包括語義嵌入生成、向量預處理、多條件查詢與RESTful介面開發,對需要建構語義搜索或高效推薦引擎的開發者而言具有極高參考價值。本書適合AI開發者、搜尋系統工程師、推薦系統實作者及研究高維向量檢索的學術人員使用,是串接模型應用與資料系統的關鍵橋樑。 【目錄】 ▌第一部分 理論基礎 ►第1 章 為何需要向量資料庫 1.1 大語言模型的缺陷 1.1.1 高維向量表示中的資訊遺失問題 1.1.2 嵌入空間對語義相似度的誤差影響 1.2 高維資料儲存與檢索的技術瓶頸 1.2.1 高維資料的特性與儲存困難分析 1.2.2 高維空間中的「維度詛咒」問題簡介 1.2.3 高效檢索:索引結構與搜尋演算法簡介 1.3 傳統資料庫與向量資料庫的對比分析 1.3.1 傳統資料庫的設計原理與局限性 1.3.2 高維向量檢索在傳統資料庫中的實現困難 1.3.3 傳統資料庫與向量資料庫的性能對比分析 1.4 向量資料庫的優勢 1.5 本章小結 1.6 思考題 ►第2 章 向量資料庫基礎 2.1 向量資料庫的核心概念與基本資料結構 2.1.1 向量資料庫的定義與發展背景 2.1.2 向量資料庫常見的資料結構:倒排索引、圖索引與分區技術 2.1.3 向量資料庫與傳統資料庫邏輯對比 2.2 特徵提取與向量表示:從資料到高維座標系 2.2.1 特徵提取的基本方法 2.2.2 嵌入向量生成 2.2.3 資料前置處理對向量品質的影響 2.3 高維空間特性與「維度詛咒」問題解析 2.3.1 高維空間中的稀疏性與資料分佈特性 2.3.2 距離度量的退化:歐幾里得距離與餘弦相似度 2.3.3 維度詛咒:降維與索引最佳化 2.4 本章小結 2.5 思考題 ▌第二部分 核心技術與演算法原理 ►第3 章 向量嵌入 3.1 靜態向量嵌入 3.1.1 傳統詞向量模型:Word2Vec 與GloVe 3.1.2 靜態嵌入的局限性:語義多義性與上下文缺失 3.1.3 靜態向量嵌入在特定領域的應用 3.2 動態向量嵌入 3.2.1 動態詞向量的生成:BERT 與GPT 的嵌入機制 3.2.2 動態嵌入的優勢:上下文敏感性與語義一致性 3.2.3 動態向量嵌入的即時生成與最佳化 3.3 均勻分佈與空間覆蓋率 3.3.1 高維向量分佈分析 3.3.2 嵌入向量的均勻性測量方法 3.3.3 空間覆蓋率對檢索性能的影響 3.4 嵌入向量最佳化 3.4.1 主成分分析與奇異值分解的降維應用 3.4.2 t-SNE 與UMAP 降維技術 3.4.3 降維對嵌入語義保留與性能的權衡分析 3.5 本章小結 3.6 思考題 ►第4 章 向量相似性搜尋初步 4.1 基於暴力搜尋的向量相似性檢索 4.1.1 暴力搜尋的原理與實現 4.1.2 暴力搜尋最佳化 4.2 歐幾里得距離與餘弦相似度 4.2.1 距離與相似度的數學定義 4.2.2 不同相似度指標的適用場景分析 4.3 向量搜尋的精度與召回率 4.3.1 精度、召回率與F1 評分的計算方法 4.3.2 向量搜尋性能提升方案 4.4 本章小結 4.5 思考題 ►第5 章 分層定位與局部敏感雜湊 5.1 HNSW 的核心原理:圖結構與分層搜尋路徑最佳化 5.1.1 基於圖結構的近鄰搜尋模型 5.1.2 分層搜尋路徑的建構與更新 5.1.3 HNSW 索引時間複雜度分析 5.2 局部敏感雜湊的設計與性能調優 5.2.1 雜湊函式的設計與向量分區原理 5.2.2 LSH 桶化與參數調優 5.2.3 LSH 的記憶體佔用與計算性能分析 5.3 HNSW 與LSH 的具體應用 5.3.1 HNSW 在推薦系統中的應用 5.3.2 LSH 在文字和影像檢索中的應用 5.3.3 HNSW 與LSH 的組合應用:多模態檢索實例 5.4 本章小結 5.5 思考題 ►第6 章 LSH 搜尋最佳化 6.1 BallTree 演算法的工作原理 6.1.1 BallTree 的節點分割與索引建構 6.1.2 BallTree 查詢過程與複雜度分析 6.2 Annoy 搜尋演算法 6.2.1 Annoy 的索引結構設計與分區原理 6.2.2 Annoy 在大規模向量檢索中的性能最佳化 6.3 隨機投影在LSH 中的應用 6.3.1 隨機投影的數學基礎 6.3.2 隨機投影在高維資料降維與檢索中的實際應用 6.3.3 隨機投影在人物誌降維與檢索中的應用 6.4 本章小結 6.5 思考題 ▌第三部分 工具與系統建構 ►第7 章 相似性測量初步 7.1 從曼哈頓距離到切比雪夫距離 7.1.1 曼哈頓距離的幾何意義與公式推導 7.1.2 切比雪夫距離在棋盤模型中的應用 7.1.3 不同距離度量的適用場景分析 7.2 相似性測量的時間複雜度與最佳化 7.2.1 向量間距離計算的時間複雜度分析 7.2.2 減少距離計算的分區最佳化技術 7.2.3 並行化與硬體加速在相似性測量中的應用 7.2.4 廣告分發系統案例:基於相似性測量的高效推薦 7.3 本章小結 7.4 思考題 ►第8 章 測量進階:點積相似度與雅卡爾相似係數 8.1 點積相似度測量 8.1.1 點積相似度測量實現 8.1.2 點積相似度在推薦系統中的應用案例 8.1.3 點積相似度在醫療領域的應用案例:患者治療方案匹配 8.2 雅卡爾相似係數在稀疏向量中的應用 8.2.1 稀疏向量的構造與稀疏性分析 8.2.2 雅卡爾相似係數案例分析 8.2.3 基於雅卡爾相似係數的犯罪嫌犯關係網絡分析 8.3 跨模態醫療資料相似性分析與智慧診斷系統 8.4 本章小結 8.5 思考題 ►第9 章 中繼資料過濾與犯罪行為分析系統 9.1 中繼資料與向量檢索 9.1.1 中繼資料在混合檢索中的作用 9.1.2 中繼資料標籤的定義與標準化 9.1.3 智慧多條件推薦系統 9.2 多條件檢索實現 9.2.1 多維度條件組合檢索 9.2.2 基於中繼資料優先順序的排序演算法 9.2.3 基於中繼資料的酒店智慧化推薦案例分析 9.3 中繼資料索引的建構與最佳化 9.3.1 中繼資料索引建構 9.3.2 動態中繼資料的更新與重建 9.4 即時檢索與中繼資料快取 9.4.1 基於快取的高性能檢索架構 9.4.2 中繼資料快取失效與一致性管理 9.5 基於中繼資料的犯罪行為分析與即時預警系統 9.5.1 模組開發劃分 9.5.2 逐模組開發 9.5.3 犯罪分析與預警系統綜合測試 9.6 本章小結 9.7 思考題 ►第10 章 FAISS 向量資料庫開發基礎 10.1 FAISS 庫的安裝與快速上手 10.1.1 FAISS 初步開發以及CPU、GPU 的版本差異 10.1.2 載入資料與基本查詢範例 10.2 基於FAISS 的索引建構與參數調整 10.2.1 不同索引類型:Flat、IVF 與HNSW 10.2.2 參數調整對搜尋精度與速度的影響 10.3 大規模向量搜尋的分片與分散式實現 10.3.1 資料分片與動態分片 10.3.2 基於分散式框架的FAISS 部署 10.4 FAISS 中的記憶體最佳化與GPU 加速 10.4.1 壓縮索引與量化技術 10.4.2 多GPU 的並行處理 10.5 本章小結 10.6 思考題 ►第11 章 Milvus 向量資料庫開發基礎 11.1 Milvus 的架構設計與功能模組解析 11.1.1 Milvus 的初步使用及叢集架構與元件通訊 11.1.2 資料分區與高可用設計 11.2 使用Milvus 進行向量插入、檢索與過濾 11.2.1 向量資料前置處理與批次插入 11.2.2 複雜查詢準則實現 11.3 Milvus 的索引類型與性能調優 11.3.1 索引類型的選擇與適用場景分析 11.3.2 並行最佳化與索引更新 11.4 Milvus 在企業級應用中的部署與擴充方案 11.4.1 基於容器化的高可用部署 11.4.2 動態擴充與監控整合方案 11.5 本章小結 11.6 思考題 ▌第四部分 實戰與案例分析 ►第12 章 基於FAISS 的自動駕駛泊車資料檢索系統 12.1 項目背景介紹 12.1.1 系統架構 12.1.2 應用流程 12.1.3 案例特色 12.2 模組劃分 12.3 模組化開發 12.3.1 資料前置處理模組 12.3.2 向量生成模組 12.3.3 索引建構與儲存模組 12.3.4 即時檢索模組 12.3.5 動態更新模組 12.3.6 系統監控與最佳化模組 12.4 系統綜合測試 12.5 API 介面開發與雲端部署 12.5.1 API 介面開發 12.5.2 雲端部署完整系統 12.6 本章小結 12.7 思考題 ►第13 章 基於語義搜尋的向量資料庫開發實戰 13.1 語義嵌入生成與最佳化 13.1.1 使用預訓練模型生成語義向量嵌入 13.1.2 動態分詞與文字前置處理 13.1.3 領域微調技術 13.2 建構向量索引與語義檢索框架 13.2.1 選擇合適的向量索引類型 13.2.2 建構Milvus 向量索引 13.2.3 語義向量檢索與關鍵字過濾 13.2.4 結合中繼資料與篩選條件實現多維度語義搜尋 13.3 語義搜尋系統的性能調優 13.3.1 GPU 加速最佳化檢索 13.3.2 批次查詢與非同步IO 技術 13.3.3 實現基於分散式架構的語義搜尋系統 13.4 企業級語義搜尋應用整合與部署 13.4.1 建構語義搜尋RESTful 介面 13.4.2 使用Docker 與Kubernetes 實現語義搜尋系統的容器化 13.4.3 日誌監控與錯誤診斷模組 13.4.4 基於語義搜尋的文件檢索系統集成與部署 13.4.5 大型圖書館圖書檢索的測試案例 13.5 本章小結 13.6 思考題
還沒有人留下心得,快來搶頭香!
為您推薦
相關熱銷的書籍推薦給您
書名:人工智慧:智慧型系統導論(第三版) 作者:李聯旺 出版社:全華 ISBN:9789862800959
相關熱銷的書籍推薦給您
書名:機器學習:類神經網路、模糊系統以及基因演算法則(第四版) 作者:蘇木春、張孝德 出版社:全華 出版日期:2016/05/00 ISBN:9789864632060 內容簡介 ■ 本書優點特色 1.將三種與機械學習相關的技術-類神經網路、模糊系統及基因演繹法作一通盤介紹。 2.以深入淺出的方式建立類神經網路與生物神經網路的關聯性,以便讓讀者更能發揮想像力。 3.每一種理論都儘可能配合書中範例及圖表加以說明。 ■ 內容簡介 本書將三種與機械學習相關的技術-類神經網路、模糊系統及基因演繹法作一通盤介紹。此外,作者以深入淺出的方式建立類神經網路與生物神經網路的關聯性,以便讓讀者更能發揮想像力。 目錄 第1章 類神經網路之簡介 第2章 感知機 第3章 多層感知機 第4章 非監督式類神經網路 第5章 聯想記憶 第6章 增強式學習 第7章 模糊集合 第8章 模糊關係及推論 第9章 模糊系統 第10章 基因演算法則
類似書籍推薦給您
【簡介】 本書以扎實的 Spring Boot/MVC/API 基礎為基石, 帶您精通 Spring AI 的核心組件, 最終具備開發企業級 AI 應用程式的能力 ★ 從 Spring Boot 基礎教起,建立堅實的企業級開發能力 ★ 精通 RESTful API 設計,打造穩健的生產級後端系統 ★ 掌握多模態處理、語音合成,擴展智能應用邊界 ★ 由 API 串接 AI,為模型賦予 Function Calling 行動力 ★ 實戰企業級 RAG 知識庫,讓 AI 讀懂你的私有文件 ★ 提供17個實作範例,涵蓋最新的MCP開發 【核心基礎】奠定企業級 AI 應用開發基石 • 穩固開發基礎:深入解析 Spring Boot 自動配置、三層架構,以及 RESTful API 開發 • 必備觀念與實踐:掌握依賴注入、Validation、全域錯誤處理、安全配置 API Key 的方法 • 掌握 Spring AI 核心價值:專注於解決將 企業數據、API 與 AI 無縫串聯 的根本挑戰 • 統一 API 介面:透過 ChatClient,輕鬆整合多種主流 AI 模型 【AI 實戰】建構高智能對話與多模態能力 • RAG 知識庫核心:實作RAG系統,從而解決資料過時或幻覺 問題 • 賦予 AI 行動能力:透過 Function Calling突破AI限制,讓模型能調用外部 API 獲取即時數據、執行業務操作 • 記憶與上下文管理:建立 ChatMemory 系統,實現對話歷史的 短期記憶 和跨會話的 長期記憶 • 多模態功能集成:實現圖片、語音、影片分析及生成等功能 •結構化輸出保證:讓 AI 回應自動轉換為 類型安全 的 Java 物件,便於系統整合與數據處理 【企業部署與優化】打造生產就緒的 AI 平台 • 數據品質保證:深入了解 ETL的 文本清理、智能分塊 和 元資料增強 等技術 • Advanced RAG:學習 Embedding、Re-ranking排序優化,將檢索準確率提升至 90% 以上 • MCP協議擴展:掌握MCP,這是標準AI工具接口,可輕鬆整合外部服務 •生產部署與監控:進行效能監控與成本追蹤 【本書適合】 ◎Java 開發者: 熟悉 Spring Boot 或 Spring Framework,希望快速進入 AI 應用開發領域 ◎企業架構師與技術主管: 負責設計穩定、高效能、可擴展的 企業級 AI 平台 和 RAG 知識庫 ◎數據工程師與後端工程師: 需要將 LLM、向量資料庫和企業數據進行深度整合,並重視系統穩定性 ◎學生與轉職者: 渴望打下紮實的企業級後端(Spring Boot)與 AI 工程基礎,未來走向數據分析或 AI 工程領域 鑑於 Spring 框架在眾多企業核心業務系統中具有深厚的根基,Spring AI 的核心價值在於解決將 企業數據、API 與 AI 無縫串聯 的根本挑戰,是企業級 Java AI 開發的首選 【目錄】 ►第 1 章 Spring Boot 基礎 1.1 快速入門 - 10 分鐘建立第一個應用 本節概要 1.1.1 為什麼選擇 Spring Boot ? 1.1.2 建立開發環境 1.1.3 建立第一個 Spring Boot 專案 1.1.4 第一次啟動 1.1.5 為 Spring AI 做準備 1.1.6 本節重點回顧 1.1.7 下一步 1.1.8 參考資源 1.2 專案架構與配置 - 掌握自動配置與標準架構 本節概要 1.2.1 為什麼專案架構如此重要? 1.2.2 Spring Boot 標準專案結構 1.2.3 三層架構設計 1.2.4 配置管理策略 1.2.5 依賴注入架構 1.2.6 Maven 專案結構 1.2.7 環境配置管理 1.2.8 本節重點回顧 1.2.9 下一步 1.2.10 參考資源 1.3 核心註解與依賴注入 - 深入解析註解驅動開發 本節概要 1.3.1 為什麼需要註解? 1.3.2 Spring Boot 註解體系概覽 1.3.3 核心啟動註解 1.3.4 組件註解 1.3.5 依賴注入詳解 1.3.6 Web 開發核心註解 1.3.7 配置相關註解 1.3.8 為 Spring AI 做準備 1.3.9 本節重點回顧 1.3.10 下一步 1.3.11 參考資源 1.4 實戰:打造你的第一個 Spring Boot 應用 本節概要 1.4.1 專案需求分析 1.4.2 系統架構設計 1.4.3 資料模型設計 1.4.4 DTO 模式實作 1.4.5 資料流程圖 1.4.6 服務層實作 1.4.7 Controller 層實作 1.4.8 配置檔案 1.4.9 API 測試 1.4.10 安全性設計 1.4.11 關鍵技術說明 1.4.12 本節重點回顧 1.4.13 下一步 1.4.14 參考資源 ►第 2 章 Spring MVC 與 API 開發 2.1 Spring MVC 基礎 - 架構原理與請求處理流程 本節概要 2.1.1 MVC 架構概述 2.1.2 現代架構:前後端分離 2.1.3 DispatcherServlet 工作流程 2.1.4 @RestController vs @Controller 2.1.5 JSON 自動處理機制 2.1.6 為 Spring AI 做準備 2.1.7 本節重點回顧 2.1.8 下一步 2.1.9 參考資源 2.2 RESTful API 設計 - 原則與最佳實踐 本節概要 2.2.1 REST 架構約束條件 2.2.2 HTTP 方法語義化使用 2.2.3 完整 CRUD 操作實現 2.2.4 URL 設計規範 2.2.5 HTTP 狀態碼最佳實踐 2.2.6 本節重點回顧 2.2.7 下一步 2.2.8 參考資源 2.3 請求與回應處理 - 精通 HTTP 參數綁定與內容協商 本節概要 2.3.1 請求參數處理 2.3.2 @PathVariable - 路徑參數 2.3.3 @RequestParam - 查詢參數 2.3.4 @RequestBody - 請求體參數 2.3.5 @RequestHeader - 請求標頭 2.3.6 統一回應格式設計 2.3.7 全域異常處理 2.3.8 HTTP 狀態碼最佳實踐 2.3.9 本節重點回顧 2.3.10 下一步 2.3.11 參考資源 ►第 3 章 生產級 API 開發實踐 3.1 資料驗證與錯誤處理 - 建構穩固的防禦機制 本節概要 3.1.1 為什麼需要資料驗證? 3.1.2 資料驗證完整流程 3.1.3 Bean Validation 實作 3.1.4 自訂驗證註解 3.1.5 全域異常處理 3.1.6 自訂業務異常 3.1.7 實際應用場景 3.1.8 本節重點回顧 3.1.9 下一步 3.1.10 參考資源 3.2 檔案處理與多媒體 - 從上傳到安全存取 本節概要 3.2.1 檔案處理的重要性 3.2.2 HTTP 檔案上傳原理 3.2.3 檔案上傳配置 3.2.4 檔案上傳實作 3.2.5 檔案下載實作 3.2.6 安全性考量 3.2.7 實際應用場景 3.2.8 本節重點回顧 3.2.9 下一步 3.2.10 參考資源 3.3 API 文件化實戰 - 整合 Swagger 與 OpenAPI 本節概要 3.3.1 Swagger / OpenAPI 工作流程 3.3.2 整合 Swagger / OpenAPI 3.3.3 使用 Swagger 註解 3.3.4 API 測試工具 3.3.5 API 測試類型 3.3.6 實際應用場景 3.3.7 本節重點回顧 3.3.8 下一步 3.3.9 參考資源 ►第 4 章 Spring AI 的誕生與核心價值 Spring AI 1.0 GA 的革命性變革 ChatClient - 統一的核心 API 增強的 LLM 功能 Advisor API - AOP 思想的延伸 4.1 取得 AI 入門鑰匙 - API Key 申請指南 本節概要 4.1.1 為什麼需要 API Key? 4.1.2 主要 AI 服務提供商 4.1.3 API Key 配置與管理 4.1.4 成本控制與監控 4.1.5 本節重點回顧 4.1.6 下一步 4.1.7 參考資料 4.2 Hello AI World - 建立您的第一個 AI 應用 本節概要 4.2.1 Spring AI 架構概述 4.2.2 專案建立與依賴配置 4.2.3 使用 ChatClient 實現 AI 對話 4.2.4 ChatClient 自動配置與客製化 4.2.5 ChatModel 直接使用方式 4.2.6 測試 AI 應用程式 4.2.7 ChatClient vs ChatModel 使用時機 4.2.8 本節重點回顧 4.2.9 下一步 4.2.10 參考資料 4.3 流式輸出實現 - 整合 Server-Sent Events (SSE) 本節概要 4.3.1 為什麼需要流式輸出? 4.3.2 ChatClient 流式輸出實作 4.3.3 進階流式輸出控制 4.3.4 使用 ChatModel 的流式輸出 4.3.5 應用程式配置 4.3.6 本節重點回顧 4.3.7 下一步 4.3.8 參考資料 4.4 深入 ChatModel - AI 對話核心機制 本節概要 4.4.1 Spring AI 架構全貌 4.4.2 ChatModel 核心介面 4.4.3 AI 模型參數配置 4.4.4 多模型支援架構 4.4.5 本節重點回顧 4.4.6 下一步 4.4.7 參考資料 4.5 前端串流處理 - Server-Sent Events 實戰 本節概要 4.5.1 EventSource API 基礎 4.5.2 建立流式聊天介面 4.5.3 JavaScript 流式聊天實現 4.5.4 本節重點回顧 4.5.5 下一步 4.5.6 參考資料 ►第 5 章 Spring AI 進階功能 5.1 提示詞範本 (Prompt Template) - 標準化你的 AI 互動 本節概要 5.1.1 什麼是提示詞範本? 5.1.2 方式一:最簡單的 Fluent API 5.1.3 方式二:使用 PromptTemplate 類別 5.1.4 方式三:外部檔案管理(最佳實踐) 5.1.5 進階應用:動態角色切換 5.1.6 本節重點回顧 5.1.7 下一步 5.1.8 參考資料 5.2 多模態處理 - 讓 AI 看見與聽見 本節概要 5.2.1 什麼是多模態 AI? 5.2.2 支援多模態的 AI 模型 5.2.3 圖片分析功能實現 5.2.4 多媒體檔案處理 5.2.5 企業級應用場景 5.2.6 本節重點回顧 5.2.7 下一步 5.2.8 參考資料 5.3 圖像生成實戰 - 從文字到圖像 本節概要 5.3.1 AI 圖片生成的革命性影響 5.3.2 Spring AI 支援的圖片生成模型 5.3.3 OpenAI DALL·E 3 整合 5.3.4 進階功能實現 5.3.5 最佳實踐 5.3.6 本節重點回顧 5.3.7 下一步 5.3.8 參考資料 5.4 字幕產生器 - 影片自動上字幕 本節概要 5.4.1 為什麼需要 AI 字幕生成? 5.4.2 Spring AI 語音轉文字架構 5.4.3 Whisper 模型介紹 5.4.4 配置與實現 5.4.5 字幕格式說明 5.4.6 最佳實踐 5.4.7 本節重點回顧 5.4.8 下一步 5.4.9 參考資料 5.5 語音合成 (Text-to-Speech) - 賦予應用聲音 本節概要 5.5.1 為什麼需要 AI 配音? 5.5.2 Spring AI 語音生成架構 5.5.3 OpenAI TTS 模型與聲音 5.5.4 配置與實現 5.5.5 成本與效益分析 5.5.6 最佳實踐 5.5.7 本節重點回顧 5.5.8 下一步 5.5.9 參考資料 5.6 Function Calling(上)- 賦予 AI 操作世界的能力 本節概要 5.6.1 AI 為什麼需要工具? 5.6.2 Tool Calling 基礎架構 5.6.3 第一個 Tool - 時間查詢 5.6.4 @Tool 註解詳解 5.6.5 多工具協作 5.6.6 最佳實踐 5.6.7 完整示例:智能助手 5.6.8 重點回顧 5.6.9 下一步 5.6.10 參考資料 5.7 Function Calling(中)- 讀取企業資料 本節概要 5.7.1 為什麼需要 Tool Calling? 5.7.2 Tool Calling 架構 5.7.3 基礎工具實現 5.7.4 進階工具開發 5.7.5 實際應用場景 5.7.6 最佳實踐 5.7.7 工具設計模式 5.7.8 本節重點回顧 5.7.9 下一步 5.7.10 參考資料 5.8 Function Calling(下)- 進階工具鏈與多步驟任務 本節概要 5.8.1 為什麼需要工具鏈? 5.8.2 工具鏈執行流程 5.8.3 實戰:建立工具鏈系統 5.8.4 實際應用場景 5.8.5 控制器實現 5.8.6 本節重點回顧 5.8.7 下一步 5.9 即時資料查詢 - 串接氣象 API 本節概要 5.9.1 為什麼要整合真實 API? 5.9.2 中央氣象局 API 整合 5.9.3 實戰:建立天氣查詢系統 5.9.4 控制器實現 5.9.5 測試應用 5.9.6 錯誤處理策略 5.9.7 本節重點回顧 5.9.8 下一步 5.9.9 參考資料 5.10 結構化輸出 - 從 AI 回應到 Java 物件 本節概要 5.10.1 結構化輸出的重要性 5.10.2 三種轉換器的用途 5.10.3 現代化 API 實現 5.10.4 傳統轉換器實現 5.10.5 企業級應用場景 5.10.6 最佳實踐和優化 5.10.7 本節重點回顧 5.10.8 下一步 5.10.9 參考資料 ►第 6 章 AI 記憶與知識管理 6.1 In-Context Learning - 賦予 AI 上下文感知能力 本節概要 6.1.1 為什麼需要 In-Context Learning? 6.1.2 In-Context Learning 核心概念 6.1.3 實現方式 6.1.4 Spring AI 1.0 的改進 6.1.5 實際應用場景 6.1.6 與其他概念的關係 6.1.7 本節重點回顧 6.1.8 In-Context Learning 的自動化:RAG 6.1.9 下一步 6.2 短期記憶系統 - ChatMemory 實戰應用 本節概要 6.2.1 為什麼需要 ChatMemory? 6.2.2 ChatMemory 架構設計 6.2.3 InMemoryChatMemory 實現 6.2.4 MessageWindowChatMemory(滑動視窗) 6.2.5 兩種 Advisor 的差異 6.2.6 多種儲存後端 6.2.7 重點回顧 6.2.8 下一步 6.3 Advisor 插件化開發 - 自訂 AI 增強功能 本節概要 6.3.1 什麼是 Advisor? 6.3.2 Spring AI 1.0+ 新版 API 6.3.3 實戰:TokenUsageLogAdvisor 6.3.4 Advisor 執行順序 6.3.5 進階範例 6.3.6 本節重點回顧 6.3.7 下一步 6.4 向量資料庫選擇 - 20+ 資料庫完整對比 本節概要 6.4.1 什麼是向量資料庫? 6.4.2 Spring AI 1.0 支援的向量資料庫 6.4.3 Docker Compose 快速部署 6.4.4 選擇決策樹 6.4.5 Spring AI 動態配置 6.4.6 性能對比 6.4.7 本節重點回顧 6.4.8 下一步 6.5 Neo4j 向量搜尋實戰 - 配置與部署 本節概要 6.5.1 為什麼選擇 Neo4j? 6.5.2 Docker 部署 6.5.3 向量索引配置 6.5.4 Spring AI 配置 6.5.5 資料操作 6.5.6 效能優化 6.5.7 實用 Cypher 查詢 6.5.8 常見問題 6.5.9 本節重點回顧 6.5.10 下一步 6.6 長期記憶系統 - 跨會話記憶管理 本節概要 6.6.1 向量記憶 vs 傳統記憶 6.6.2 基本配置 6.6.3 混合記憶架構 6.6.4 實戰範例 6.6.5 進階配置 6.6.6 適用場景與限制 6.6.7 記憶同步機制 6.6.8 本節重點回顧 6.6.9 下一步 6.7 智能摘要系統 - 自動整理對話重點 本節概要 6.7.1 為什麼需要智能摘要? 6.7.2 SmartMemoryAdvisor 設計 6.7.3 混合記憶策略 6.7.4 對話分析功能 6.7.5 記憶優化技術 6.7.6 本節重點回顧 6.7.7 下一步 ►第 7 章 RAG 系統建構與企業知識庫整合 7.1 RAG 原理與實現 - 讓 AI 讀懂你的文件 本節概要 7.1.1 什麼是 RAG? 7.1.2 RAG 完整流程 7.1.3 RAG vs Fine-tuning vs Prompt Engineering 7.1.4 Spring AI RAG 實現 7.1.5 向量資料庫配置 7.1.6 完整使用流程 7.1.7 文本分塊策略 7.1.8 RAG 效能調校 7.1.9 實際應用場景 7.1.10 RAG 系統優化技巧 7.1.11 REST API 設計 7.1.12 與其他概念的關係 7.1.13 本節重點回顧 7.1.14 下一步 7.1.15 相關資源 7.2 內容向量化 - Embedding 技術詳解 本節概要 7.2.1 什麼是向量化? 7.2.2 Spring AI Embedding 模型 7.2.3 Spring AI 向量化實現 7.2.4 向量品質評估 7.2.5 相似度計算方法 7.2.6 向量化成本優化 7.2.7 多語言支援 7.2.8 實戰技巧 7.2.9 本節重點回顧 7.2.10 下一步 7.2.11 相關資源 7.3 知識來源處理 - 支援 PDF、Word、Excel 本節概要 7.3.1 什麼是 ETL? 7.3.2 Spring AI ETL 架構 7.3.3 PDF 文件處理 7.3.4 Office 文件處理(Tika) 7.3.5 文本文件處理 7.3.6 網頁內容處理 7.3.7 ETL Pipeline 設計 7.3.8 元資料增強 7.3.9 REST API 整合 7.3.10 本節重點回顧 7.3.11 下一步 7.3.12 相關資源 7.4 進階文件處理 - 整合 OCR 與壓縮檔 本節概要 7.4.1 為什麼需要進階文件處理? 7.4.2 多格式文件架構 7.4.3 Office 文件處理(Excel & PowerPoint) 7.4.4 圖像文件 OCR 處理 7.4.5 壓縮檔案批次處理 7.4.6 統一的多格式處理流程 7.4.7 本節重點回顧 7.4.8 下一步 7.4.9 參考資料 7.5 資料品質優化 - 提升檢索準確度 本節概要 7.5.1 Transform 階段的重要性 7.5.2 智能文本清理 7.5.3 智能文本分塊(Chunking) 7.5.4 元資料增強(Metadata Enrichment) 7.5.5 完整 ETL Pipeline 整合 7.5.6 ETL Pipeline 效能優化 7.5.7 本節重點回顧 7.5.8 下一步 7.5.9 參考資料 7.6 企業資料整合 - 資料庫、API 串接 本節概要 7.6.1 企業 RAG 的資料挑戰 7.6.2 企業資料整合架構 7.6.3 資料同步策略 7.6.4 資料安全與權限控制 7.6.5 資料同步監控 7.6.6 本節重點回顧 7.6.7 下一步 7.6.8 參考資料 7.7 生產環境實戰 - 部署、監控與優化 本節概要 7.7.1 生產環境的挑戰 7.7.2 容器化部署 7.7.3 效能優化策略 7.7.4 監控與告警 7.7.5 故障排除 7.7.6 本節重點回顧 7.7.7 第 7 章總結 7.7.8 參考資料 ►第 8 章 Advanced RAG 技術與優化 8.1 Advanced RAG 概覽 - 提升檢索準確率的關鍵技術 本節概要 8.1.1 為什麼需要 Advanced RAG? 8.1.2 RAG 技術演進 8.1.3 Advanced RAG 核心組件 8.1.4 完整配置範例 8.1.5 效果對比 8.1.6 本節重點回顧 8.1.7 下一步 8.1.8 參考資料 8.2 Embedding 模型優化 - 從選擇到效能調校 本節概要 8.2.1 為什麼 Embedding 是 RAG 的關鍵? 8.2.2 Embedding 模型比較 8.2.3 Spring AI Embedding 配置 8.2.4 效能優化策略 8.2.5 效能監控 8.2.6 模型選擇建議 8.2.7 最佳實踐 8.2.8 本節重點回顧 8.2.9 下一步 8.2.10 參考資料 8.3 Re-ranking 實戰 - 精準重排以獲得最佳答案 本節概要 8.3.1 為什麼需要 Re-ranking? 8.3.2 Voyage AI Re-ranking 實現 8.3.3 配置和使用 8.3.4 效果對比 8.3.5 最佳實踐 8.3.6 本節重點回顧 8.3.7 下一步 8.3.8 參考資料
類似書籍推薦給您
【簡介】 身處 LLM 時代的必備技能 AI 爬蟲與資料檢索的全本機工作流 你還在用傳統的方法爬取網路資料嗎? 還在手動分析 HTML 網頁結構、逐一定位網頁元素、再手刻爬蟲程式嗎? 身處 AI 世代,是時候該學習更聰明、更高效的資料收集方法, 讓你坐在電腦前,喝著咖啡、悠閒地看著 AI 為你自動爬取網路資料。 在 AI 飆速發展的今天,傳統網路爬蟲技術正迎來全新的變革。 過去,Python 爬蟲程式的開發者必須自行剖析 HTML 網頁結構,撰寫繁瑣複雜的資料擷取規則與步驟;如今,隨著 LLM 的普及,AI 已能協助我們理解 HTML 網頁結構、定位網頁資料,甚至能夠自動化建立整個爬取流程,大幅提升開發效率。 本書從 HTML 結構解析入門,循序講解 BeautifulSoup + CSS 選擇器、lxml + XPath 表達式、正規表達式等核心技術,再深入 Selenium 模擬瀏覽器互動及 Scrapy 爬蟲框架的專業應用,帶領讀者全面掌握靜態與動態網頁擷取技術。更進一步結合 Playwright 自動化瀏覽器、以及 AI 驅動的爬蟲框架 Crawl4AI 和 ScrapeGraphAI,讓 LLM 成為理解與提取網頁資料的主力。 不只如此,本書採用 n8n × Ollama 全本機架構,無需 API Key、無需 Docker,即可整合 SearXNG 搜尋引擎、Crawl4AI API 資料爬取、Qdrant 向量資料庫與 RAG 知識檢索生成,最終打造出 MCP + AI Agent 自動化流程 ⸺ 從搜尋、爬取到資料處理與知識生成一手包辦! 本書特色 用 AI 分析 HTML 結構建立 Python 網路爬蟲 ▸全面掌握靜態與動態 HTML 網頁擷取技術,CSS Selector、XPath 一次上手 ▸實戰演練 BeautifulSoup、Selenium、Scrapy 經典 Python 爬蟲框架 Python × LLM 建立 AI 網路爬蟲 ▸整合 OpenAI、Gemini、Groq、Ollama 等多種 LLM,打造智慧爬蟲系統 ▸運用 AI 驅動的爬蟲技術 Crawl4AI 與 ScrapeGraphAI,自動理解並提取網頁內容 ▸結合非同步程式設計,提升資料抓取效率與彈性 整合 Python × AI 網路爬蟲的 AI 工作流程:n8n ▸以視覺化介面建立自動化流程,輕鬆整合搜尋、爬取與資料處理 ▸結合 Qdrant 向量資料庫 × RAG 技術,打造個人化知識檢索系統 ▸構建全本機 AI Agent 工作流,實現從資料擷取到生成的自動化流程 【目錄】 ▌第 1 章 HTML、JSON 與網路爬蟲的基礎 1-1 網路爬蟲的基礎 1-2 網路爬蟲的相關技術 1-3 HTML 標籤語法與結構 1-4 CSV 與 JSON 1-5 Python × AI 網路爬蟲的相關函式庫 ▌第 2 章 從網路取得資料 2-1 認識 HTTP 標頭與 httpbin.org 服務 2-2 使用 Requests 送出 HTTP 請求 2-3 取得 HTTP 回應內容 2-4 送出進階的 HTTP 請求 2-5 錯誤 / 例外處理與檔案存取 ▌第 3 章 擷取靜態 HTML 網頁資料 3-1 在 HTML 網頁定位目標資料 3-2 使用 BeautifulSoup 剖析 HTML 網頁 3-3 分析靜態 HTML 網頁 3-4 使用 find() 函式搜尋 HTML 網頁 3-5 使用正規表達式搜尋 HTML 網頁 ▌第 4 章 使用 CSS 選擇器爬取資料 4-1 認識 CSS 層級式樣式表 4-2 使用 CSS 選擇器定位 HTML 標籤 4-3 Google Chrome 開發人員工具 4-4 ChatGPT 應用:找出定位 HTML 標籤的 CSS 選擇器 4-5 在 BeautifulSoup 使用 CSS 選擇器 ▌第 5 章 走訪 HTML 網頁取出資料與資料儲存 5-1 如何走訪 HTML 網頁 5-2 走訪 HTML 網頁取得資料 5-3 修改 HTML 網頁來爬取資料 5-4 資料清理 5-5 將取得資料儲存成 CSV 和 JSON 檔案 5-6 從網路下載圖檔 ▌第 6 章 使用 XPath 表達式與 lxml 套件建立爬蟲程式 6-1 XPath 與 lxml 套件的基礎 6-2 使用 Requests 和 lxml 套件 6-3 XPath 資料模型 6-4 XPath 基本語法 6-5 XPath 運算子與函式 6-6 ChatGPT 應用:學習 XPath 表達式查詢 HTML 標籤 ▌第 7 章 Selenium 表單互動與動態網頁擷取 7-1 認識動態網頁 7-2 安裝 Selenium 7-3 Selenium 的基本使用 7-4 定位網頁資料與例外處理 7-5 與 HTML 表單進行互動 7-6 JavaScript 動態網頁擷取 ▌第 8 章 Scrapy 爬蟲框架 8-1 Scrapy 爬蟲框架的基礎 8-2 使用 Scrapy Shell 8-3 建立 Scrapy 專案的爬蟲程式 8-4 在專案使用 Item 和 Item Pipeline 8-5 輸出 Scrapy 爬取的資料 ▌第 9 章 Python × ChatGPT 網路爬蟲 9-1 Python 爬蟲程式的常見問題 9-2 Requests + BeautifulSoup 爬蟲實作案例 9-3 Selenium 爬蟲實作案例 9-4 Scrapy 爬蟲實作案例 ▌第 10 章 在 Python 使用 LLM 大型語言模型 10-1 認識生成式 AI 與 LLM 10-2 使用 OpenAI 的 ChatGPT API 10-3 使用 Google 的 Gemini API 10-4 LLM API 服務:Groq API 10-5 使用 Ollama 打造本機 LLM ▌第 11 章 Python × AI 網路爬蟲(一):非同步程式設計 + Crawl4AI 11-1 Python 非同步程式設計 11-2 Crawl4AI 的基本使用 11-3 內容篩選和客製化 Markdown 輸出 11-4 CSS 與 XPath 的 Schema 資料擷取 11-5 LLM 驅動的 AI 資料篩選與提取 11-6 深度爬取和 JavaScript 動態網頁處理 ▌第 12 章 Python × AI 網路爬蟲(二):ScrapeGraphAI 12-1 ScrapeGraphAI 簡介與環境設定 12-2 基礎 Graph:SmartScraperGraph 與 SmartScraperMultiGraph 12-3 文字轉語音 Graph:SpeechGraph 12-4 腳本生成 Graph:ScriptCreatorGraph 與 ScriptCreatorMultiGraph ▌第 13 章 視覺化 AI 工作流程:n8n 13-1 認識 n8n 與工作流程 13-2 安裝與啟動 n8n 社群版 13-3 建立你的第 1 個工作流程 13-4 建立你的第 1 個 AI 工作流程 13-5 n8n 常用節點的使用 ▌第 14 章 爬取知識庫的資料:SearXNG + Crawl4AI API 14-1 安裝、啟動與使用 Crawl4AI API 14-2 使用 SearXNG API 14-3 爬取 RAG 所需的知識庫資料 14-4 在 n8n 建立爬蟲程式和使用 SearXNG + Crawl4AI API ▌第 15 章 建立你自己的知識庫:Qdrant 向量資料庫 15-1 Embedding 模型:文字資料向量化 15-2 安裝與使用 Qdrant 向量資料庫 15-3 在 Python 程式使用 Qdrant 向量資料庫 15-4 建立你的知識庫:將文本內容存入向量資料庫 15-5 在 n8n 使用 Qdrant 向量資料庫 ▌第 16 章 打造你自己的客製化 LLM:AI Agent、MCP 與 RAG 系統 16-1 認識 AI Assistant、RAG、AI Agent 和 MCP 16-2 使用 Python 手把手打造本機 RAG 系統 16-3 n8n 的 AI Agent 與 Tool 16-4 n8n 的 AI Agent 與 MCP 16-5 在 n8n 建立 RAG 的客製化 LLM ▌附錄 A Python 開發環境:Anaconda 與 WinPython 客製化套件(電子書) A-1 建立 Anaconda 的 Python 開發環境 A-2 安裝本書客製化的 WinPython 可攜式套件 A-3 使用 Thonny 的 Python IDE
類似書籍推薦給您
【簡介】 ★解析大模型幻覺與知識陳舊的本質問題 ★建立RAG與GraphRAG的完整技術圖譜 ★掌握大語言模型的使用與實踐技巧 ★深入理解向量表示與語義檢索機制 ★精通Milvus與其他主流向量資料庫 ★逐步構建檢索增強生成系統 ★掌握知識圖譜設計與六韜法應用 ★從零實作映射式與取出式圖譜建構 ★操作JanusGraph圖資料庫與Gremlin查詢 ★解析圖模互補應用範式的邏輯結構 ★建立GraphRAG系統並落地應用實例 ★橫跨教育、金融、醫療與製造業的應用案例 本書聚焦於當前人工智慧應用中的一個核心問題:如何讓大模型變得更可信、更實用。透過系統性介紹檢索增強生成(RAG)、知識圖譜、向量資料庫與圖型計算等關鍵技術,本書深入剖析了如何將外部知識結合到大語言模型中,提升其資訊更新能力與邏輯一致性。從向量相似度與Milvus實戰,到GraphRAG的系統建構與應用案例,內容涵蓋理論、實作與部署,技術完整,實用性強。書中也包括圖模互補的應用架構與常見場景,對於希望開發具備知識增強能力的LLM應用者而言,是一本難得的實戰指南。 【目錄】 ▌第1 章 緒論:迎接大模型紀元 1.1 大模型崛起 1.2 大模型的固有特性 1.2.1 幻覺 1.2.2 知識陳舊 1.3 知識增強大模型 1.4 迎接大模型紀元 ▌第2 章 大語言模型 2.1 大模型概述 2.2 語言模型簡史 2.3 大模型為何如此強大 2.3.1 語言模型與無監督學習 2.3.2 人類回饋強化學習 2.3.3 情境學習與思維鏈 2.4 如何使用大模型 2.4.1 翻譯 2.4.2 文字摘要 2.4.3 求解數學問題 2.4.4 語言學習和考試 2.4.5 高效撰寫文章 2.4.6 自動化程式設計和輔助程式設計 2.4.7 資料分析 2.5 垂直大模型 2.5.1 什麼是垂直大模型 2.5.2 垂直大模型的特點 2.6 思考題 2.7 本章小結 ▌第3 章 向量資料庫 3.1 向量表示與嵌入 3.1.1 語言的向量表示 3.1.2 影像的向量表示 3.1.3 知識圖譜的向量表示 3.2 向量相似度 3.2.1 L2 距離 3.2.2 餘弦相似度 3.2.3 內積相似度 3.2.4 L1 距離 3.3 向量索引與檢索方法 3.3.1 最近鄰檢索和近似最近鄰檢索 3.3.2 局部敏感雜湊演算法 3.3.3 基於圖結構的HNSW 演算法 3.3.4 向量量化與乘積量化 3.4 Milvus 向量資料庫 3.4.1 Milvus 架構 3.4.2 向量索引方法 3.4.3 向量檢索方法 3.4.4 資料一致性 3.4.5 使用者認證與許可權控制 3.5 Milvus 向量資料庫實戰指南 3.5.1 安裝、配置和運行Milvus 3.5.2 連接伺服器和建立資料庫 3.5.3 資料準備 3.5.4 建立集合 3.5.5 建立索引 3.5.6 插入資料 3.5.7 載入資料 3.5.8 純量查詢 3.5.9 單向量檢索 3.5.10 混合檢索 3.6 其他主流的向量資料庫系統與工具 3.6.1 原生向量資料庫 3.6.2 資料庫的向量處理擴充 3.6.3 向量索引和檢索函數庫 3.7 思考題 3.8 本章小結 ▌第4 章 檢索增強生成 4.1 檢索增強生成概述 4.2 為什麼需要RAG 4.2.1 RAG、SFT 與LoRA 4.2.2 長上下文與RAG 4.2.3 鋰電池供應鏈管理案例 4.2.4 RAG 的特點 4.3 通用的RAG 流程 4.3.1 建立知識庫 4.3.2 知識檢索 4.3.3 大模型生成答案 4.3.4 品質評估與迭代最佳化 4.4 使用Dify 建構RAG 系統 4.4.1 Dify 概述 4.4.2 安裝Dify 4.4.3 初始化Dify 4.4.4 建立知識庫 4.4.5 簡單的RAG 應用 4.4.6 RAG 效果最佳化 4.4.7 引入Elasticsearch 4.4.8 建構RAG 系統 4.5 RAG 系統的最佳實踐 4.5.1 文本分塊 4.5.2 分層檢索 4.5.3 查詢改寫 4.5.4 檢索路由 4.6 其他主流的RAG 系統框架 4.6.1 LobeChat 4.6.2 Quivr 4.6.3 LlamaIndex 4.6.4 Open WebUI 4.7 思考題 4.8 本章小結 ▌第5 章 知識圖譜技術系統 5.1 什麼是知識圖譜 5.1.1 知識圖譜的相關概念及其定義 5.1.2 知識圖譜實例 5.1.3 大腦的聯想機制與知識圖譜的關係建模 5.2 DIKW 模型與知識圖譜 5.2.1 DIKW 模型 5.2.2 從DIKW 模型到知識圖譜 5.2.3 知識圖譜的內涵與外延 5.2.4 知識的源流與知識圖譜 5.3 知識圖譜的技術系統 5.3.1 知識圖譜模式設計與管理 5.3.2 知識圖譜建構技術 5.3.3 知識圖譜儲存技術 5.3.4 知識圖譜應用技術 5.3.5 使用者介面與介面 5.4 知識圖譜模式設計的基本原則 5.4.1 賦予一類事物合適的名字 5.4.2 建立事物間清晰的聯繫 5.4.3 明確且正式的語義表達 5.5 知識圖譜模式設計的六韜法 5.6 大模型結合六韜法設計知識圖譜模式 5.6.1 場景:對齊參與各方的認知 5.6.2 重複使用:站在巨人的肩膀上 5.6.3 事物:定義實體類型及屬性 5.6.4 聯繫:場景需求之下的普遍聯繫 5.6.5 約束:多層次的約束規範 5.6.6 評價:迭代最佳化的起點 5.7 知識圖譜模式設計的最佳實踐 5.7.1 熟知知識圖譜及其具體應用領域 5.7.2 明確邊界,切記貪多嚼不爛 5.7.3 高內聚、低耦合 5.7.4 充分利用視覺化工具 5.8 思考題 5.9 本章小結 ▌第6 章 建構知識圖譜 6.1 知識圖譜建構技術概述 6.1.1 映射式建構技術 6.1.2 取出式建構技術 6.2 取出實體和物理屬性 6.2.1 實體、物理屬性及其取出 6.2.2 用大模型取出實體和物理屬性 6.3 取出關係和關係屬性 6.3.1 實體間的關係和關係取出 6.3.2 用大模型取出關係和關係屬性 6.4 取出事件 6.4.1 事件、事件要素和事件取出 6.4.2 用大模型取出事件 6.5 多語言和跨語言 6.6 知識取出的評價指標 6.7 思考題 6.8 本章小結 ▌第7 章 圖資料庫與圖型計算 7.1 圖資料庫概述 7.1.1 頂點、邊、屬性與標籤 7.1.2 圖資料庫的儲存與查詢 7.1.3 主流的圖資料庫 7.2 JanusGraph 分散式圖資料庫 7.2.1 JanusGraph 系統架構 7.2.2 CAP 理論與JanusGraph 7.2.3 與搜尋引擎的整合 7.2.4 事務和損毀修復 7.2.5 屬性圖模式的定義 7.2.6 圖查詢語言Gremlin 7.3 JanusGraph 實戰指南 7.3.1 安裝、運行和配置JanusGraph 7.3.2 在JanusGraph 中定義屬性圖模式 7.3.3 為圖建立索引 7.3.4 索引的狀態及動作 7.3.5 查看屬性圖模式 7.3.6 為圖插入頂點、邊和屬性 7.3.7 查詢的起始與終末 7.3.8 提取圖中元素的資訊 7.3.9 過濾查詢準則 7.3.10 圖的遊走 7.3.11 分組與聚合 7.3.12 分支與迴圈 7.3.13 match、map、filter 和sideEffect 7.3.14 性能最佳化工具的使用 7.4 JanusGraph 的視覺化 7.4.1 JanusGraph-Visualizer 7.4.2 其他視覺化工具 7.5 遍歷與最短路徑演算法 7.5.1 廣度優先搜索 7.5.2 深度優先搜索 7.5.3 路徑和最短路徑 7.6 中心性 7.6.1 中心性的概念及應用 7.6.2 度中心性 7.6.3 親密中心性 7.6.4 仲介中心性 7.6.5 特徵向量中心性 7.6.6 PageRank 7.7 社區檢測 7.7.1 社區檢測概述 7.7.2 社區檢測演算法一覽 7.7.3 Leiden 演算法實戰 7.7.4 社區檢測演算法的應用場景 7.8 思考題 7.9 本章小結 ▌第8 章 圖模互補應用範式 8.1 圖模互補概述 8.2 圖模互補中的知識圖譜 8.2.1 知識的確定性和一致性 8.2.2 知識來源可追溯 8.2.3 知識的即時與及時更新 8.2.4 可解釋與可追溯的演繹推理 8.2.5 校正機制與知識的持續維護 8.2.6 基於圖機器學習與圖神經網路的機率推理 8.2.7 知識圖譜的全域視野 8.3 圖模互補中的大模型 8.3.1 從任務描述到任務需求的理解 8.3.2 利用知識圖譜檢索、整合和推理結果 8.3.3 高品質的自然語言生成 8.3.4 結合多源知識生成創新性內容 8.3.5 機率推理能力與通用性 8.3.6 知識取出 8.3.7 知識補全 8.3.8 跨語言知識對齊 8.4 圖模互補應用範式的特點 8.5 大模型對知識圖譜的增強 8.5.1 增強知識圖譜的建構 8.5.2 增強知識圖譜的補全 8.5.3 增強對知識的描述 8.5.4 增強知識圖譜的推理 8.5.5 增強知識圖譜的查詢 8.6 知識圖譜對大模型的增強 8.6.1 減少大模型的幻覺 8.6.2 內嵌知識圖譜的大模型 8.6.3 提升大模型的推理能力 8.6.4 知識圖譜增強生成 8.6.5 提升大模型生成內容的可解釋性 8.6.6 應用案例 8.7 基於圖模互補應用範式的智慧系統的典型流程 8.8 思考題 8.9 本章小結 ▌第9 章 知識圖譜增強生成與GraphRAG 9.1 知識圖譜增強生成的原理 9.1.1 深度推理和即時推理 9.1.2 全域視野與深度洞察 9.1.3 知識整合 9.2 知識圖譜增強生成的通用框架 9.3 為知識圖譜建立索引 9.3.1 圖索引 9.3.2 文字索引 9.3.3 向量索引 9.3.4 混合索引 9.4 從知識圖譜中檢索知識 9.4.1 檢索方法 9.4.2 檢索過程 9.4.3 知識粒度 9.5 知識表示形式 9.5.1 鄰接表和邊表 9.5.2 自然語言文字 9.5.3 程式語言 9.5.4 語法樹 9.5.5 頂點序列 9.6 GraphRAG 概述 9.7 GraphRAG 實戰 9.7.1 安裝GraphRAG 和資料資源準備 9.7.2 轉為實體的關係屬性的DataFrame 9.7.3 計算實體、關係的排序值 9.7.4 為實體生成描述文字及向量化 9.7.5 為關係生成描述文字及向量化 9.7.6 社區分類和社區描述文字 9.7.7 呼叫API 生成GraphRAG 可用資料 9.7.8 大模型的初始化 9.7.9 局部搜索與全域搜索 9.8 思考題 9.9 本章小結 ▌第10 章 知識增強大模型應用 10.1 應用框架 10.2 知識來源 10.2.1 非結構化知識 10.2.2 結構化資料庫 10.2.3 知識圖譜 10.3 知識營運 10.3.1 知識的品質 10.3.2 資料管理流程 10.3.3 法律符合規範、隱私與智慧財產權 10.3.4 可觀測性工具 10.4 應用指南 10.4.1 應用價值 10.4.2 進取者:全面推進導向的策略 10.4.3 保守者:試點驅動導向的策略 10.4.4 選型的「四三二一」原則 10.4.5 最佳實踐要點 10.5 行業應用案例 10.5.1 文件幫手 10.5.2 教育領域應用場景 10.5.3 智慧金融應用場景 10.5.4 智慧醫療應用場景 10.5.5 智慧製造應用場景 10.6 思考題 10.7 本章小結 ▌參考文獻
類似書籍推薦給您
【簡介】 >資 料 不 外 流,模 型 任 你 遊 No data out, all models in play 本書是專為考量資料隱私問題但又想開發結合大型語言模型 LLM 應用者所設計,不倚賴大型 AI 公司的雲端服務,利用 Ollama 系統建置本機 LLM 推論引擎,既保護隱私又節省串接大型 AI 公司 API 服務的費用。更重要的是,可視需要變換模型,不會被大型 AI 公司綁架,完全彈性自主。本書還具備以下特色: LangChain 應用程式開發框架 除了簡化程式撰寫,更可跨模型,即使要改用大型 AI 公司的模型也不需要重新撰寫程式。LangChain 框架提供有外部函式(工具)的抽象層,可立即將既有的函式變成模型可用的工具,加上 LangChain 社群的豐富工具,簡直就像是 LLM 軍火庫,讓模型不只能說一口好話,還能付諸行動,可以達成像是執行 SQL 語句查詢資料庫等各種功能。 RAG 應用開發 對於需要參考私有資料的應用情境,LangChain 也提供有完整的 RAG 支援,不但可讀取 PDF/網頁/JSON 等各種格式資料來源,也提供多種文檔切割方式與 FAISS 等嵌入式資料庫儲存/檢索機制,瞬間就能幫模型補足專屬知識,協助解答問題。 AI Agent 代理應用 LangChain 設計有現成的 AI Agent 框架,搭配剛剛提到的各式工具與 RAG 機制,即可設計可自主思考,規劃行動並實際完成任務的 ReAct Agent。 獨家 LangGraph 主題 考量到一般 Agent 帶來的不確定性,LangChain 生態系加入了 LangGraph 框架,可以設計具備穩定流程的 Agent 代理,避免 Agent 陷入無窮迴圈無法完成任務的窘境。 LangSmith 評估系統 補上 Agent 代理應用的最後一塊拼圖,透過 LangSmith 服務檢視 Agent 執行過程,可評估執行效能、prompt 成效、模型規劃行動優劣,不再只用感覺評斷。 本書特色 自由彈性的本地端 Ollama 模型,節省 API 串接費用 出張嘴用自然語言替代 SQL 語句查詢資料庫 從 PDF/網頁/JSON 檔擷取資料補充模型知識打造 RAG 應用 善用 prompt 技巧避免模型產生幻覺 設計有記憶、可自主決策規劃並執行任務的 AI Agent 代理 獨家 LangGraph 教學,設計穩定流程的 AI Agent 利用 LangSmith 監測 AI Agent 執行流程 【目錄】 第 1 章 本地化低硬體門檻的 LLM 應用開發 1-1 解決高昂的 API 成本與硬體需求 API 成本的負擔 硬體需求的挑戰 免費與本地化運算的崛起 1-2 對雲端的依賴與資料安全性 雲端依賴的挑戰 資料安全性的考量 在本地運行模型以減少對雲端的倚賴 1-3 為什麼選擇免費的本地化運算 成本效益 自主性與可客製化 技術可行性 1-4 LangChain、Ollama 和 LangGraph 的特色與優勢 LangChain Ollama LangGraph 最低硬體需求與資源建議 第 2 章 環境建置與模型量化技術 2-1 低硬體需求的環境準備與 Ollama 模型選擇 本書撰寫時使用之硬體環境 本書推薦之大型語言模型 2-2 模型選擇指南與量化技術解析 模型的命名慣例 模型挑選方式 Ollama 模型尋找教學 2-3 如何在本地環境中運行 LangChain 和 Ollama 使用 Docker 快速部署 手動配置本地環境 (適合不方便使用 Docker 的讀者) Colab 雲端部署 Ollama 版本相容性提醒 本書實作範例採用的量化模型說明 程式碼中更換模型的方法 第 3 章 LangChain 基礎入門 3-1 認識 LangChain 生態系統的架構與組成 3-2 認識 LangChain 底層模組 Base Packages (基礎套件群) Integrations (整合模組群) 3-3 可執行單元 (Runnables) 最核心的 Runnable 元件:LLM 生成 提示模板 (Prompt Templates) RunnableLambda 3-4 表達式語言 LCEL (LangChain Expression Language) RunnableSequence RunnableParallel 3-5 回呼 (Callbacks) 回呼事件 (Callback Events) 回呼處理器 (Callback Handlers) 回呼添加方式 (Passing Callbacks) StreamingStdOutCallbackHandler 3-6 避免數字幻覺:用 Prompt 確保 LLM 只根據提供的數據回答 LLM 會如何產生數字幻覺? 提示詞 (Prompt):避免 LLM 生成錯誤數值 temperature (溫度) 結合 Prompt 與 LLM,驗證是否能有效抑制數字幻覺 3-7 建立多國語言翻譯助手應用 步驟 1:定義提示模版 (Prompt Template) 步驟 2:接收用戶輸入 步驟 3:建立流程鏈並在執行時傳入回呼 執行結果展示 3-8 建立搜尋引擎最佳化 SEO 標題產生器 步驟 1:定義提示模版 (Prompt Templates) 步驟 2:接收用戶輸入 步驟 3:建立流程鏈 步驟 4:使用 .stream() 實現串流輸出 執行結果展示 第 4 章 SQL:結合資料庫打造自然語言查詢系統 4-1 如何透過 LLM 達到 SQL 查詢自動化 認識 SQLite 資料庫 自然語言轉 SQL 查詢 4-2 建立 SQL 人資小幫手問答機器人 步驟 1:初始化模型與連接資料庫 步驟 2:獲取資料庫結構 步驟 3:執行 SQL 查詢的函式 步驟 4:SQL 查詢語句生成 (自然語言輸入 → SQL 語句) 步驟 5:執行 SQL 查詢,並將查詢結果轉換為自然語言回答 步驟 6:主程式 執行結果展示 4-3 跨資料表 SQL 查詢:讓 LLM 理解關聯資料並生成查詢語句 程式碼修改說明 執行結果展示 第 5 章 向量資料庫:基礎 RAG 與語義相似性檢索 5-1 認識檢索增強生成 (RAG) RAG 使用檢索系統帶來的優勢 幫 LLM 擴展知識並減少幻覺 (Hallucination) 5-2 嵌入向量與語義相似性檢索流程 嵌入向量 (Embedding Vector) 語義相似性檢索 (Semantic Similarity Retrieval) 5-3 FAISS 向量資料庫與相似度計算方式 FAISS 的記憶體特性 FAISS 索引類型概覽 相似度計算方式介紹 5-4 OllamaEmbeddings 嵌入模型 在 Ollama 尋找、更換與下載嵌入模型的方法 正規化測試 嵌入模型測試與相似性檢索 5-5 設定相似度閾值:控制語義檢索範圍 L2 距離 (歐幾里得距離, Euclidean Distance) 使用 MAX_INNER_PRODUCT 實現餘弦相似度 (Cosine Similarity) 5-6 將 FAISS 向量資料庫本地化:實現持久化儲存與載入 向量資料庫本地化流程 檢索本地向量資料庫流程 建立與檢索本地 FAISS 向量資料庫 整合 LLM 來回答問題 第 6 章 進階 RAG:記憶、數據向量化、檔案載入器與多資料來源 6-1 認識檢索、生成與數據向量化流程 RAG 詳細運作流程 RAG 數據向量化流程 6-2 建立 RAG 向量化檢索泛用聊天機器人 步驟 1:初始化 LLM 步驟 2:儲存向量並初始化檢索器 步驟 3:建立提示模板 步驟 4:建立檢索鏈與檔案處理鏈 步驟 5:啟動對話系統 執行結果展示 常見觀念誤區整理 6-3 建立相似度閾值機制:本地 RAG 球員戰績問答機器人 步驟 1:新增 SIMILARITY_THRESHOLD 與準備數據 步驟 2:檢查數據是否需要更新 步驟 3:建立 FAISS 向量資料庫 步驟 4:建立檢索與問答系統 執行結果展示 6-4 文本分割 (Chunking) 短片段 vs. 長片段 分割時需要考量的因素 常見的文本分割策略 文本分割的實I建議 6-5 檔案載入器 (Document Loaders) LangChain 的檔案載入器 檔案載入器用法介紹 6-6 建立 PDF、網頁爬蟲、JSON 檢索問答機器人 PDF 檢索問答機器人 執行結果展示 網頁爬蟲檢索問答機器人 執行結果展示 JSON 檢索問答機器人 執行結果展示 6-7 LangChain 記憶 (Memory) LangChain 記憶類型介紹 LangChain 記憶執行流程 6-8 建立有記憶能力的檢索問答機器人 保留完整對話的 ConversationBufferMemory 執行結果展示 保留對話摘要的 ConversationSummaryMemory 執行結果展示 第 7 章 Agent × Memory:讓模型自己選擇工具並擁有對話記憶 7-1 認識代理 (Agent) AgentExecutor (代理執行器) AgentType (代理類型) initialize_agent (初始化代理) 7-2 工具 (Tool) 使用 LangChain 提供的搜尋引擎查詢工具 (Tool) 建立函式當作自訂工具 (Tool) 7-3 建立有記憶的泛用電腦助手 Agent:密碼生成 × 網頁爬蟲 × 搜尋引擎 步驟 1:初始化 Ollama LLM 步驟 2:建立密碼生成函式當工具 步驟 3:建立網頁爬蟲函式當工具 步驟 4:加入搜尋引擎查詢工具 (DuckDuckGoSearchRun) 步驟 5:組成工具清單 步驟 6:設定 Prompt 步驟 7:加入記憶機制 (Memory) 步驟 8:建立代理 (Agent) 步驟 9:建立主程式 執行結果展示 第 8 章 LangGraph:用狀態、節點、邊建構圖結構流程 8-1 認識 LangGraph 圖結構流程控制原理 LangChain AgentExecutor 與 LangGraph 的差異 圖結構 (Graph) 節點與邊 (Nodes and Edges) 8-2 LangGraph 狀態與其更新機制 (State + Reducer) 狀態 (State) Reducer:控制狀態的更新機制 8-3 建立圖結構條件邏輯 Agent:日期查詢 × 數學計算 步驟 1:初始化模型 步驟 2:定義狀態類別 步驟 3:定義節點函式 步驟 4:建構圖 步驟 5:添加節點與邊 步驟 6:編譯圖與主程式 執行結果展示 8-4 建立圖結構網路查詢助手 Agent:維基百科 × 搜尋引擎 步驟 1:定義狀態類別 步驟 2:初始化工具 步驟 3:定義節點函式 步驟 4:構建圖 步驟 5:執行主程式 執行結果展示 8-5 LangGraph 記憶:Checkpointer Checkpointer (檢查點保存器) Thread (執行緒) 與 Checkpoint (檢查點) 檢查點的獲取:get_state 與 get_state_history 8-6 建立有記憶的圖結構泛用聊天機器人 步驟 1:定義狀態類別 步驟 2:定義節點函式 步驟 3:構建圖 步驟 4:建立 Checkpointer 和初始化狀態 步驟 5:執行主程式 執行結果展示 第 9 章 LangSmith:視覺化追蹤與分析 LLM 工作流的每一步 9-1 LangSmith 核心功能與API 金鑰設定 LangSmith 使用教學 探索 LangSmith 的核心功能 9-2 追蹤 SQL、RAG、Agent、Memory 與 LangGraph 等執行流程 基礎執行流程 SQL 執行流程 RAG 執行流程 Agent × Memory 執行流程 LangGraph 執行流程
類似書籍推薦給您
【簡介】 跟 ChatGPT 對話,害怕隱私資料被竊取嗎? 擔心串接 API 的額度爆表,花費太高嗎? 在本地端運行 AI 模型也許是你的好選擇! ▌ 精通 Ollama 全技巧,客製化模型自由打造 ▌ ▌ 資料隱私保密不外洩,最強草泥馬養成攻略 ▌ 本書將手把手帶你將 LLM 裝進自己的電腦裡,詳解 Ollama 本地端模型部署的完整流程,深入剖析各種不同功能的預訓練模型和架構。並搭配對話式介面、Ollama API、程式設計,甚至是對模型進行微調訓練,開啟無限的客製化可能,打造屬於你的離線 AI 助理! ◆ 【本機設備要求全面解析】:想在本地端運行大型語言模型卻不知從何開始?不清楚自己的電腦能跑得動什麼規模的模型嗎?本書將帶您深入理解模型格式、量化技術、容量大小與運行效率之間的眉眉角角,協助你找到最適合的硬體設備,避免踩坑,一次到位! ◆ 【熱門預訓練模型測試比較】:GPT-OSS、Gemma3、Llama3、Phi-4、Mistral、DeepSeek、Qwen3……到底哪個模型最適合你?本書透過多樣化的資料集,針對 「知識性問答與繁體中文理解」、「多語言翻譯能力」、「數學能力」、「邏輯推理能力」、「程式碼生成」 等五大面向進行實測,並整理各模型的優劣與性能表現,幫助你快速找到最符合需求的語言模型。 ◆ 【微調訓練的完整流程示範】:想讓 AI 變得更懂你?不知道如何建構訓練資料集?本書將從資料集格式開始介紹、一步步到自動生成 QA 問答資料集、LoRA 微調訓練,並詳解超參數的用途和調整方向,讓你能最佳化訓練效果,打造出專屬的產品客服機器人。 ◆ 【Vibe Coding × MCP 實戰工作流】:AI 不只會聊天,它還能幫你寫程式、操作各種應用程式!讓我們把 Ollama 結合 Vibe Coding 與 MCP,從程式碼自動生成、補全與除錯,到串接外部工具和即時資料,讓大型語言模型突破「只能說、無法做」的限制。 ◆ 【Bouns 超值加贈】:服務專區搭配豐富學習資源,不會寫程式也能一鍵運行,搞定模型轉檔、量化或微調的方方面面。 本書特色 本地端模型的終極解答,打造私人 LLM 工作流! ● 從零開始安裝 Ollama,熟悉命令列操作、客製化 Modelfile 以及進階系統設定。 ● 模型架構、格式、量化技術和其他壓縮方式一次搞懂,不再煩惱什麼設備才能跑。 ● 完整介紹 GPT-OSS、Gemma3、Phi-4 等熱門模型,並針對五大主題進行測試比較,讓你能依照需求選擇最適合的模型。 ● 聯發科的 Breeze2、國科會的 TAIDE、台語 Taigi 模型,這些本土模型怎麼用?透過 Safetensors 自行轉檔、量化成不同格式,讓 Ollama 能完美運行各種五花八門的模型。 ● 認識 Ollama 的各種對話介面,詳解 OpenWeb UI 使用方法,解決命令列苦手的操作難題。 ● 透過 Ollama API 和 Python 套件輕鬆存取 LLM,從基本的對話流程、結構化輸出、圖像辨識、函式呼叫,到進階的搭建向量資料庫與文件問答機器人都有實作示範。 ● 微調訓練一次到位,將 「產品使用手冊」 這種的敘述性文件轉換成問答資料集,並進行完整的 LoRA 訓練,將一般模型變成領域專家。 【目錄】 ▌第 1 章 Ollama 好吃嗎?不能吃,但是很好玩! 1.1 本地部署框架簡介 LM Studio GPT4All Text Generation Web UI LocalAI 1.2 為什麼選擇 Ollama? Ollama 的系統架構 透過 Modelfile 自定義模型 擁有 REST API 的強大整合能力 1.3 從零開始安裝 Ollama 安裝 Ollama 關閉 Ollama 更新 Ollama 1.4 Ollama 的對話介面 下載第一個模型並開始交談 1.5 模型儲存位置管理 Ollama 模型的儲存位置 更改模型儲存位置 1.6 ChatGPT 不好嗎?為什麼要在本地端跑 AI 模型 自己部署 AI 模型的好處 本地部署 vs 使用線上 AI 服務 ▌第 2 章 Ollama 的命令列操作 2.1 Hello LLM!與模型互動的基本操作 查詢模型資訊 跟 LLM 打個招呼吧! 多行輸入 清除對話紀錄 中斷模型輸出 儲存與延續先前對話 關閉對話 2.2 Ollama 的各種命令 下載模型 模型列表 運行模型 顯示運行中的模型 停止運行模型 刪除模型 模型資訊 2.3 透過 Modelfile 客製化模型 Modelfile 指令 建立客製化模型 查看模型的 Modelfile 資訊 2.4 推送模型到自己的帳戶 取得金鑰並建立 Ollama 帳戶 複製模型 推送模型到官方 ▌第 3 章 Ollama 的進階系統設定 3.1 Ollama 的環境變數 可使用的環境變數 3.2 透過暫時的環境變數來啟動 Ollama 3.3 設定系統環境變數 Windows 的環境變數 macOS 的環境變數 3.4 Ollama 的 GPU 設定 GPU 加速 確認是否有用到 GPU 加速 ▌第 4 章 模型的設備要求以及速度測試 4.1 模型格式簡介 浮點數精度 FP 量化 Quantization 其他壓縮方式 4.2 Ollama 是如何載入語言模型? 運行狀況測試 Mac 的統一記憶體架構優勢 4.3 建議設備要求 設備建議 4.4 模型速度測試 ▌第 5 章 各種預訓練模型介紹 5.1 具不同功能的模型 Embedding 類模型 Vision 類模型 Tools 類模型 Thinking 類模型 5.2 各有特色的預訓練模型 Gemma3 Llama3 Phi-4 Mistral DeepSeek-R1 Qwen3 GPT-OSS 5.3 模型功能測試比較 測試主題 1:知識性問答與繁體中文理解 測試主題 2:多語言翻譯能力 測試主題 3:數學能力 測試主題 4:邏輯推理能力 測試主題 5:程式碼生成 ▌第 6 章 從 Hugging Face 下載模型、轉檔以及量化 6.1 直接從 Hugging Face 下載 GGUF 檔案 6.2 自行下載 safetensors 檔案 申請授權以及 Read Token 安裝 llama.cpp 套件並輸入 Token 下載 safetensors 模型 6.3 轉換模型格式為 GGUF 6.4 模型量化 透過 llama-quantize 進行量化 撰寫 Modelfile 來創建新模型 ▌第 7 章 Ollama 視覺化對話介面 7.1 Ollama UI 對話介面推薦 應用程式:AnythingLLM、Chatbox、Msty 擴充功能:Page Assist 網頁介面:Open WebUI 7.2 下載 Open WebUI 安裝 Open WebUI 啟動 Open WebUI 7.3 Open WebUI 使用教學 介面設定 下載模型 開始對話操作 網頁搜尋功能 串接 ChatGPT 串接 Gemini ▌第 8 章 透過 Ollama API 和官方套件輕鬆存取 LLM & 打造 RAG 架構 8.1 使用 Ollama REST API 與模型溝通 透過 curl 安裝和啟動 Ollama 使用 curl 測試 API 8.2 在 Python 中呼叫 Ollama API 使用 requests 發送對話請求 將模型回覆轉換為 DataFrame 表格 8.3 使用 Ollama 套件 單次對話回覆 模型超參數設置 接續聊天機器人 圖片辨識 函式呼叫 8.4 建構 RAG 架構 加入搜尋功能 建立向量資料庫 文件問答機器人 統整總結機器人 ▌第 9 章 Fine-Tuning 微調模型 — 打造你的產品客服機器人 9.1 什麼是微調模型? 9.2 準備訓練資料集 訓練資料格式 自動生成 QA 問答資料集 9.3 模型微調訓練 透過 Unsloth 微調模型 程式碼說明以及微調設定 ▌第 10 章 Ollama 也能 Vibe Coding 10.1 在 VS Code 中調用 Ollama 挑選適合的模型 安裝 Continue 並配置模型 在 VS Code 中啟用虛擬環境 10.2 用 AI 來開發一個網頁小遊戲吧! 程式碼生成與補全 除錯與程式優化 生成註解與文件 使用較小模型時的下指令技巧 管理上下文窗口與對話歷程 延伸學習:大型專案的好幫手 Roo Code 10.3 在使用 LLM 進行 Coding 時, 你需要注意什麼? ▌第 11 章 哎呀,Ollama 得了 MCP! 11.1 MCP 是什麼? MCP 的架構 11.2 馬上讓 Ollama 跟 MCP 相遇吧! Playwright MCP Server - 幫你直接操作瀏覽器的神隊友 Context7 MCP Server -幫你查詢官方文件的專業顧問 11.3 管理自動執行權限與排除錯誤 管理 MCP 執行的核准權限 排除錯誤