為您推薦
類似書籍推薦給您
使用Python搜刮網路資料的12堂實習課 ISBN13:9789864345212 出版社:博碩文化 作者:何敏煌;葉柏漢;顏凰竹 裝訂/頁數:平裝/352頁 規格:23cm*17cm*1.8cm (高/寬/厚) 出版日:2020/10/07 中國圖書分類:電腦程式語言 內容簡介 網路爬蟲是AI範疇中, 取得資料與儲存的一項重要技能, 而Python是爬蟲過程中相當好用的工具 全書以簡單的Python程式為主軸,讓您可以輕鬆學會如何利用Python的模組擷取公開的網站資料、網頁內容,並建立自己的自動化爬蟲程式,增進您在網路上搜刮資料的能力與效率,是已具有Python基礎的學習者最佳的爬蟲入門工具書。 在本書中我們將學會使用以下的Python開發環境、模組及框架: Thonny Jupyter Notebook requests json csv re xlrd BeautifulSoup Selenium sqlite3 mysql pymongo pyinstaller Scrapy pyautogui 並學習如何擷取以下的幾種網站: ☑大學網站的焦點新聞頁面 ☑政府公開資訊網站 ☑即時新聞網站標題、內容、圖片 ☑汽車網站之車款資訊及二手車在庫資訊 ☑銀行網站之匯率資料擷取 ☑中央氣象局之氣溫觀測資訊 ☑Ptt八卦版年齡宣告按鈕及Ptt討論區貼文擷取 ☑網路書店暢銷書排行榜 ☑股市網站財經新聞 ☑線上購物網站產品資訊 ☑名言佳句範例網站 ☑台灣證券交易所股票資訊 ☑Dcard梗圖下載 ☑台灣運彩官網資訊 ☑Mobile01討論區貼文 本書特色 ✪了解網站、網頁、瀏覽器間的關係,認識爬蟲程式 ✪了解網路上格式HTML/CSV/JSON/XLSX ✪使用requests模組取得網路上的資料 ✪擷取及解析JSON及CSV格式資料檔案 ✪利用Regular Expression及BeautifulSoup模組剖析網頁資料 ✪活用Chrome開發人員工具找出網頁中特定資料的CSS選擇器內容 ✪使用Selenium自動化工具擷取動態網頁 ✪把擷取的資料儲存到MySQL及MongoDB資料庫 ✪利用排程器做到自動化資料擷取及通知的功能 ✪透過Scrapy框架建立爬蟲程式,大量搜刮資料 目錄 第1堂 認識網站與網路爬蟲原理 1-1 什麼是爬蟲程式 1-2 瀏覽器與網頁伺服器 1-3 從網站下載資料的概念與原理 1-4 本書程式執行環境的建立 1-5 習題 第2堂 快速了解網路資料格式 2-1 HTML/CSS 2-2 CSV 2-3 JSON 2-4 XLS/XLSX 2-5 習題 第3堂 擷取網頁資料基礎 3-1 requests模組介紹與使用 3-2 資料檔案存取 3-3 網路公開資訊CSV格式讀取實例 3-4 網路公開資訊JSON格式讀取實例 3-5 習題 第4堂 HTML網頁剖析基礎 4-1 使用Regular Expression剖析網頁 4-2 使用BeautifulSoup剖析網頁 4-3 新聞網站之擷取與儲存 4-4 網頁圖形檔之擷取與儲存 4-5 習題 第5堂 HTML網頁剖析實務 5-1 Jupyter Notebook安裝與使用 5-2 Chrome開發人員工具 5-3 活用表單查詢存取資料 5-4 新聞網站內容之擷取與儲存 5-5 習題 第6堂 CSS選擇器基礎與活用 6-1 CSS 選擇器介紹 6-2 Selenium安裝與使用 6-3 動態網頁資料擷取 6-4 表單登入網頁擷取 6-5 習題 第7堂 MySQL資料庫儲存 7-1 資料庫與SQL 7-2 SQLite資料庫簡介與操作 7-3 MySQL資料庫系統安裝 7-4 MySQL資料庫操作實例 7-5 習題 第8堂 MongoDB資料庫操作 8-1 MongoDB安裝與操作 8-2 使用Python儲存資料 8-3 使用Python讀取資料 8-4 MongoDB資料庫應用實例 8-5 習題 第9堂 自動化資料擷取 9-1 自動化資料擷取程式 9-2 電子郵件通知實作 9-3 建立可執行檔 9-4 作業系統排程設定 9-5 習題 第10堂 Scrapy初階 10-1 Scrapy簡介與安裝 10-2 Scrapy Shell測試與練習 10-3 Scrapy專案檔案的編輯與執行 10-4 爬取網頁內容並儲存到資料庫 10-5 習題 第11堂 Scrapy 爬蟲實務 11-1 學校網頁資料爬取實例 11-2 新聞網站資料爬取實例 11-3 PTT討論區爬取實例 11-4 習題 第12堂 爬蟲實戰技巧及實例 12-1 活用pyautogui模組和網頁互動 12-2 Dcard梗圖爬取實例 12-3 下載無限捲動網頁內容 12-4 MOBILE01討論區爬取實例 12-5 車商二手車資料下載實例 12-6 習題 附錄 反爬蟲與反反爬蟲的戰爭 a-1 網站的robotstxt a-2 User-Agent a-3 頻繁的request請求 a-4 JavaScript程式動態產生的網頁 a-5 我不是機器人驗證 a-6 CAPTCHA和reCaptcha驗證碼 a-7 人機合作爬蟲程式解決驗證碼問題
類似書籍推薦給您
【簡介】 身處 LLM 時代的必備技能 AI 爬蟲與資料檢索的全本機工作流 你還在用傳統的方法爬取網路資料嗎? 還在手動分析 HTML 網頁結構、逐一定位網頁元素、再手刻爬蟲程式嗎? 身處 AI 世代,是時候該學習更聰明、更高效的資料收集方法, 讓你坐在電腦前,喝著咖啡、悠閒地看著 AI 為你自動爬取網路資料。 在 AI 飆速發展的今天,傳統網路爬蟲技術正迎來全新的變革。 過去,Python 爬蟲程式的開發者必須自行剖析 HTML 網頁結構,撰寫繁瑣複雜的資料擷取規則與步驟;如今,隨著 LLM 的普及,AI 已能協助我們理解 HTML 網頁結構、定位網頁資料,甚至能夠自動化建立整個爬取流程,大幅提升開發效率。 本書從 HTML 結構解析入門,循序講解 BeautifulSoup + CSS 選擇器、lxml + XPath 表達式、正規表達式等核心技術,再深入 Selenium 模擬瀏覽器互動及 Scrapy 爬蟲框架的專業應用,帶領讀者全面掌握靜態與動態網頁擷取技術。更進一步結合 Playwright 自動化瀏覽器、以及 AI 驅動的爬蟲框架 Crawl4AI 和 ScrapeGraphAI,讓 LLM 成為理解與提取網頁資料的主力。 不只如此,本書採用 n8n × Ollama 全本機架構,無需 API Key、無需 Docker,即可整合 SearXNG 搜尋引擎、Crawl4AI API 資料爬取、Qdrant 向量資料庫與 RAG 知識檢索生成,最終打造出 MCP + AI Agent 自動化流程 ⸺ 從搜尋、爬取到資料處理與知識生成一手包辦! 本書特色 用 AI 分析 HTML 結構建立 Python 網路爬蟲 ▸全面掌握靜態與動態 HTML 網頁擷取技術,CSS Selector、XPath 一次上手 ▸實戰演練 BeautifulSoup、Selenium、Scrapy 經典 Python 爬蟲框架 Python × LLM 建立 AI 網路爬蟲 ▸整合 OpenAI、Gemini、Groq、Ollama 等多種 LLM,打造智慧爬蟲系統 ▸運用 AI 驅動的爬蟲技術 Crawl4AI 與 ScrapeGraphAI,自動理解並提取網頁內容 ▸結合非同步程式設計,提升資料抓取效率與彈性 整合 Python × AI 網路爬蟲的 AI 工作流程:n8n ▸以視覺化介面建立自動化流程,輕鬆整合搜尋、爬取與資料處理 ▸結合 Qdrant 向量資料庫 × RAG 技術,打造個人化知識檢索系統 ▸構建全本機 AI Agent 工作流,實現從資料擷取到生成的自動化流程 【目錄】 ▌第 1 章 HTML、JSON 與網路爬蟲的基礎 1-1 網路爬蟲的基礎 1-2 網路爬蟲的相關技術 1-3 HTML 標籤語法與結構 1-4 CSV 與 JSON 1-5 Python × AI 網路爬蟲的相關函式庫 ▌第 2 章 從網路取得資料 2-1 認識 HTTP 標頭與 httpbin.org 服務 2-2 使用 Requests 送出 HTTP 請求 2-3 取得 HTTP 回應內容 2-4 送出進階的 HTTP 請求 2-5 錯誤 / 例外處理與檔案存取 ▌第 3 章 擷取靜態 HTML 網頁資料 3-1 在 HTML 網頁定位目標資料 3-2 使用 BeautifulSoup 剖析 HTML 網頁 3-3 分析靜態 HTML 網頁 3-4 使用 find() 函式搜尋 HTML 網頁 3-5 使用正規表達式搜尋 HTML 網頁 ▌第 4 章 使用 CSS 選擇器爬取資料 4-1 認識 CSS 層級式樣式表 4-2 使用 CSS 選擇器定位 HTML 標籤 4-3 Google Chrome 開發人員工具 4-4 ChatGPT 應用:找出定位 HTML 標籤的 CSS 選擇器 4-5 在 BeautifulSoup 使用 CSS 選擇器 ▌第 5 章 走訪 HTML 網頁取出資料與資料儲存 5-1 如何走訪 HTML 網頁 5-2 走訪 HTML 網頁取得資料 5-3 修改 HTML 網頁來爬取資料 5-4 資料清理 5-5 將取得資料儲存成 CSV 和 JSON 檔案 5-6 從網路下載圖檔 ▌第 6 章 使用 XPath 表達式與 lxml 套件建立爬蟲程式 6-1 XPath 與 lxml 套件的基礎 6-2 使用 Requests 和 lxml 套件 6-3 XPath 資料模型 6-4 XPath 基本語法 6-5 XPath 運算子與函式 6-6 ChatGPT 應用:學習 XPath 表達式查詢 HTML 標籤 ▌第 7 章 Selenium 表單互動與動態網頁擷取 7-1 認識動態網頁 7-2 安裝 Selenium 7-3 Selenium 的基本使用 7-4 定位網頁資料與例外處理 7-5 與 HTML 表單進行互動 7-6 JavaScript 動態網頁擷取 ▌第 8 章 Scrapy 爬蟲框架 8-1 Scrapy 爬蟲框架的基礎 8-2 使用 Scrapy Shell 8-3 建立 Scrapy 專案的爬蟲程式 8-4 在專案使用 Item 和 Item Pipeline 8-5 輸出 Scrapy 爬取的資料 ▌第 9 章 Python × ChatGPT 網路爬蟲 9-1 Python 爬蟲程式的常見問題 9-2 Requests + BeautifulSoup 爬蟲實作案例 9-3 Selenium 爬蟲實作案例 9-4 Scrapy 爬蟲實作案例 ▌第 10 章 在 Python 使用 LLM 大型語言模型 10-1 認識生成式 AI 與 LLM 10-2 使用 OpenAI 的 ChatGPT API 10-3 使用 Google 的 Gemini API 10-4 LLM API 服務:Groq API 10-5 使用 Ollama 打造本機 LLM ▌第 11 章 Python × AI 網路爬蟲(一):非同步程式設計 + Crawl4AI 11-1 Python 非同步程式設計 11-2 Crawl4AI 的基本使用 11-3 內容篩選和客製化 Markdown 輸出 11-4 CSS 與 XPath 的 Schema 資料擷取 11-5 LLM 驅動的 AI 資料篩選與提取 11-6 深度爬取和 JavaScript 動態網頁處理 ▌第 12 章 Python × AI 網路爬蟲(二):ScrapeGraphAI 12-1 ScrapeGraphAI 簡介與環境設定 12-2 基礎 Graph:SmartScraperGraph 與 SmartScraperMultiGraph 12-3 文字轉語音 Graph:SpeechGraph 12-4 腳本生成 Graph:ScriptCreatorGraph 與 ScriptCreatorMultiGraph ▌第 13 章 視覺化 AI 工作流程:n8n 13-1 認識 n8n 與工作流程 13-2 安裝與啟動 n8n 社群版 13-3 建立你的第 1 個工作流程 13-4 建立你的第 1 個 AI 工作流程 13-5 n8n 常用節點的使用 ▌第 14 章 爬取知識庫的資料:SearXNG + Crawl4AI API 14-1 安裝、啟動與使用 Crawl4AI API 14-2 使用 SearXNG API 14-3 爬取 RAG 所需的知識庫資料 14-4 在 n8n 建立爬蟲程式和使用 SearXNG + Crawl4AI API ▌第 15 章 建立你自己的知識庫:Qdrant 向量資料庫 15-1 Embedding 模型:文字資料向量化 15-2 安裝與使用 Qdrant 向量資料庫 15-3 在 Python 程式使用 Qdrant 向量資料庫 15-4 建立你的知識庫:將文本內容存入向量資料庫 15-5 在 n8n 使用 Qdrant 向量資料庫 ▌第 16 章 打造你自己的客製化 LLM:AI Agent、MCP 與 RAG 系統 16-1 認識 AI Assistant、RAG、AI Agent 和 MCP 16-2 使用 Python 手把手打造本機 RAG 系統 16-3 n8n 的 AI Agent 與 Tool 16-4 n8n 的 AI Agent 與 MCP 16-5 在 n8n 建立 RAG 的客製化 LLM ▌附錄 A Python 開發環境:Anaconda 與 WinPython 客製化套件(電子書) A-1 建立 Anaconda 的 Python 開發環境 A-2 安裝本書客製化的 WinPython 可攜式套件 A-3 使用 Thonny 的 Python IDE
資訊
工程
數學與統計學
機率與統計
自然科學
健康科學
地球與環境
建築、設計與藝術
人文與社會科學
教育
語言學習與考試
法律
會計與財務
大眾傳播
觀光與休閒餐旅
考試用書
研究方法
商業與管理
經濟學
心理學
生活
生活風格商品
參考書/測驗卷/輔材