書名: 電腦視覺機器學習實務|建立端到端的影像機器學習
作者: 楊新章
ISBN: 9786263242074
出版社: O’REILLY
書籍開數、尺寸: 18.5x23x2.26
頁數: 504
內文印刷顏色: 單色
#資訊
#AI人工智慧與機器學習
#軟體工程與專案管理
定價: 780
售價: 663
庫存: 庫存: 1
LINE US! 詢問這本書 團購優惠、書籍資訊 等

付款方式: 超商取貨付款 line pay
信用卡 全支付
線上轉帳 Apple pay
物流方式: 超商取貨
宅配
門市自取

詳細資訊

內容簡介   「本書全面介紹深度電腦視覺的最先進作法,在Keras中建構端到端生產系統,提供經過實戰檢驗的最佳實務解決方案。」   —François Chollet   深度學習研究者和Keras創造者   這本實用指南向您展示了如何使用機器學習模型從影像中淬取資訊。ML工程師和資料科學家將會學習經過驗證的ML技術來解決各種影像問題,包括分類、物件偵測、自編碼器、影像產生、計數和圖說產生。本書卓越的介紹了端到端深度學習:資料集建立、資料前置處理、模型設計、模型訓練、評估、部署和可解釋性。   Google工程師Valliappa Lakshmanan、Martin Görner和Ryan Gillard向您展示了如何開發準確且可解釋的電腦視覺ML模型,並使用強大的ML架構以靈活且可維護的方式將它們投入大規模生產。您將學習如何使用以TensorFlow和Keras編寫的模型進行設計、訓練、評估和預測。   您將學習如何:   ‧為電腦視覺任務設計機器學習架構   ‧選擇適合您的任務的模型(例如ResNet、SqueezeNet或EfficientNet)   ‧建立端到端ML生產線來訓練、評估、部署和解釋您的模型   ‧前置處理影像以進行資料擴增進行並支援可學習性   ‧納入可解釋性和負責任的AI的最佳實務   ‧將影像模型部署為Web服務或在邊緣設備上   ‧監控和管理機器學習模型 目錄 前言 第1章 電腦視覺之機器學習 第2章 視覺機器學習模型 第3章 影像視覺 第4章 物件偵測與影像分割 第5章 建立視覺資料集 第6章 前置處理 第7章 訓練生產線 第8章 模型品質和持續評估 第9章 模型預測 第10章 生產 ML 的趨勢 第11章 進階視覺問題 第12章 影像和文本產生 後記 索引

為您推薦

Python 金融分析 (2版)

Python 金融分析 (2版)

其他會員也一起購買

原價: 980 售價: 833 現省: 147元
立即查看
Python+OpenCV:機器學習+深度學習40大電腦視覺案例入門到實戰 (1版)

Python+OpenCV:機器學習+深度學習40大電腦視覺案例入門到實戰 (1版)

類似書籍推薦給您

原價: 1200 售價: 1080 現省: 120元
立即查看
邊緣AI-使用NVIDIA Jetson Orin Nano開發具備深度學習、電腦視覺與生成式AI功能的ROS2機器人 (1版)

邊緣AI-使用NVIDIA Jetson Orin Nano開發具備深度學習、電腦視覺與生成式AI功能的ROS2機器人 (1版)

類似書籍推薦給您

【簡介】 內容簡介:★ NVIDIA DLI 深度學習機構白金級認證講師專業講解 ★ ★ 完整解析 NVIDIA Jetson 邊緣運算電腦,最新的 Jetson Orin Nano Super 算力飆升1.7倍!【Jetson Orin Nano Super】NVIDIA 執行長黃仁勳盛讚的1.7倍AI算力提升在這裡!【加速運算】NVIDIA Jetson 系列邊緣運算電腦,搭載 CUDA 與 TensorRT 加速技術,實現掌上高速運算的承諾。【立體機器視覺】整合 Intel RealSense 與 StereoLab ZED 景深攝影機,讓機器人擁有清晰的空間感知能力。【ROS2 作業系統】機器人智慧全面升級,輕鬆實現各種自動化任務。【生成式 AI 應用】在裝置端執行各種大語言、圖像、語音與 Cosmos 等多模態生成模型,讓無限創意在邊緣運算中展翅高飛! 【目錄】 章節說明:第 1 章 單板電腦與邊緣運算1.1 邊緣運算裝置1.2 單板電腦1.3 NVIDIA 線上資源1.4 NVIDIA Jetson 家族1.5 Jetson Orin Nano 開發套件開箱1.6 總結第 2 章 Jetson Orin Nano 初體驗2.1 Jetson Orin Nano 開機!2.2 基礎系統操作2.3 Jetson Orin Nano Super2.4 總結第 3 章 深度學習結合視覺辨識應用3.1 OpenCV 電腦視覺函式庫3.2 NVIDIA 深度學習視覺套件包3.3 總結第 4 章 整合深度視覺4.1 Intel RealSense 景深攝影機4.2 ZED 景深攝影機4.3 總結第 5 章 ROS2 機器人作業系統5.1 ROS / ROS25.2 NVIDIA Issac ROS5.3 安裝 ROS25.4 RK ROS2 移動平台5.5 ROS2 基本節點5.6 AI 節點5.7 進階應用5.8 總結第 6 章 生成式 AI 結合邊緣運算裝置6.1 淺談生成式 AI6.2 NVIDIA Jetson Generative AI lab6.3 總結

原價: 580 售價: 493 現省: 87元
立即查看
AI Vision × LLM 電腦視覺應用聖經:OpenCV × YOLO × Ollama 解鎖多模態全攻略 (1版)

AI Vision × LLM 電腦視覺應用聖經:OpenCV × YOLO × Ollama 解鎖多模態全攻略 (1版)

類似書籍推薦給您

【簡介】 ⛧⛦ 一本搞定 LLM 看圖說故事與即時影像分析 ⛦⛧ ⛧⛦ 十款熱門模型實際解決生活中 AI Vision 問題 ⛦⛧ ⛧⛦ 用「自己的」資料集在本地端訓練 YOLO 模型 ⛦⛧ ⛧⛦ 無痛設計 Web 互動介面,輕鬆部署 AI 模型 ⛦⛧   『AI Vision × LLM』劃開多模態應用的新時代   從輸入文字生成圖片,到上傳照片讓 LLM 看圖說故事,AI 電腦視覺技術結合 LLM 的多模態應用正席捲全球。但這些令人驚豔的應用背後,其實倚賴多項核心技術——包含物體偵測、人臉辨識、情緒與年齡分析、或是影像文字識別,以及對於文字的理解與生成,這才賦予 AI 真正「看懂」影像內容的能力。   實際解決現實生活中的 AI Vision 問題   帶領讀者以多款熱門模型如 YOLO、OpenCV DNN、MediaPipe、CVZone 3D、DeepFace、Dlib、LiteRT、EasyOCR,打造刷臉門禁系統、即時口罩偵測、微笑自拍、手勢操控投影片、AI 健身教練、車牌辨識、結帳櫃台人流與高速公路車流分析等多項實用專案,讓讀者親身體驗 AI Vision 在真實場景中的應用價值。   不僅會用,還能自行訓練專屬 AI 模型   讓你不只會活用現成的模型,還能自己動手標註資料並訓練屬於你的 YOLO 模型。並且透過 Streamlit 設計 Web 互動介面,將訓練成果部署為具備即時偵測與辨識功能的 Web 應用程式,實現從標註資料、模型訓練到應用上線的完整流程。   親手打造多模態 AI 應用,收穫滿滿成就感   整合前述 AI Vision 技術與大型語言模型(LLM),或運用 Ollama 的多模態工具 Llama-Vision,再搭配 Streamlit,即可實作出讓 LLM 分析影像內容或情境的 Web 智慧應用,例如路況分析或圖片描述,讓 AI 真正具備視覺理解與語意回應的能力。   零基礎也能無痛入門   本書主打「從做中學」的實作導向,即使沒有深厚的理論基礎,也能快速掌握 Python 的 AI 模型與實用套件。至於不熟悉的語法、函式用法、AI 模型原理,或是特定功能的程式碼編寫與修改,則交由 ChatGPT 給予我們即時協助,讓學習更有效率。   無論你是 AI 初學者還是開發者,本書都能帶你輕鬆入門、快速上手,從零開始打造專屬的 AI 專案,成為 AI Vision × LLM 的超酷玩家!🎉 本書特色   ➢ 精選多款熱門 AI 模型,打造貼近生活情境的 AI Vision 實務應用   ➢ 提供客製化 WinPython 可攜式套件,快速建立與書中一致的開發環境   ➢ 支援 CPU / GPU,完整教學從資料標註到訓練與測試你自己的 YOLO 物體辨識模型   ➢ 使用 LabelImg 工具,以人性化的方式進行影像資料集的標註作業   ➢ 透過 Streamlit 快速打造 Web 互動介面,無需前端技能即可部署 AI 模型   ➢ 整合 Llama-Vision,讓 LLM 在 Web 介面中看圖說故事、回答問題或分析影像內容   ➢ 搭配 OpenCV 電腦視覺套件,實作物體、人臉、文字、車牌等偵測與辨識   ➢ 探索 Mediapipe × CVZone 3D,實現 3D 視角的手勢辨識與姿態評估  【目錄】 ▍第 1 章 使用 Python 虛擬環境建立開發環境 1-1 建立與管理 Python 虛擬環境 1-2 使用 Python 虛擬環境建立本書的開發環境 1-3 安裝本書客製化的 WinPython 可攜式套件 1-4 使用 Thonny 的 Python IDE 1-5 使用 VS Code 的 Python IDE ▍第 2 章 OpenCV 基本使用與 Numpy 2-1 OpenCV 安裝與基本使用 2-2 OpenCV 影像處理 2-3 OpenCV 視訊處理與 Webcam 2-4 OpenCV 影像資料:NumPy 陣列 2-5 OpenCV 影像處理:負片和馬賽克效果 ▍第 3 章 OpenCV DNN電腦視覺與文字識別 3-1 OpenCV 哈爾特徵層級式分類器 3-2 OpenCV DNN 模組與預訓練模型 3-3 OpenCV DNN 影像分類與人臉偵測 3-4 OpenCV DNN 物體偵測與文字區域偵測 3-5 Tesseract-OCR 文字識別 ▍第 4 章 Mediapipe × CVZone:人臉與臉部網格偵測 4-1 Google MediaPipe 機器學習框架 4-2 CVZone 電腦視覺套件與 MediaPipe 4-3 CVZone 人臉偵測 4-4 CVZone 臉部網格 4-5 CVZone 辨識臉部表情:張嘴/閉嘴與睜眼/閉眼 ▍第 5 章 Mediapipe × CVZone:3D 手勢偵測與 3D 姿態評估 5-1 Mediapipe × CVZone 3D 多手勢追蹤 5-2 MediaPipe × CVZone 3D 辨識手勢:剪刀、石頭與布 5-3 MediaPipe × CVZone 3D 辨識手勢:OK 手勢 5-4 MediaPipe × CVZone 3D 人體姿態評估 5-5 MediaPipe × CVZone 3D 辨識人體姿勢:仰臥起坐 5-6 MediaPipe × CVZone 3D 辨識人體姿勢:伏地挺身 ▍第 6 章 LiteRT × Dlib × Deepface 電腦視覺應用 6-1 認識與安裝 LiteRT(TensorFlow Lite) 6-2 LiteRT 影像分類與物體偵測 6-3 Dlib 人臉偵測、臉部網格與特徵提取 6-4 face-recognition 人臉識別 6-5 Deepface 情緒辨識與年齡偵測 6-6 OpenCV DNN 預訓練模型:情緒辨識 ▍第 7 章 YOLO 電腦視覺應用:物體偵測與追蹤 7-1 認識 YOLO 7-2 YOLO 物體偵測 7-3 YOLO 物體追蹤 7-4 YOLO 電腦視覺應用:即時計算視訊的人數和車輛數 7-5 YOLO 電腦視覺應用:繪出視訊的車輛追蹤線 ▍第 8 章 YOLO 電腦視覺應用:影像分類 / 分割與姿態評估 8-1 YOLO 影像分類 8-2 YOLO 影像分割 8-3 YOLO 姿態評估 8-4 YOLO 電腦視覺應用:影像分割的背景替換 8-5 YOLO 電腦視覺應用:辨識人體姿勢 ▍第 9 章 訓練你自己的 YOLO 物體偵測模型 9-1 安裝 GPU 版的 YOLO 9-2 取得訓練 YOLO 模型所需的圖檔資料 9-3 使用 LabelImg 標註影像建立資料集 9-4 整理與瀏覽 Roboflow 取得的資料集 9-5 建立 YAML 檔訓練與驗證你的 YOLO 模型 ▍第 10 章 Streamlit 的 AI 互動介面設計 10-1 認識與安裝 Streamlit 10-2 建立你的 Streamlit 應用程式 10-3 輸出網頁內容 10-4 繪製圖表與地圖 10-5 建立表單介面的互動元件 10-6 佈局、狀態與聊天元件 10-7 使用快取機制與網頁配置設定 10-8 Streamlit 互動介面設計:建立 YOLO 的 AI 互動介面 ▍第 11 章 AI 電腦視覺實戰:刷臉門禁管理、微笑拍照與變臉化妝 11-1 AI 電腦視覺實戰:刷臉門禁管理 11-2 AI 電腦視覺實戰:YOLO 臉部情緒偵測 11-3 AI 電腦視覺實戰:微笑拍照 11-4 AI 電腦視覺實戰:變臉與化妝 ▍第 12 章 AI 電腦視覺實戰:手勢操控與 AI 健身教練 12-1 pywin32 套件:Office 軟體自動化 12-2 AI 電腦視覺實戰:手勢操控 PowerPoint 簡報播放 12-3 AI 電腦視覺實戰:AI 健身教練 ▍第 13 章 AI 電腦視覺實戰:EasyOCR 車牌辨識與車道偵測系統 13-1 AI 電腦視覺實戰:Tesseract-OCR 車牌辨識 13-2 EasyOCR 的安裝與使用 13-3 AI 電腦視覺實戰:EasyOCR 車牌辨識 13-4 AI 電腦視覺實戰:YOLO 車牌偵測 13-5 AI 電腦視覺實戰:OpenCV 車道偵測系統 ▍第 14 章 AI 電腦視覺實戰:YOLO 人流與車流控制 14-1 找出熱區域座標 14-2 判斷目標物體是否進入熱區域 14-3 結帳櫃台的人數控制 14-4 道路的車流控制 14-5 AI 電腦視覺實戰:多個結帳櫃台的人數控制 14-6 AI 電腦視覺實戰:南下 / 北上高速公路的車流控制 ▍第 15 章 AI 電腦視覺實戰:打造自己的 AI 模型與整合應用 15-1 使用 Teachable Machine 訓練機器學習模型 15-2 AI 電腦視覺實戰:LiteRT 識別剪刀、石頭或布 15-3 AI 電腦視覺實戰:建立 YOLO 即時口罩偵測 ▍第 16 章 AI 電腦視覺實戰:本機 LLM Vision 整合應用 16-1 認識生成式 AI 與 LLM 16-2 LLM API 服務:Groq API 16-3 使用 Ollama 打造本機 LLM 16-4 AI 電腦視覺實戰:Llama-Vision 視覺分析助手 16-5 AI 電腦視覺實戰:Llama-Vision 車牌辨識 16-6 AI 電腦視覺實戰:Llama-Vision 路況分析 ▍附錄 A 電子書 Anaconda 開發環境與 Python 程式設計 A-1 建立 Anaconda 的 Python 開發環境 A-2 變數、資料型態與運算子 A-3 流程控制 A-4 函式、模組與套件 A-5 容器型態 A-6 類別與物件  

原價: 880 售價: 792 現省: 88元
立即查看
電腦視覺與深度學習 (1版)

電腦視覺與深度學習 (1版)

類似書籍推薦給您

【簡介】   這本書引導讀者從廣闊的人工智慧來到深度學習的核心概念,深化對機器學習的理解,並揭示電腦視覺如何利用機器學習來模仿和擴展人類的視覺能力。深度學習顯著提升了電腦視覺技術的效能,而成功的電腦視覺案例又進一步推進深度學習領域的發展,形成一個良性循環。   書中不僅提供扎實的理論基礎,更搭配豐富實用的範例,這些範例都是用強大且被廣泛運用的 Python 程式語言編寫。透過這些範例,讀者能更直觀地掌握書中所述的概念,並將理論付諸實踐。   本書特別為對影像處理與電腦視覺懷抱熱情的讀者而設計,無論是大學部或研究所的學生,或是渴望自學精進的其他族群,都能從中獲益良多。 【目錄】 1 簡 介 2 實現電腦視覺的軟體平台 3 電腦視覺的影像基礎 4 鄰域處理 5 影像轉換 6 影像增強 7 影像復原 8 影像分割 9 影像辨識 10 深度學習的歷史與演進 11 重要電腦視覺任務實現一:光學字元辨識 12 重要電腦視覺任務實現二:影像分類 13 重要電腦視覺任務實現三:物件偵測 14 重要電腦視覺任務實現四:語意與實例分割 15 重要電腦視覺任務實現五:物件追蹤 16 重要電腦視覺任務實現六:姿態估測 17 重要電腦視覺任務實現七:人臉辨識 18 真實世界電腦視覺的考量與省思 參考文獻 彩色圖片

原價: 800 售價: 752 現省: 48元
立即查看
AI+IoT佈建邊緣運算:電腦視覺業界專案原理及實作 (1版)

AI+IoT佈建邊緣運算:電腦視覺業界專案原理及實作 (1版)

類似書籍推薦給您

內容簡介   本書共5篇,第1篇、第2篇重點介紹以YOLO為代表的一階段物件辨識神經網路;第3篇、第4篇重點介紹物件辨識神經網路在雲端和邊緣端的部署,其中對邊緣端的量化原理進行了重點介紹;第5篇重點介紹當前較為流行的自動駕駛的資料計算原理和物件辨識。本書實用性非常強,既適合對電腦視覺具有一定了解的高等院校大學生、所究所學生及具有轉型意願的軟體工程師入門學習,又適合電腦視覺工程項目研發和營運人員參考閱讀。   第1篇,以知名電腦視覺競賽任務為例,旨在介紹物件辨識應用場景下的基本概念和約定,以及資料標注工具和格式,讓讀者具備特徵融合網路、預測網路的設計能力。對於資料後處理技術則介紹了解碼網路、資料重網路拓樸路、NMS演算法等後處理演算法,在此基礎上結合各式各樣的骨幹網路,讀者就可以架設完整的一階段物件辨識神經網路模型了。   第2篇,旨在介紹物件辨識神經網路的訓練全流程。本篇從資料集製作到損失函式設計,從訓練資料監控到NaN或INF異常處理,特別是對不同損失函式的設計,進行了非常詳細的原理性闡述。相比神經網路設計,損失函式的設計是最具有可解釋性的,也是電腦視覺研究中比較容易出成果的研究方向。   第3篇,旨在運用物件辨識神經網路的訓練成果,架設完整的物件辨識推理模型。推理模型支援雲端部署和邊緣端部署。對於雲端部署,以主流的亞馬遜雲端為例介紹;對於邊緣端部署,以GoogleCoral開發板為例,介紹神經網路量化模型的基礎原理和模型編譯邏輯。   第4篇,結合作者主導過的智慧交通、智慧後勤等專案,旨在介紹實際電腦視覺資料增強技術,以及神經網路性能評估的原理和具體應用。本篇還結合應用同樣廣泛的算能科技(比特中國)SE5邊緣計算閘道和瑞芯微RK3588邊緣計算系統,介紹實際專案中如何使用邊緣計算硬體加速人工智慧的產業化應用。根據邊緣計算硬體特性對神經網路進行針對性修改,是真正考驗一個開發者對神經網路理解程度的試金石。跟隨本書介紹熟練掌握2~3款邊緣計算硬體,就能更快速地將電腦視覺應用到實際生產中,在具體應用中創造價值。   第5篇,旨在將讀者引入三維電腦視覺中最重要的應用領域之一:自動駕駛。圍繞KITTI資料集,本篇介紹了自動駕駛資料的計算原理,並重點介紹了PointNet++等多個三維物件辨識神經網路。   附錄列表說明了本書所參考的物件辨識原始程式碼、Python運行環境架設,以及TensorFlow的基本操作。對基本操作有疑問的讀者,可以根據附錄中的說明登入相關網站進行查閱和提問。 目錄 第1篇 一階段物件辨識神經網路的結構設計 第1章 物件辨識的競賽和資料集 1.1電腦視覺座標系的約定和概念 1.1.1 圖型的座標系約定 1.1.2 矩形框的描述方法約定 1.2 PASCAL VOC競賽和資料集 1.2.1 PASCAL VOC競賽任務和資料集簡介 1.2.2 PASCAL VOC2007資料集探索 1.3 MS COCO挑戰賽和資料集 1.3.1 MS COCO挑戰賽的競賽任務 1.3.2 MS COCO資料集簡介 1.4 物件辨識標注的解析和統計 1.4.1 XML檔案的格式 1.4.2 XML檔案解析和資料均衡性統計 第2章 物件辨識神經網路整體說明 2.1 幾個著名的物件辨識神經網路 2.1.1 R-CNN家族神經網路簡介 2.1.2 YOLO和SSD神經網路簡介 2.1.3 CenterNet神經網路簡介 2.1.4 U-Net神經網路簡介 2.2 物件辨識神經網路分類和高階API資源 2.3 矩形框的交並比評價指標和實現 第3章 一階段物件辨識神經網路的特徵融合和中段網路 3.1 一階段物件辨識神經網路的整體結構 3.2 一階段物件辨識神經網路的若干中段網路介紹 3.2.1 單向融合的中段網路 3.2.2 簡單雙向融合的中段網路 3.2.3 複雜雙向融合的中段網路 3.3 不同融合方案中段網路的關係和應用 3.4 YOLO的多尺度特徵融合中段網路案例 3.4.1 YOLOV3的中段網路及實現 3.4.2 YOLOV4的中段網路PANet及實現 3.4.3 YOLOV3-tiny和YOLOV4-tiny版本的中段網路及實現 3.5 神經網路輸出的解碼 3.5.1 融合特徵圖的幾何含義 3.5.2 矩形框中心點座標的解碼 3.5.3 矩形框寬度和高度的解碼 3.5.4 前背景機率和分類機率的解碼 3.5.5 矩形框角點座標和解碼函式整體輸出 第4章 一階段物件辨識神經網路典型案例——YOLO解析 4.1 YOLO家族物件辨識神經網路簡介 4.2 先驗錨框和YOLO神經網路的檢測想法 4.2.1 用人為設定方式找到的先驗錨框 4.2.2 用聚類回歸方式找到的先驗錨框 4.2.3 YOLO的先驗錨框編號 4.2.4 YOLO的XYSCALE和縮放比參數 4.3 建立YOLO神經網路 4.3.1 根據選擇確定YOLO神經網路參數 4.3.2 建立骨幹網路、中段網路和預測網路 4.3.3 加上解碼網路後建立完整的YOLO模型 4.4 YOLO神經網路的遷移學習和權重載入 4.4.1 骨幹網路關鍵層的起止編號 4.4.2 中段網路和預測網路關鍵層的起止編號 4.4.3 YOLO模型的權重載入 4.5 原版YOLO模型的預測 4.5.1 原版YOLO模型的建立和參數載入 4.5.2 神經網路的輸入/輸出資料重組 4.6 NMS演算法的原理和預測結果視覺化 4.6.1 傳統NMS演算法原理 4.6.2 NMS演算法的變種 4.6.3 預測結果的篩選和視覺化 4.7 YOLO模型的多個衍生變種簡介 4.8 YOLO模型的發展與展望 第2篇 YOLO神經網路的損失函式和訓練 第5章 將資料資源製作成標準TFRecord資料集檔案 5.1 資料資源的載入 5.2 資料資源的解析和提取 5.3 TFRecord資料集檔案的製作 5.4 單樣本的example物件製作 5.5 遍歷全部樣本製作完整資料集 5.6 從資料集提取樣本進行核對 第6章 資料集的後續處理 6.1 資料集的載入和打包 6.1.1 資料集的載入和矩陣化 6.1.2 圖型矩陣尺寸的標準化 6.1.3 真實矩形框標注矩陣尺寸的標準化 6.1.4 資料集的打包處理 6.2 將原始資料集打包為可計算資料集 6.2.1 計算真實矩形框與先驗錨框的匹配度排名 6.2.2 找到真實矩形框所對應的網格下的先驗錨框 6.2.3 可計算資料集測試 第7章 一階段物件辨識的損失函式的設計和實現 7.1 損失函式框架和輸入資料的合理性判別 7.2 真實資料和預測資料的對應和分解 7.3 預測矩形框的前背景歸類和權重分配 7.4 預測矩形框的誤差度量 7.4.1 用中心點表示的位置誤差 7.4.2 用寬度和高度表示的位置誤差 7.4.3 用通用交並比表示的矩形框誤差 7.4.4 用距離交並比表示的矩形框誤差 7.4.5 用完整交並比表示的矩形框誤差 7.4.6 用交並比量化矩形框預測誤差的實踐 7.5 前景和背景的預測誤差 7.5.1 前景誤差和背景誤差的定義 7.5.2 樣本均衡原理和Focal-Loss應用 7.6 分類預測誤差 7.7 總誤差的合併和數值合理性確認 第8章 YOLO神經網路的訓練 8.1 資料集和模型準備 8.1.1 參數配置 8.1.2 資料集前置處理 8.1.3 模型參數載入和凍結 8.2 動態模式訓練 8.2.1 監控指標的設計和日誌儲存 8.2.2 動態模式下神經網路的訓練和偵錯 8.3 訓練中非法數值的監控和偵錯 8.3.1 發現和監控非法數值計算結果 8.3.2 計算結果出現非法數值的原因和對策 8.4 靜態模式訓練和TensorBoard監控 第3篇 物件辨識神經網路的雲端和邊緣端部署 第9章 一階段物件辨識神經網路的雲端訓練和部署 9.1 一階段物件辨識神經網路的推理模型設計 9.1.1 一階段物件辨識神經網路的推理形態 9.1.2 推理場景下的資料重網路拓樸路 9.1.3 構造推理場景下的YOLO模型函式 9.1.4 構造和測試YOLO推理模型 9.2 物件辨識推理模型的雲端部署 9.2.1 亞馬遜EC2雲端運算實例選型 9.2.2 使用雲端伺服器部署模型並回應推理請求 9.3 在亞馬遜SageMakerStudio上訓練雲端運算模型 第10章 神經網路的INT8全整數量化原理 10.1 神經網路量化模型的基本概念 10.1.1 神經網路量化模型速覽和視覺化 10.1.2 浮點數值的量化儲存和計算原理 10.2 神經網路量化模型的製作和分析 10.2.1 運算元的映射和合併 10.2.2 量化參數搜索和代表資料集 10.2.3 TFLite量化模型的運算元和張量分析 10.3 量化性能分析和量化模型的逐層偵錯 10.3.1 量化信噪比分析原理 10.3.2 量化模型的單層誤差偵錯 10.3.3 量化模型的誤差累積偵錯 10.4 不支援運算元的替換技巧 10.4.1 大動態範圍非線性運算元替換原理 10.4.2 大動態範圍非線性運算元替換效果 第11章 以YOLO和Edge TPU為例的邊緣計算實戰 11.1 TensorFlow模型的量化 11.1.1 量化感知訓練獲得INT8整數模型 11.1.2 訓練後量化獲得INT8整數模型 11.2 神經網路模型的編譯 11.2.1 模型編譯的工作原理 11.2.2 在Edge TPU上部署模型的注意事項 11.3 YOLO物件辨識模型的量化和編譯 11.3.1 YOLO變種版本選擇和骨幹網路修改 11.3.2 針對硬體限制進行解碼網路的修改 11.3.3 預測矩陣的整理重組 11.3.4 YOLO推理模型的建立 11.3.5 YOLO模型的量化 11.3.6 量化模型的測試和信噪比分析 11.4 YOLO量化模型的編譯和邊緣端部署 11.4.1 量化模型轉為編譯模型 11.4.2 撰寫邊緣端編譯模型推理程式 第4篇 個性化資料增強和物件辨識神經網路性能測試 第12章 個性化物件辨識資料集處理 12.1 農村公路佔道資料的物件辨識應用 12.1.1 專案資料背景 12.1.2 資料的前置處理 12.2 資料的增強 12.2.1 資料增強技術的概念和效果 12.2.2 基於空間變換的資料增強方法 12.2.3 基於顏色空間的資料增強方法 12.2.4 其他圖像資料的增強手法 12.2.5 圖像資料集的增強工具和探索工具 12.3 使用Albumentations進行資料增強 12.3.1 Albumentations的安裝和使用 12.3.2 幾何資料增強管道的配置 12.3.3 使用資料管道處理並儲存資料 12.3.4 像素資料增強管道的配置 12.3.5 增強資料集的運用 第13章 模型性能的定量測試和決策設定值選擇 13.1 神經網路性能量化的基本概念 13.1.1 神經網路預測的混淆矩陣 13.1.2 神經網路量化評估和P-R曲線 13.1.3 多分類物件辨識場景和平均精確率平均值 13.1.4 F分數評估方法 13.2 餐盤辨識神經網路性能測試案例 13.2.1 專案背景 13.2.2 提取全部真實資料和預測結果 13.2.3 模擬不同決策設定值下的精確率和召回率 第14章 使用邊緣計算閘道進行多路攝影機物件辨識 14.1 邊緣計算閘道的整體結構 14.1.1 核心TPU組件 14.1.2 計算卡和模組 14.1.3 下位機的作業系統 14.1.4 下位機的開發環境簡介 14.2 開發環境準備 14.2.1 上位機安裝Docker 14.2.2 上位機加載鏡像和SDK開發套件 14.2.3 神經網路工具鏈和主要用途 14.2.4 針對TensorFlow模型的編譯方法 14.3 浮點32位元模型部署的全流程 14.3.1 訓練主機將Keras模型轉為單pb模型檔案 14.3.2 上位機將單pb模型檔案編譯為bmodel模型檔案 14.3.3 下位機讀取和探索bmodel模型檔案 14.3.4 下位機使用bmodel模型檔案進行推理 14.4 邊緣端全整數量化模型部署 14.4.1 在上位機Docker內製作代表資料集 14.4.2 在上位機Docker內生成fp32umodel模型檔案 14.4.3 手動增加fp32umodel模型檔案的輸入層映射運算元 14.4.4 對fp32umodel模型檔案進行最佳化 14.4.5 在上位機Docker內將fp32umodel模型檔案編譯為int8umodel模型檔案 14.4.6 umodel模型檔案的偵錯技巧 14.5模型的編譯和部署 14.5.1 上位機將int8umodel模型檔案編譯為bmodel模型檔案 14.5.2 全整數量化int8bmodel模型檔案的邊緣端推導和測試 14.5.3 編譯模型在邊緣計算閘道上的性能測試 第15章 邊緣計算開發系統和RK3588 15.1 RK3588邊緣推理開發系統結構 15.1.1 開發板和核心晶片架構 15.1.2 開發板作業系統和偵錯環境 15.2開發工具鏈和神經網路模型部署 15.2.1 上位機開發環境配置 15.2.2 上位機的模型轉換 15.2.3 下位機使用編譯模型進行推理 15.2.4 RK3588的運算元偵錯技巧 第5篇 三維電腦視覺與自動駕駛 第16章 三維物件辨識和自動駕駛 16.1 自動駕駛資料集簡介 16.2 KITTI資料集計算原理 16.3 自動駕駛的點雲特徵提取 附錄A 官方程式引用說明 附錄B 本書運行環境架設說明 附錄C TensorFlow矩陣基本操作

原價: 980 售價: 882 現省: 98元
立即查看