搜尋建議
書名: LLM語意理解與生成技術完全開發 (1版)
作者: Jay Alammar,Maarten Grootendorst
譯者: 楊新章
版次: 1
ISBN: 9786264251563
出版日期: 2025/09
頁數: 432
#資訊
#軟體工程與專案管理
定價: 980
折扣: 8.5
售價: 833
庫存: 現貨: 1
查看店內位置
LINE US! 詢問這本書 團購優惠、書籍資訊 等

付款方式: 超商取貨付款 line pay
信用卡 全支付
線上轉帳 Apple pay
物流方式: 超商取貨
宅配
門市自取

【簡介】   AI 語言技術的進步,正以前所未有的速度改變世界!    「Jay和Maarten一如既往地運用精美的插圖為複雜主題提供深具洞察的描述。對於任何想了解大型語言模型背後主要技術的人來說,這本書都是寶貴的資源。」 —Andrew Ng(吳恩達),DeepLearning.AI 創辦人    「我想不出有哪本書比這本書更重要,值得現在就去閱讀。書中的每一頁,我都學到在這個語言模型時代,對於成功至關重要的知識。」 —Josh Starmer,StatQuest    想深入了解大型語言模型的奧秘,並將其應用於實際專案中?    《Hands-On Large Language Models》正是為你量身打造的指南!    由知名AI專家Jay Alammar和Maarten Grootendorst執筆,透過近300幅精美圖解,帶你輕鬆掌握LLM的核心概念和實踐技巧。    無論是文案撰寫、摘要生成,還是建立先進的語義搜尋系統,本書都提供了詳盡的步驟和範例,助你在AI領域中脫穎而出。快讓《Hands-On Large Language Models》開啟你的 AI 進階之旅!    近年來,AI在語言處理領域取得了驚人的突破。隨著深度學習的快速發展,語言AI系統在文字寫作與理解方面的能力,比以往任何時候都更加出色。這一趨勢正在催生全新的功能、產品,甚至是全新的產業。透過本書視覺化的教學方式,你將學習如何運用這些強大技術,掌握實用工具與關鍵概念,並能立即應用於你的專案中!    你將學會如何運用預訓練的 LLM 進行文案撰寫與摘要生成;打造超越傳統關鍵字匹配技術的語義搜尋系統;運用現有的函式庫和預訓練模型,來進行文本分類、搜尋與聚類。    本書將助你深入理解:    • Transformer語言模型的架構,掌握文本生成與語意表達的核心技術。    • 構建高效的LLM流程,對文本資料進行聚類並探索其主題。    • 透過密集檢索(dense retrieval)與重新排名(reranking),構建超越關鍵字匹配的語義搜尋引擎。    • 從提示工程(prompt engineering)到檢索擴增生成(RAG),探索生成式AI的各種運用方式。    • 深入學習如何訓練 LLM,針對特定應用進行優化,包括生成式微調(generative fine-tuning)、對比微調(contrastive fine-tuning)與上下文學習(in-context learning)。    • 透過生成式模型微調(Generative Model Fine-tuning)、對比式微調(Contrastive Fine-tuning)以及情境學習(In-context Learning),更深入地了解如何訓練LLM,並針對特定應用進行最佳化。  【目錄】 【第一部分 理解語言模型】  第一章 大型語言模型簡介  什麼是語言人工智慧?  語言人工智慧的近期歷史  大型語言模型的定義演變  大型語言模型的訓練範式  大型語言模型應用:為何如此實用?  負責任的LLM 開發與使用  有限資源,同樣精彩  與大型語言模型互動  生成您的第一段文本  第二章 詞元與嵌入  LLM 的分詞過程  詞元嵌入  文本嵌入(針對句子和整個文件)  超越 LLM 的字嵌入應用  嵌入在推薦系統中的應用  第三章 深入探索大型語言模型  Transformer 模型概述  近期改進的 Transformer 架構  【第二部分 使用預訓練語言模型】  第四章 文本分類  電影評論的情感分析  使用表達型模型進行文本分類  模型選擇  使用任務特定模型  利用嵌入的分類任務  使用生成型模型進行文本分類  第五章 文本分群與主題建模  使用 ArXiv 論文:計算與語言領域  文本分群的一般流程  從文本分群到主題建模  第六章 提示工程  使用文本生成模型  提示工程入門  進階提示工程  使用生成模型以推理  輸出驗證  第七章 進階文本生成技術與工具  模型輸入與輸出:使用 LangChain 載入量化模型  鏈接:擴展 LLM 的能力  記憶:幫助 LLM 記住對話  代理:建立 LLM 系統  第八章 語意搜尋與檢索擴增生成  語意搜尋與 RAG 概述  以語言模型進行語意搜尋  檢索擴增生成(RAG)  第九章 多模態大型語言模型  用於視覺的 Transformer  多模態嵌入模型  使文本生成模型具備多模態能力  【第三部分 語言模型的訓練與微調】  第十章 建立文本嵌入模型  嵌入模型  什麼是對比學習?  SBERT  建立嵌入模型  微調嵌入模型  非監督式學習  第十一章 微調表達型模型以分類  監督式分類  少樣本分類  使用遮罩語言建模進行持續預訓練  命名實體識別  第十二章 微調生成模型  三個 LLM 訓練步驟:預訓練、監督式微調和偏好微調  監督式微調(SFT)  使用 QLoRA 進行指令微調  評估生成模型  偏好調整/對齊/RLHF  使用獎勵模型自動化偏好評估  使用 DPO 進行偏好微調  後記   

大家的想法

還沒有人留下心得,快來搶頭香!

撰寫您的閱讀心得

為您推薦

做個有智慧的跑者:科學化跑步訓練與線上 AI 輔助系統

做個有智慧的跑者:科學化跑步訓練與線上 AI 輔助系統

其他會員也一起購買

原價: 620 售價: 558 現省: 62元
立即查看
突破PB!奧運跑步教練的勝利方程式:5K、10K、15K、半馬、全馬的科學訓練課表與心法策略 (1版)

突破PB!奧運跑步教練的勝利方程式:5K、10K、15K、半馬、全馬的科學訓練課表與心法策略 (1版)

其他會員也一起購買

【簡介】 從頂尖生理狀態到堅韌心理素質,奧運教練助你挖掘潛能、突破極限!   無論你是剛起步的市民跑者、拼命突破的菁英跑者,還是目標直指巔峰的職業選手—— 現在就是你挑戰、突破PB的最佳時機!     奧運選手、世界冠軍、世界紀錄保持人   都在用的訓練方式!   頂尖跑者突破PB的秘訣大公開!       最實用的跑步訓練與賽事備戰專書,   專為熱愛挑戰各種賽事距離的你設計!     訓練的目的不是為了更擅長訓練,   而是為了比賽!     奧運跑步教練的獨門秘訣大公開────     曾是美國奧運長跑選手的庫根教練,擁有超過30年的跑步經驗,   並培養了無數世界冠軍與奧運選手!         這本書凝聚了他在運動員和教練生涯中的寶貴經驗,   分享了最實用的賽事心法、訓練策略,還有課表設計!       無論你是剛起步的5K新手,還是挑戰全馬的選手,   庫根教練都將為你的下一個PB提供最堅實的支持與指導!     完整週期化訓練課表,從5K到全馬,一應俱全────     本書針對1英里、5K、10K、15K至半馬與全馬等賽事,   設計了多樣化、彈性且張弛有度的週期化訓練課表,   並為每種賽事距離提供專業且實用的建議,   只要按表操課,破PB指日可待!       無論你是忙碌的市民跑者,還是全心投入的菁英跑者,   都可以根據自身需求選擇訓練時長(6至16週)及跑量(3種級距),   並根據你的跑步願景,打造專屬於你的破PB計劃藍圖      此外,還有針對喜愛參賽的跑者所特別設計的非常規課表:   短期多場賽事課表 與 長距離賽事轉換為短距離賽事課表     總計45份專業課表,讓你無論面對何種賽事距離或情境,都能輕鬆達成     奧運教練的五大訓練原則,讓你跑得更快、更長遠────     #1 |成為「有氧怪物」 → 提升最大攝氧量、乳酸閾值和跑步經濟性,越跑越輕鬆!   #2 |10週的B+訓練比4週的A+訓練更好 → 穩定持續的跑步遠比短期衝刺更有效!   #3 |以各種速度和距離來訓練和比賽 → 不僅能全面提升跑步能力,更能維持身心活力!   #4 |練就對了 →跑步是一種享受,而非負擔;訓練的方式多種多樣,保持開放心態!   #5 |堅持訓練 → 把訓練看作是定期的小額投資,長期下來一定會有回報!     跑步不僅是身體活動,更是身心協同的過程,融合體能、心理與情感的全面發展────     除跑步專項訓練,此書還涵蓋了心態、技巧、觀念等多方面的養成,無論是感性還是理性層面,   庫根教練都以最貼近跑者內心的視角提供最明智合宜的建議與經驗分享,為你下一個PB注入信心!      ➪如何保持訓練動力,克服日常訓練障礙,培養心理恆毅力,實現訓練與生活的平衡。   ➪專項訓練助你建立有氧基礎,增強肌力,提升乳酸閾值,優化跑步經濟性與跑姿,保持健康,遠離受傷。   ➪量身定制訓練計劃,運用簡單且靈活的訓練原則,配合賽事心法,助你在每場賽事中發揮最佳表現。       破PB沒有捷徑,但有撇步────     ➪每週一次長跑,兩次高強度訓練,並於高強度訓練同一天加入肌力訓練!   ➪長跑與高強度訓練後的隔天安排完整的恢復日,讓身體有時間消化訓練並充分休息!   ➪告別「心理韌性」,培養更健康、友善的「心理恆毅力」,讓心態堅定,跑得更輕鬆自如!   ➪定期做肌力、柔軟度、活動度、技巧與姿勢訓練,避免受傷,保持最佳跑姿,跑得更輕鬆!     還有跑者常見問題一次解答────     ➪自己練,還是團練更好?   ➪如何選擇訓練配速?   ➪如何調整訓練計劃?   ➪如何在比賽中發揮最佳表現?   ➪如何篩選並運用跑步知識和數據?   ➪如何選擇適合的週跑量和課表週數?       每個人挑戰PB的動力不同——   無論是超越過去的自己,還是蛻變成更強大的自己,   最重要的始終是過程。       突破PB,不是盡力埋頭苦幹,   而是昂首享受每一次跑步,每一滴汗水,   在這段旅程中收穫成長,邁向更好的自己。       現在,就從這本書開始,挑戰自己的PB吧!   本書特色     1. 庫根教練的訓練方法獲得世界冠軍、奧運選手和頂尖教練的一致推崇。他的理念適用於各種層級的跑者,無論你是週末跑者還是菁英選手,這本書都能幫助你突破瓶頸,實現目標。     2. 庫根教練將帶你深入了解頂尖長跑教練的獨到見解與訓練技巧,讓你以最無痛且愉快的方式提升表現,並在各種賽事中脫穎而出。不論你的年齡、能力或經驗如何,他的訓練方法都能幫助你成為更好的跑者。     3. 這本書摒棄多餘的理論與科學,專注於經過時間驗證並獲得職業跑者認可的實用方法。庫根教練將深奧的跑步學問簡化為直觀易懂的訓練原則與策略,任何人都能輕鬆理解並持續實踐,讓突破PB變得更輕鬆可行。   國際推薦     「閱讀這些文字讓我回想起作為庫根運動員時的感受——他對這項運動的熱情極具感染力,並激勵著你不斷追求更高的目標。他簡單且以人為本的訓練方法,能讓那些看似艱難的目標變得可達成,直到它們最終成為現實。庫根激勵每一位運動員,無論是週末的跑者還是奧運選手,都相信追求最佳而不迷失自己是完全可能的——這就是他的訓練哲學。」——艾比.庫柏(Abbey Cooper),奧運選手、七次NCAA冠軍     「在達特茅斯學院時,我只經歷了幾次訓練,就立刻感受到庫根的與眾不同,他成為了我大三時的教練。庫根將我從一位有潛力的大學運動員,轉變為一位有望參加奧運的職業選手。這本書將教你如何運用庫根的深刻原則,幫助你以正確的方式變得更快、更健康。無論你處於何種水平,如果你是有抱負的跑者,這本書必讀!」——亞莉克西.帕帕斯(Alexi Pappas),奧運選手、作家、電影製片人     「庫根的教練成就無可爭議,他的履歷上充滿了奧運選手和國家冠軍。他對如何在身體和心理上充分發揮潛力有著深刻的洞察,這與他對這項運動的熱愛相得益彰,形成了成功的保證配方。庫根不僅會幫助你實現跑步目標,更重要的是,他會帶領你以最愉快的方式達成這些目標。」——傑克.懷特曼 (Jake Wightman),1500公尺世界冠軍     「庫根深知如何在跑得快的同時保持樂趣。他在運動員生涯中親自實踐過,並且作為世界頂尖教練,繼續推動這一理念。他對訓練和比賽的全面方法將幫助你成為更好的跑者,實現你的目標——無論你的年齡、能力或經驗如何——並同時保持與這項運動的健康關係。」——馬里奧.弗萊奧利 (Mario Fraioli),跑步教練及《The Morning Shakeout Podcast》主持人     「庫根對這項運動的熱愛與深厚的專業知識,使他成為世界頂尖的跑步教練之一。在我的職業生涯中,我一直與庫根保持聯繫,也很喜歡與他及他指導的運動員在這項運動的最高層級一同合作。不論你處於哪個水平,庫根的專業知識與對跑步的熱情都能幫助你獲得寶貴的收穫!」——莫莉.塞德爾(Molly Seidel),奧運馬拉松獎牌得主     「在新英格蘭長大時,庫根是所有年輕跑者的榜樣,而當我成為教練後,他也成為了我渴望效法的對象。在這本書中,庫根將帶你深入了解世界頂尖長跑教練之一的理念、問題解決方法和獨到見解。書中蘊含的幾十年經驗與智慧無價,而庫根將這些寶貴的知識以實用的方式傳遞,讓這本書成為一個獨特的訓練工具。讀者將感覺像是直接下載了幾十年的專業知識,並能輕鬆應用於自己的跑步訓練中。」——邁克.史密斯(Mike Smith),北亞利桑那大學越野和田徑主任、NCAA多次冠軍隊伍教練 【目錄】 推薦序 自序   PART1 成為優秀跑者的秘訣 第一章:庫根教練的五項訓練原則 第二章:建立良好的訓練環境 第三章:保持身心靈健康 第四章:提升速度的心理技巧 第五章:成為跑步這項運動的好學生   PART2 訓練與比賽的策略與計畫 第六章:熟練賽事的心法策略 第七章:按表操課 第八章:一英里跑賽事訓練 第九章:5K賽事訓練 第十章:10K賽事訓練 第十一章:15K至半馬賽事訓練 第十二章:全馬賽事訓練 第十三章:在短時間內準備並參加多場賽事 第十四章:長距離賽事轉換為短距離賽事   作者介紹 誌謝 看更多

原價: 520 售價: 442 現省: 78元
立即查看
建構多租戶SaaS架構|使用AWS的原則、實踐與模式 (1版)

建構多租戶SaaS架構|使用AWS的原則、實踐與模式 (1版)

其他會員也一起購買

【簡介】   想打造能隨業務成長而擴展的SaaS架構?    這本書不只談技術,更教你如何用策略思維為產品保留彈性。    「SaaS不只是技術選項,更是一種商業策略與決策思維。本書帶你從真實案例中,理解多租戶架構的多種實作方式與策略,幫助團隊不同階段做出最佳選擇,並保留未來的彈性。」 —Kim Kao,AWS台灣解決方案架構經理    「無論你是 SaaS 新手還是經驗豐富的專家,Tod的實戰洞見和歷經磨練的最佳實踐將幫助你架構穩健且可擴展的 SaaS 解決方案。」 —Toby Buckley,AWS資深解決方案架構師    軟體即服務(SaaS)正逐漸成為建構、交付及營運軟體解決方案的實際標準模式。採用多租戶SaaS架構,開發者將面對全新的架構設計、實現與營運的各種挑戰。像是資料如何分區、資源如何隔離、租戶如何驗證、微服務該如何建構,這些只是設計和開發SaaS產品時,必須關注的眾多領域中的一小部分。    在本書中,身為AWS全球SaaS技術領袖的Tod Golding提供了一個SaaS架構的全局觀,概述了每位架構師在建構SaaS環境時必須掌握的實用技術、策略和設計模式。    .描述、分類和定義核心的SaaS模式和策略    .識別關鍵構建區塊、權衡取捨與設計考量,這些都將影響你多租戶解決方案的設計與實作    .探討多租戶架構中的核心策略,包括租戶隔離、吵雜鄰居、資料分區、導入流程、身份驗證與上線後的開發與維運。    .探索多租戶架構如何影響微服務的設計和實現    .了解多租戶如何影響SaaS環境的營運足跡   【目錄】 推薦序  前言  chapter 01 SaaS理念  開始之處  轉向統一模型  重新定義多租戶  SaaS核心是一種商業模式  打造服務,而非產品  定義SaaS  結論  chapter 02 多租戶架構基礎  在架構中引入租戶概念  SaaS架構的兩大核心  控制平面的內部運作  應用平面的內部運作  灰色地帶  整合控制與應用平面  控制平面與應用平面的技術選型  避免絕對化  結論  chapter 03 多租戶部署模型  什麼是部署模型?  選擇部署模型  介紹獨立和共享模型  全堆疊獨立部署  全堆疊共享模型  混合全堆疊部署  混合模式部署模型  Pod部署模型  結論  chapter 04 租戶導入與身分管理  創建基礎環境  租戶導入體驗  建立SaaS身分識別  結論  chapter 05 租戶管理  租戶管理基礎  管理租戶布建  管理租戶生命週期  結論  chapter 06 租戶身分驗證與路由  進入系統入口  多租戶身分驗證流程  多租戶的路由驗證機制  不同技術的路由方式  結論  chapter 07 建構多租戶服務  設計多租戶服務  多租戶服務內部機制  隱藏和集中多租戶細節  攔截工具和策略  結論  chapter 08 資料分區  資料分區基礎  最佳化規模挑戰  關聯式資料庫分區  NoSQL資料分區  物件資料分區  OpenSearch資料分區  租戶資料分片  資料生命週期注意事項  多租戶資料安全性  結論  chapter 09 租戶隔離  核心概念  獨立模型的分層架構  部署期與執行期隔離  實際範例  管理隔離政策  結論  chapter 10 EKS(Kubernetes)SaaS:架構模式與策略  EKS在SaaS架構中的契合性  部署模式  路由考量  租戶導入與部署自動化  租戶隔離機制  節點類型選擇  EKS與無服務器計算的混合使用  結論  chapter 11 無伺服器SaaS:架構模式與策略  SaaS與無伺服器的完美結合  部署模型  路由策略  導入和部署自動化  租戶隔離機制  併發與吵雜鄰居  突破無伺服器運算的局限  結論  chapter 12 租戶感知營運  SaaS營運思維  多租戶營運指標  建構租戶感知營運控制台  多租戶部署自動化  結論  chapter 13 SaaS遷移策略  遷移的平衡藝術  遷移策略  起點的關鍵性  結論  chapter 14 分級策略  分級模式  實現分級  營運與分級  結論  chapter 15 SaaS無所不在  基本概念  架構模式  營運影響和考量因素  結論  chapter 16 生成式AI與多租戶架構  核心概念  導入租戶優化  應用一般多租戶原則  生成式AI定價與分級考量  結論  chapter 17 指導原則  願景、策略與組織結構  核心技術考量  營運思維  結論  索引

原價: 880 售價: 748 現省: 132元
立即查看
LLM大型語言模型的絕世祕笈: 27路獨步劍法,帶你闖蕩生成式AI的五湖四海 (1版)

LLM大型語言模型的絕世祕笈: 27路獨步劍法,帶你闖蕩生成式AI的五湖四海 (1版)

類似書籍推薦給您

原價: 650 售價: 585 現省: 65元
立即查看
完整複習NLP:圍繞LLM打造自然語言處理應用 (1版)

完整複習NLP:圍繞LLM打造自然語言處理應用 (1版)

類似書籍推薦給您

【簡介】   ☆自然語言處理任務分類與表示方式   ☆詞嵌入與文字向量表示方法   ☆N 元語言模型與神經語言模型架構   ☆NLP 評估指標與效能測量方法   ☆基礎工具:NLTK、LTP、tiktoken、PyTorch   ☆卷積、循環、Transformer 等神經網路模型   ☆靜態與動態預訓練詞向量模型   ☆Decoder、Encoder、Encoder-Decoder 預訓練架構   ☆BERT、GPT、T5 等主流語言模型解析   ☆微調技術:指令資料、序列任務、生成任務   ☆大語言模型訓練策略與位置編碼機制   ☆提示工程、多工訓練與強化學習調配方法   ☆模型壓縮、量化與高效部署技術   ☆多語言、多模態與程式預訓練模型實作   【內容簡介】   本書共分三部分、十三章,系統介紹自然語言處理與預訓練語言模型的技術發展與應用。   第一部分為基礎知識,涵蓋 NLP 任務分類、詞嵌入表示法、模型評估指標、NLTK 與 LTP 工具、PyTorch 使用方法與常見資料集,並介紹 MLP、CNN、RNN 與 Transformer 模型及其實作。   第二部分為預訓練語言模型,涵蓋 N-gram、神經語言模型與語言模型評估方式,靜態與動態詞向量模型如 Word2Vec 與 ELMo,以及 BERT、GPT、T5 等主流模型的結構與微調策略。   第三部分為大語言模型,從 LLaMA、Mixtral 架構到 FlashAttention、RoPE、LoRA、RLHF 等關鍵技術,再到指令微調、中文調配、模型壓縮與高效部署等流程,並包含多語言、程式語言與多模態模型的延伸應用,最後以 DeepSeek 系列為例總結最新進展。  【目錄】 ▌第一部分 基礎知識 第1章 緒論 1.1 自然語言處理的概念 1.2 自然語言處理的困難 1.3 自然語言處理任務系統 1.3.1 任務層級 1.3.2 任務類別 1.3.3 研究物件與層次 1.4 自然語言處理技術發展歷史 第2章 自然語言處理基礎 2.1 文字的表示 2.1.1 詞的獨熱表示 2.1.2 詞的分佈表示 2.1.3 詞嵌入表示 2.1.4 文字的詞袋表示 2.2 自然語言處理任務 2.2.1 自然語言處理基礎任務 2.2.2 自然語言處理應用任務 2.3 基本問題 2.3.1 文字分類問題 2.3.2 結構預測問題 2.3.3 序列到序列問題 2.4 評價指標 2.4.1 自然語言理解類任務的評價指標 2.4.2 自然語言生成類任務的評價指標 2.5 小結 第3章 基礎工具集與常用資料集 3.1 tiktoken 子詞切分工具 3.2 NLTK 工具集 3.2.1 常用語料庫和詞典資源 3.2.2 常用自然語言處理工具集 3.3 LTP 工具集 3.3.1 中文分詞 3.3.2 其他中文自然語言處理功能 3.4 PyTorch 基礎 3.4.1 張量的基本概念 3.4.2 張量的基本運算 3.4.3 自動微分 3.4.4 調整張量形狀 3.4.5 廣播機制 3.4.6 索引與切片 3.4.7 降維與升維 3.5 大規模預訓練資料集 3.5.1 維基百科資料 3.5.2 原始資料的獲取 3.5.3 語料處理方法 3.5.4 其他文字預訓練資料集 3.5.5 文字預訓練資料集討論 3.6 更多資料集 3.7 小結 第4章 自然語言處理中的神經網路基礎 4.1 多層感知器模型 4.1.1 感知器 4.1.2 線性回歸 4.1.3 Logistic 回歸 4.1.4 Softmax 回歸 4.1.5 多層感知器 4.1.6 模型實現 4.2 卷積神經網路 4.2.1 模型結構 4.2.2 模型實現 4.3 循環神經網路 4.3.1 模型結構 4.3.2 長短時記憶網路 4.3.3 模型實現 4.3.4 基於循環神經網路的序列到序列模型 4.4 Transformer 模型 4.4.1 注意力機制 4.4.2 自注意力模型 4.4.3 Transformer 4.4.4 基於Transformer 的序列到序列模型 4.4.5 Transformer 模型的優缺點 4.4.6 PyTorch 內建模型實現 4.5 神經網路模型的訓練 4.5.1 損失函式 4.5.2 梯度下降 4.6 自然語言處理中的神經網路實戰 4.6.1 情感分類實戰 4.6.2 詞性標注實戰 4.7 小結 ▌第二部分 預訓練語言模型 第5章 語言模型 5.1 語言模型的基本概念 5.2 N 元語言模型 5.2.1 N 元語言模型的基本概念 5.2.2 N 元語言模型的實現 5.2.3 N 元語言模型的平滑 5.3 神經網路語言模型 5.3.1 前饋神經網路語言模型 5.3.2 循環神經網路語言模型 5.3.3 Transformer 語言模型 5.3.4 基於神經網路語言模型生成文字 5.4 語言模型的實現 5.4.1 資料準備 5.4.2 前饋神經網路語言模型 5.4.3 循環神經網路語言模型 5.4.4 Transformer 語言模型 5.5 語言模型性能評價 5.6 小結 第6章 預訓練詞向量 6.1 預訓練靜態詞向量 6.1.1 基於神經網路語言模型的靜態詞向量預訓練 6.1.2 Word2vec 詞向量 6.1.3 負採樣 6.1.4 GloVe 詞向量 6.1.5 模型實現 6.1.6 評價與應用 6.2 預訓練動態詞向量 6.2.1 雙向語言模型 6.2.2 ELMo 詞向量 6.2.3 模型實現 6.2.4 評價與應用 6.3 小結 第7章 預訓練語言模型 7.1 概述 7.2 Decoder-only 模型 7.2.1 GPT 7.2.2 GPT-2 7.2.3 GPT-3 7.3 Encoder-only 模型 7.3.1 BERT 7.3.2 RoBERTa 7.3.3 ALBERT 7.3.4 ELECTRA 7.3.5 MacBERT 7.3.6 模型對比 7.4 Encoder-Decoder 模型 7.4.1 T5 7.4.2 BART 7.5 預訓練模型的任務微調:NLU 類 7.5.1 單句文字分類 7.5.2 句對文字分類 7.5.3 閱讀理解 7.5.4 序列標注 7.6 預訓練模型的任務微調:NLG 類 7.6.1 文字生成 7.6.2 機器翻譯 7.7 小結 ▌第三部分 大語言模型 第8章 大語言模型的預訓練 8.1 大語言模型的基本結構 8.1.1 Llama 8.1.2 Mixtral 8.1.3 縮放法則 8.1.4 常見大語言模型對比 8.2 注意力機制的最佳化 8.2.1 稀疏注意力 8.2.2 多查詢注意力與分組查詢注意力 8.2.3 FlashAttention 8.3 位置編碼策略 8.3.1 RoPE 8.3.2 ALiBi 8.4 長上下文處理策略 8.4.1 位置插值法 8.4.2 基於NTK 的方法 8.4.3 LongLoRA 8.4.4 YaRN 8.5 並行訓練策略 8.5.1 資料並行 8.5.2 模型並行 8.5.3 管線並行 8.5.4 混合並行 8.5.5 零容錯最佳化 8.5.6 DeepSpeed 8.6 小結 第9章 大語言模型的調配 9.1 引言 9.2 基於提示的推斷 9.2.1 提示工程 9.2.2 檢索與工具增強 9.3 多工指令微調 9.3.1 現有資料集轉換 9.3.2 自動生成指令資料集 9.3.3 指令微調的實現 9.4 基於人類回饋的強化學習 9.4.1 基於人類回饋的強化學習演算法的原理 9.4.2 基於人類回饋的強化學習演算法的改進 9.4.3 人類偏好資料集 9.5 參數高效精調 9.5.1 LoRA 9.5.2 QLoRA 9.5.3 Adapter 9.5.4 Prefix-tuning 9.5.6 P-tuning 9.5.6 Prompt-tuning 9.6 大語言模型的中文調配 9.6.1 中文詞表擴充 9.6.2 中文增量訓練 9.7 大語言模型壓縮 9.7.1 知識蒸餾 9.7.2 模型裁剪 9.7.3 參數量化 9.8 小結 第10章 大語言模型的應用 10.1 大語言模型的應用範例 10.1.1 知識問答 10.1.2 人機對話 10.1.3 文字摘要 10.1.4 程式生成 10.2 生成指令資料 10.2.1 Self-Instruct 10.2.2 Alpaca 10.2.3 WizardLM 10.3 大語言模型的量化與部署 10.3.1 llama.cpp 10.3.2 transformers 10.3.3 vLLM 10.4 當地語系化開發與應用 10.4.1 LangChain 10.4.2 privateGPT 10.5 工具呼叫與自動化 10.5.1 AutoGPT 10.5.2 HuggingGPT 10.6 小結 第11章 大語言模型的能力評估 11.1 引言 11.2 通用領域及任務評估 11.2.1 語言理解能力 11.2.2 文字生成能力 11.2.3 知識與推理能力 11.3 特定領域及任務評估 11.3.1 數學 11.3.2 程式 11.4 模型對齊能力評估 11.4.1 有用性 11.4.2 無害性 11.4.3 安全性 11.4.4 真實性 11.5 大語言模型的評價方法 11.5.1 評價設置:調配 11.5.2 自動評價方法 11.5.3 人工評價方法 11.5.4 紅隊測試 11.6 小結 第12章 預訓練語言模型的延伸 12.1 多語言預訓練模型 12.1.1 多語言BERT 12.1.2 跨語言預訓練語言模型 12.1.3 多語言預訓練語言模型的應用 12.1.4 大規模多語言模型 12.2 程式預訓練模型 12.2.1 代表性程式預訓練模型 12.2.2 程式預訓練模型的對齊 12.2.3 程式預訓練模型的應用 12.3 多模態預訓練模型 12.3.1 遮罩影像模型 13.3.2 基於對比學習的多模態預訓練模型 12.3.3 圖到文預訓練模型 12.3.4 影像或影片生成 12.4 具身預訓練模型 13.5 小結 第13章 DeepSeek 系列模型原理簡介 13.1 DeepSeek 系列模型概述 13.2 模型架構最佳化 13.2.1 演算法最佳化 13.2.2 基礎設施最佳化 13.3 基於強化學習得推理能力 13.3.1 DeepSeek-R1-Zero:僅透過強化學習得推理能力 13.3.2 DeepSeek-R1:規範性和泛化性 13.3.3 蒸餾: 推理能力的遷移 13.4 小結 附錄A 參考文獻 術語表

原價: 1080 售價: 972 現省: 108元
立即查看
文科生也能輕鬆實現!自建自用大語言模型(LLM):無痛操作Ollama本機端模型管理器 (1版)

文科生也能輕鬆實現!自建自用大語言模型(LLM):無痛操作Ollama本機端模型管理器 (1版)

類似書籍推薦給您

【簡介】  你已厭煩ChatGPT的諸多限制嗎?斷網不能用、網速明顯拖慢回應、敏感話題不回應、免費額度很快用完、回應答案經常飄忽受誤導等,對此打造本機端的大語言模型將可化解、緩解上述限制,如同直接將ChatGPT搬回家,成為你專屬的知識服務。   毫無疑問!生成式人工智慧(GenAI)、大語言模型(LLM)正在重新定義人類的創意、生產力價值程序,善用GenAI∕LLM者視其為利器,不善用者視其為威脅挑戰,各位正處於這樣的十字路口。   與此同時GenAI∕LLM也讓人疑慮,包含過程機理難懂如黑箱、答案時而確切、時而玄幻等,這又當如何駕馭?加上公眾版GenAI∕LLM服務有諸多限制,使人想善用、駕馭GenAI∕LLM卻又躊躇不前。   本書正是為上述痛點而撰,從入門認知到操作實務一路引導、自建自用模型,回頭再望時,各位已是GenAI∕LLM的初階能手。   本書目標讀者設定為高中職畢業、大學文科生畢業,並從最初步認知開始,隨即切入最快速獲得實務成就感的程序操作,而後回頭完整解釋操作中的細節機理。   更之後返回到基礎認知,瞭解今日常言的Llama、DeepSeek等知名大語言模型,提供繁體中文模型的選擇建議,並透過模型參數量以初估電腦的硬體資源需求等。   在認知與實務均站穩腳步後,以此為基礎進行擴展延伸,實務面進入檢索增強生成(RAG)以加強模型回應精準性,並進入多模態(Multimodal)模型、視覺語言模型(VLM),認知面也引領介紹多款與Ollama相仿的本機端模型管理軟體。   最後,這一切都還在積極發展中,仍有諸多待完備之處,故末章將給予提醒與關注建議,包含資訊技術走向、社會倫理走向。至於意猶未盡者也可以進一步參考附錄,讓認知更為加深,同時為後續有更多準備。 【目錄】 序言 第1章:大語言模型技術基礎認知 1-1 過往資訊查詢的挫折 1-2 ChatGPT回應表現讓各方驚豔 1-3 三種主要的人工智慧應用類型 1-4 人工智慧的弱、強、超 1-5 ChatGPT的根基與持續推進 1-6 預訓練模型與模型微調 1-7 企業特定微調版實務 1-8 為何要在雲端微調模型與提供服務? 1-9 生成式人工智慧模型雨後春筍般出現 1-10 大語言模型的瘦身輕量化 1-11 為何要建立本地端的LLM? 1-12 輕量化的模型有缺點 1-13 家戶與個人難以微調模型 1-14 檢索增強生成也具精進效果 1-15 個人本機端LLM的應用 1-16小結 第2章:快速建立自己的大語言模型 2-1 Ollama軟體簡述 2-2 確認一下自己電腦的資源 2-3 下載、安裝Ollama 2-4 下載並體驗第一個本機端大語言模型 2-5 若沒有浮現安裝完成訊息的因應方式 2-6 如何關閉Ollama互動窗口與Ollama 2-7 前述實務操作說明 第3章:Ollama細部設定調整 3-1 找尋模型的放置位置 3-2 為何要變更模型放置路徑? 3-3 變更模型放置路徑 3-4 安裝網頁型使用者介面 3-5 Ollama操作介面更多說明 3-6 更新Ollama應用程式 第4章:認知Ollama現行可用的模型 4-1 檢視Ollama官網的模型 4-2 Ollama官網的模型分類 4-3 細部檢視模型資訊 4-4 安裝指定參數版本的模型 4-5 計算模型的佔量與評估建議 第5章:Ollama現行主要模型認知 5-1 開放與封閉的模型 5-2 檢視Ollama模型 5-3 Mistral公司的Mistral系列 5-4 Microsoft的Phi系列 5-5 Meta的Llama系列 5-6 Google的Gemma系列 5-7 Alibaba的Qwen系列 5-8 IBM的Granite系列 5-9 DeepSeek的DeepSeek系列 5-10 現階段四種模型篩選建議 5-11 其他系列模型 5-12 更多模型來源 第6章:Page Assist基礎操作設定 6-1 切換介面色調 6-2 聊天管理 6-3 切換與更改搜尋引擎 6-4 管理模型 第7章:檢索增強生成與視覺模型 7-1 引入檢索增強生成的前置準備 7-2 建立RAG後正式對模型提問 7-3 視覺語言模型 第8章:與Ollama相仿或搭配的軟體 8-1 倚賴與不倚賴Ollama的軟體 8-2 AingDesk 8-3 AnythingLLM 8-4 Chatbox AI 8-5 GPT4All 8-6 Jan 8-7 LM Studio 8-8 Pinokio 8-9 更多建議 第9章:建議與展望 9-1 實務操作建議:摸索設定與釋放硬體潛力 9-2 技術關注建議:AI幻覺改善、根治技術 9-3 應用探索建議:嘗試更多元的模型應用 9-4 應用落實建議:建立或融入知識管理體系 9-5 道德倫理建議:避免誤信、誤用、濫信、濫用 附錄A:大語言模型技術概念簡述 附錄B:大語言模型標竿測試簡述

原價: 450 售價: 356 現省: 94元
立即查看
跟 NVIDIA 學 LLM 基礎!GPT、Transformer、attention、self-attention 機制、seq2seq 架構,紮穩大型語言模型的深度學習建模技術 (《跟 NVIDIA 學深度學習》修訂版) (1版)

跟 NVIDIA 學 LLM 基礎!GPT、Transformer、attention、self-attention 機制、seq2seq 架構,紮穩大型語言模型的深度學習建模技術 (《跟 NVIDIA 學深度學習》修訂版) (1版)

類似書籍推薦給您

【簡介】   ▍GPT、Transformer、attention / self-attention 機制、seq2seq 架構...,大型語言模型 (LLM) 背後的建模技術「硬派」揭密!     ▍AI 界扛霸子 NVIDIA 的指定教材!     近年來,在 NVIDIA (輝達) GPU、CUDA 技術的推波助瀾下,大型語言模型 (LLM) 的發展有著爆炸性的成長,例如最為人知的 ChatGPT 正是運用深度學習 (Deep Learning) 技術打造而成的熱門 LLM 應用。     □【★徹底看懂 LLM 核心建模技術 - GPT、Transformer 的模型架構】     自從 ChatGPT 爆紅之後,LLM 建模技術一直是熱門的研究話題,ChatGPT 的背後核心是 GPT 模型,而 GPT 裡面最重要的技術就是最後那個「T」- 也就是大名鼎鼎、使用了 attention (注意力) 機制的 Transformer 模型,這當中所用的建模技術可說是一環扣一環,也容易讓初學者學起來暈得不得了,只要一個關鍵地方沒搞懂,後面就全花了...     為此,本書經過精心設計,是帶你看懂 GPT、Transformer、attention...這些 LLM 關鍵技術的最佳救星!本書設計了「環環相扣」的 NLP 章節內容,循序漸進介紹 LLM 的基礎建模技術:     看懂循環神經網路 (RNN、LSTM) 的缺點就知道為什麼需要 attention 機制以及 seq2seq 架構   看懂 attention 機制就能看懂 Transformer 的 self-attention 神經層   看懂 seq2seq 架構就能看懂 Transformer 的 encoder-decoder 架構   看懂 Transformer 就能看懂 GPT     你可以深刻感受到次一章的模型架構幾乎都是為了解決前一章模型的不足之處而誕生的,經此一輪學習下來,保證讓你對 GPT、Transformer、attention / self-attention 等技術清清楚楚!這絕對是其他書看不到的精彩內容!     【★學 LLM 基礎,跟 AI 重要推手 - NVIDIA 學最到位!】     NVIDIA 除了在硬體上為 AI 帶來助益外,為了幫助眾多初學者快速上手 LLM 用到的深度學習基礎,任職於 NVIDIA 的本書作者 Magnus Ekman 凝聚了他多年來在 NVIDIA 所積累的 AI 知識撰寫了本書。本書同時也是 NVIDIA 的教育和培訓部門 -【深度學習機構 (Deep Learning Institute, DLI)】 指定的培訓教材 (https://www.nvidia.com/zh-tw/training/books/)。     要學 LLM 基礎,跟 AI 重要推手 NVIDIA 學就對了!書中眾多紮實的內容保證讓你受益滿滿!   本書特色     □【看懂 LLM 背後核心技術 - GPT、Transformer 的模型架構】   GPT、Transformer、attention 機制、self-attention 機制、encoder-decoder、seq2seq、query-key-value 機制、Multi-head、位置編碼 (positional encoding)、預訓練 (pre-train)、微調 (fine-tune)...各種建模技術輕鬆搞懂!     □【生成式 AI 語言模型 100% 從零開始打造!】   ‧用 Colab + tf.Keras 實作【多國語言翻譯模型】、【Auto-Complete 文字自動完成模型】   ‧從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩 LLM 建模基礎!     □【深度學習基礎知識學好學滿】   ‧紮穩根基!不被損失函數 / 梯度下降 / 反向傳播 / 正規化 / 常規化…一拖拉庫技術名詞搞得暈頭轉向!   ‧深度神經網路基礎 / CNN / RNN / LSTM...基礎概念詳解   ‧多模態學習 (multimodal learning)、多任務學習 (multitask learning)、自動化模型架構搜尋...熱門主題介紹。     □【詳細解說, 流暢翻譯】   本書由【施威銘研究室】監修,為前版《跟 NVIDIA 學深度學習》全新修訂本,題材與架構和前版大致相同,新修訂本特別針對前版書籍內容進行修訂、大量補充,幫助讀者更容易理解內容。 【目錄】 Ch01 從感知器看神經網路的底層知識 1-1 最早的人工神經元 - Rosenblatt 感知器 1-2 增加感知器模型的能力 1-3 用線性代數實現神經網路模型 Ch02 梯度下降法與反向傳播 2-1 導數的基礎概念 2-2 以梯度下降法 (gradient descent) 對模型訓練問題求解 2-3 反向傳播 (back propagation) Ch03 多層神經網路的建立與調校 3-1 動手實作:建立辨識手寫數字的多層神經網路 3-2 避免神經網路訓練成效不彰 3-3 實驗:調整神經網路與學習參數 Ch04 用卷積神經網路 (CNN) 進行圖片辨識 4-1 卷積神經網路 (CNN) 4-2 實作:以卷積神經網路做圖片分類 4-3 更深層的 CNN 與預訓練模型 Ch05 用循環神經網路 (RNN、LSTM...) 處理序列資料 5-1 RNN 的基本概念 5-2 RNN 範例:預測書店銷售額 5-3 LSTM (長短期記憶神經網路) 5-4 LSTM 範例:文字的 Auto-Complete 機制 Ch06 自然語言處理的重要前置工作:建立詞向量空間 6-1 詞向量、詞向量空間的基本知識 6-2 做法(一):在神經網路建模過程中「順便」生成詞向量空間 6-3 做法(二):以 word2vec、GloVe 專用演算法生成詞向量空間 Ch07 用機器翻譯模型熟悉 seq2seq 架構 7-1 機器翻譯模型的基本知識 ‧seq2seq 機器翻譯的運作概念 ‧在訓練時導入 Teacher Forcing 機制 ‧以編碼器-解碼器架構 (encoder-decoder architecture) 來建構 seq2seq 模型 7-2 機器翻譯的範例實作 Ch08 認識 attention 與 self-attention 機制 8-1 熟悉 attention 機制 ‧從 q-k-v 的角度看關聯性分數向量的計算 8-2 認識 self-attention 機制 ‧self-attention 的基本概念 ‧self-attention 機制的算法 ‧multi-head (多頭) 的 self-attention 機制 Ch09 Transformer、GPT 及其他衍生模型架構 9-1 Transformer 架構 9-1-1 編碼器端的架構 9-1-2 解碼器端的架構 9-1-3 Transformer 內的其他設計 9-1-4 小編補充:觀摩 keras 官網上的 Transformer 範例 9-2 Transformer 架構的衍生模型:GPT、BERT 9-2-1 認識 GPT 模型 9-2-2 認識 BERT 模型 9-2-3 其他從 Transformer 衍生出的模型 附錄 A 延伸學習 (一):多模態、多任務...等模型建構相關主題 附錄 B 延伸學習 (二):自動化模型架構搜尋 附錄 C 延伸學習 (三):後續學習方向建議 附錄 D 使用 Google 的 Colab 雲端開發環境

原價: 880 售價: 792 現省: 88元
立即查看
生成式AI入門: 大型語言模型LLM推動人機協作革新: 語言建模、訓練微調、隱私風險、合成媒體、認知作戰、社交工程、人機關係 (1版)

生成式AI入門: 大型語言模型LLM推動人機協作革新: 語言建模、訓練微調、隱私風險、合成媒體、認知作戰、社交工程、人機關係 (1版)

類似書籍推薦給您

【簡介】 【掌握生成式 AI 與 LLM 的發展與應用】近年來,AI 已經成為社會關注的焦點,幾乎所有人都在討論它的強大影響力!生成式 AI、LLM、ChatGPT、OpenAI、Copilot、Gemini、DeepSeek… 這些科技術語鋪天蓋地而來,甚至美國各大企業相繼大規模裁員,顯然大事發生了,但究竟怎麼一回事?又是如何改變我們的世界?在這場生成式 AI 熱潮與搶購 NVIDIA(輝達) GPU 的 AI 軍備競賽中,我們亟需一本能夠深入淺出解釋複雜概念的書籍,幫助讀者理性認識這場技術革命的全貌。本書不需要數學基礎,也不用具備程式設計或人工智慧的知識。只要你對生成式 AI 如何影響世界感興趣,本書就是你進入這個領域的最佳指引。我們將解析大型語言模型(LLM)的運作原理,探索 LLM 如何塑造科技產業的未來,並剖析生成式 AI 在社會、經濟、法律與政治各領域帶來的機遇與風險。【全方位認清楚生成式 AI 的問題與爭議】你將學習如何在日常生活與工作中有效應用生成式 AI,同時也會了解其安全性與倫理挑戰,例如資料安全與隱私問題、合成媒體與著作權爭議、LLM 的偏見來源、人機關係帶起的孤獨流行病等當前重要議題。此外,還會談到即將到來的 AI Agent,以及將通用人工智慧(AGI)、優生學及超人類主義連結,藉由科技將人類進化為後人類的未來議題(雖然看起來科幻,但確實是有計畫地進行中)。生成式 AI 在認知作戰與惡意應用方面,包括深偽技術濫用以及詐騙成本降低,也對社會帶來重大的影響。此外,將藝術家、設計師、漫畫家、攝影師作品,以及程式碼與書籍內容等,在未經授權之下被用於訓練生成式模型,這一連串訴訟以及 "合理使用" 的範圍到底包括哪些的爭議,我們都會依據最新發展做分析。對於 LLM 與生成式 AI,許多人往往一開始就一頭栽進技術細節。而本書希望讓你站在制高點俯視這一切,幫助你建立對生成式 AI 的全面性理解,成為宏觀的理性思考者。因為,生成式 AI 不僅是一場技術革命,更是一場深刻影響未來的變革,而我們正參與其中。 本書特色: ●解析大型語言模型 LLM 的運作原理 ●AI 軍備競賽下的大型語言模型發展 ●將生成式 AI 融入工作與日常生活中 ●在創新應用中兼顧安全性與倫理責任 ●資料安全與隱私保護的政策與法規 ●生成式媒體的應用範圍與著作權爭議 ●聊天機器人偏見、群眾外包的心理創傷 ●探索與聊天機器人良性互動之道 ●北美、歐盟、中國對 AI 的監管狀況 ●AGI、AI 的感知與意識、超人類主義、後人類 ●LLM 生命週期對環境帶來的影響以及碳權問題 ●LLM 開源或權重開源對社群帶來的影響 【目錄】 第 1 章 大型語言模型:展現 AI 實力 1.1 ChatGPT 與大型語言模型的崛起 1.2 自然語言處理的起源與演進 1.2.1 統計模型與機器學習的引入 1.2.2 神經網路與深度學習的崛起 1.3 大型語言模型(LLM)的誕生 1.3.1 注意力機制的誕生與應用 1.3.2 Transformer 架構帶來突破 1.3.3 從 Transformer 到 GPT 1.3.4 NLP 發展的重要時間點 1.4 LLMs 有哪些應用? 1.4.1 語言建模 1.4.2 程式碼生成 1.4.3 內容生成 1.4.4 邏輯推理 1.4.5 其它各種應用 1.5 LLMs 有哪些不足之處? 1.5.1 訓練資料與偏見 1.5.2 控制 LLMs 輸出正確性的困難 1.5.3 LLMs 的永續性 1.6 重要 LLM 的發展歷程 1.6.1 OpenAI 的 ChatGPT 1.6.2 Google 的 Bard / LaMDA / PaLM / Gemini 1.6.3 微軟的 Bing AI / Copilot 1.6.4 Meta 的 LLaMA 與史丹佛的 Alpaca 1.6.5 橫空出世的 DeepSeek 1.7 總結第 2 章 訓練大型語言模型(LLMs) 2.1 如何訓練 LLMs 2.1.1 從開放網路搜集資料 2.1.2 認識自迴歸模型與雙向模型 2.1.3 微調 LLMs 2.2 出人意料的 LLMs 突現特性 2.2.1 LLMs 的零樣本與少樣本學習能力 2.2.2 突現現象:是錯覺還是新能力? 2.3 大量訓練資料背後的難題 2.3.1 把偏見編碼進模型中 2.3.2 敏感資料 2.4 總結第 3 章 LLMs 的隱私風險與法規應對 3.1 改善 LLMs 生成結果安全性的方法 3.1.1 後處理偵測 3.1.2 內容過濾、條件式預訓練 3.1.3 基於人類回饋的強化式學習(RLHF) 3.1.4 基於 AI 回饋的強化式學習(RLAIF) 3.2 使用者隱私與商用風險 3.2.1 無意間造成的資訊洩漏 3.2.2 與聊天機器人互動的建議 3.3 資料保護的政策與法規 3.3.1 國際標準與資料保護法 3.3.2 聊天機器人符合 GDPR 嗎? 3.3.3 美國校園中的隱私權管制 3.3.4 企業政策 3.4 總結第 4 章 合成媒體創作與著作權爭議 4.1 深偽技術與合成媒體的崛起 4.1.1 創造合成媒體的常用技術 4.1.2 合成媒體的功與過 4.1.3 合成媒體的偵測技術與應對策略 4.2 以生成式 AI 翻轉創作過程 4.2.1 行銷上的應用 4.2.2 藝術創作 4.3 LLM 時代的著作權與訴訟案件 4.3.1 合理使用的概念與四大要素 4.3.2 LLM 企業面臨的法律訴訟 4.3.3 網路資料的使用與授權 4.4 總結第5 章 LLMs 的濫用與對抗式攻擊 5.1 資訊安全與社交工程 5.1.1 生成式 AI 的雙面性 5.1.2 魚叉式釣魚攻擊的進化 5.1.3 ChatGPT 對釣魚與惡意程式的影響 5.1.4 程式碼即服務的資安威脅 5.1.5 資料下毒:模型訓練的隱藏威脅 5.1.6 提示詞注入與越獄攻擊 5.1.7 面對生成式 AI 威脅的解決之道 5.2 資訊失序:對抗性敘事 5.2.1 認知作戰的範疇與定義 5.2.2 生成式AI 的潛在濫用 5.2.3 深偽技術與政治戰 5.2.4 對抗性敘事的監管挑戰 5.2.5 建立全球性對策機構 5.3 政治偏見與競選活動 5.3.1 聊天機器人的政治立場 5.3.2 偏見的來源與中立挑戰 5.3.3 LLMs 對選舉的潛在影響 5.3.4 馬斯克對 AI 的批評與探索 5.4 AI 幻覺的成因與改善方法 5.4.1 LLMs 的運作方法所導致 5.4.2 知識圖譜與 LLMs 內隱知識 5.4.3 改善幻覺的策略 5.5 專業領域中的濫用 5.5.1 律師濫用的案例 5.5.2 賺錢建議的魅力與濫用隱憂 5.5.3 醫療領域的成就與局限 5.5.4 投資顧問的挑戰與監管問題 5.5.5 生成式 AI 的倫理與責任 5.5.6 使用者與開發者的共同責任 5.6 總結第 6 章 善用 AI 工具提高生產力 6.1 在醫療、法律、金融等專業領域中運用 6.1.1 協助醫師處理行政作業、提高與病人互動品質 6.1.2 在法律案件研究、證據開示和文書上的應用 6.1.3 為金融投資與銀行客服加持 6.1.4 與 LLMs 共同創作 6.2 AI 程式設計輔助工具 6.2.1 自動撰寫程式碼說明 6.2.2 自動撰寫正規表達式 6.2.3 AI 程式助手 vs. 程式討論平台 6.3 工作與生活中的應用 6.3.1 學習方式的改變 6.3.2 重新定義購物體驗 6.3.3 AI 代理能與環境互動並靈活調整 6.3.4 代理化 LLMs:拓展 AI 的應用潛力 6.3.5 善用聊天機器人設計個人化計畫 6.3.6 從行政工作到未來內容生態的變革 6.4 生成式 AI 在教育中的足跡 6.4.1 教育工作者對 ChatGPT 的正反面態度 6.4.2 引入 AI 科技對學習的好處 6.5 偵測 AI 生成文本 6.5.1 離群值偵測技術 6.5.2 用 DetectGPT 檢測機率曲率 6.5.3 分類器偵測技術 6.5.4 文字浮水印技術 6.6 LLM 對工作和經濟的影響 6.6.1 正面的觀點 6.6.2 負面的觀點 6.6.3 生成式 AI 對就業的影響 6.7 總結第 7 章 與聊天機器人建立人機連結 7.1 以社交互動為目的的聊天機器人 7.1.1 從情感陪伴到倫理爭議 7.1.2 人機情感連結的商業化應用 7.2 向聊天機器人尋求陪伴的原因 7.2.1 孤獨流行病 7.2.2 情感依附理論與聊天機器人 7.3 人機關係的好與壞 7.3.1 基於規則 AI 聊天機器人的優勢 7.3.2 從社會滲透論看人機關係 7.3.3 人機關係的商業化與社會影響 7.3.4 性別觀念影響對話式 AI 技術開發 7.4 探索與聊天機器人良性互動之道 7.4.1 避免一味追求互動的榨取式科技、欺騙性設計 7.4.2 朝負責任科技方向轉型 7.4.3 Character.AI 平台的用戶行為 7.4.4 開發商的道德責任與技術手段 7.5 總結第 8 章 生成式 AI 的未來發展與監管方向 8.1 自然語言成為與電腦溝通的介面 8.2 AI Agents(代理)將解鎖更多可能性 8.3 客製化個人助理 8.4 從倫理角度看 AI 監管 8.4.1 北美的監管狀況 8.4.2 歐盟的監管狀況 8.4.3 中國的監管狀況 8.4.4 企業自律 8.5 邁向全球 AI 治理架構 8.6 總結第 9 章 拓展視野:AGI、AI 意識、環境影響、開源 LLM 9.1 通用人工智慧 AGI 9.1.1 AGI 是什麼? 9.1.2 山姆.阿特曼對 AGI 的願景 9.1.3 優生學、超人類主義、後人類 9.1.4 長期主義對 AGI 的憂慮 9.2 AI 的感知與意識 9.2.1 感知與意識是什麼? 9.2.2 意識從哪裡產生? 9.2.3 意識思考與後設認知 9.2.4 AI 意識的研究持續進行 9.3 LLM 對環境的影響 9.3.1 從硬體生產到運算需求的全面影響 9.3.2 生成式 AI 的環境成本與碳足跡報告 9.4 改變 LLM 生態的開源社群 9.4.1 LlaMA 洩漏權重,促進開源 LLM 快速發展 9.4.2 DeepSeek-R1 權重開源,打破美國技術壟斷 9.4.3 開源與封閉 LLM 的優缺點 9.4.4 如何為開源社群盡一份心力 9.5 總結

原價: 580 售價: 522 現省: 58元
立即查看
書籍資訊 詳細資訊 & 心得 為您推薦

書籍分類

  • 資訊 資訊
  • 工程 工程
  • 數學與統計學 數學與統計學
  • 機率與統計 機率與統計
  • 自然科學 自然科學
  • 健康科學 健康科學
  • 地球與環境 地球與環境
  • 建築、設計與藝術 建築、設計與藝術
  • 人文與社會科學 人文與社會科學
  • 教育 教育
  • 語言學習與考試 語言學習與考試
  • 法律 法律
  • 會計與財務 會計與財務
  • 大眾傳播 大眾傳播
  • 觀光與休閒餐旅 觀光與休閒餐旅
  • 考試用書 考試用書
  • 研究方法 研究方法
  • 商業與管理 商業與管理
  • 經濟學 經濟學
  • 心理學 心理學
  • 生活 生活
  • 生活風格商品 生活風格商品
  • 參考書/測驗卷/輔材 參考書/測驗卷/輔材
您的購物車
貼心提醒:中文書超過5本,原文書超過3本超商容易超重,建議選擇宅配或分開下單